Modelo de IA muestra con precisión la presencia y ubicación del cáncer en imágenes patológicas

Por el equipo editorial de LabMedica en español
Actualizado el 17 Aug 2022

Por lo general, es necesario marcar con precisión la ubicación del sitio del cáncer en imágenes patológicas para resolver los problemas relacionados con la zonificación que indica la información de ubicación del cáncer, lo que lleva mucho tiempo y, por lo tanto, aumenta el costo. Los modelos de aprendizaje profundo existentes necesitan construir un conjunto de datos, en el que se dibujó con precisión la ubicación del cáncer, para especificar el sitio del cáncer. Ahora, los investigadores han desarrollado un modelo de aprendizaje profundo supervisado débilmente que puede mostrar con precisión la presencia y la ubicación del cáncer en imágenes patológicas basadas solo en datos donde el cáncer está presente. El modelo de aprendizaje profundo mejora la eficiencia y se espera que haga una contribución importante al campo de investigación relevante.

Los científicos del Instituto de Ciencia y Tecnología Daegu Gyeongbuk (DGIST, Daegu, Corea) desarrollaron el modelo de aprendizaje débilmente supervisado que zonifica los sitios de cáncer con solo datos aproximados como "si el cáncer en la imagen está presente o no" está bajo estudio activo. Sin embargo, habría un deterioro significativo en el rendimiento si el modelo de aprendizaje débilmente supervisado existente se aplicara a un gran conjunto de datos de imágenes patológicas donde el tamaño de una imagen es tan grande como unos pocos gigabytes. Para resolver este problema, los investigadores intentaron mejorar el rendimiento dividiendo la imagen patológica en parches, aunque los parches divididos pierden la correlación entre la información de ubicación y cada dato dividido, lo que significa que hay un límite para usar toda la información disponible.


Imagen: El modelo de IA reduce el costo y el tiempo y aumenta la precisión del diagnóstico de cáncer (Fotografía cortesía de Pexels)

En respuesta, el equipo de investigación descubrió una técnica de segmentación hacia el sitio del cáncer basada únicamente en los datos aprendidos que indican la presencia de cáncer por diapositiva. El equipo desarrolló una tecnología de compresión de imágenes patológicas que primero le enseña a la red a extraer efectivamente características significativas de los parches a través del aprendizaje contrastivo no supervisado y lo utiliza para detectar las características principales mientras mantiene la información de cada ubicación para reducir el tamaño de la imagen y mantener la correlación entre los parches. Más tarde, el equipo desarrolló un modelo que puede encontrar la región que es muy probable que tenga cáncer de las imágenes patológicas comprimidas usando un mapa de activación de clase y ubicar todas las regiones con alta probabilidad de que tengan cáncer de las imágenes patológicas completas usando un módulo de correlación de píxeles (PCM). El modelo de aprendizaje profundo recientemente desarrollado mostró una puntuación de coeficiente de similitud de dados (DSC) de hasta 81-84 solo con los datos de aprendizaje con etiquetas de cáncer a nivel de diapositiva en el problema de zonificación del cáncer. Superó significativamente el rendimiento de los métodos de nivel de parche propuestos anteriormente u otras técnicas de aprendizaje supervisadas débilmente (puntuación DSC: 20 - 70).

“El modelo desarrollado a través de este estudio ha mejorado en gran medida el rendimiento del aprendizaje débilmente supervisado de imágenes patológicas, y se espera que contribuya a mejorar la eficiencia de varios estudios que requieren análisis de imágenes patológicas”, dijo el profesor Park Sang-Hyun del Departamento de Ingeniería Robótica y Mecatrónica en DGIST. "Si podemos mejorar aún más la tecnología relacionada en el futuro, será posible usarla universalmente para varios problemas de zonificación de imágenes médicas".

Enlaces relacionados:
DGIST  


Últimas Patología noticias