Scroll to top

LA VISIÓN ARTIFICIAL ES HACER QUE LAS COMPUTADORAS VEAN: ULISES MOYA

LA VISIÓN ARTIFICIAL ES HACER QUE LAS COMPUTADORAS VEAN: ULISES MOYA

agosto 16, 2022
Antonio Lazcano Boletines Comunicados Institución Pablo Rudomin
        • Las neurociencias de la visión natural y artificial, fue el nombre de la conferencia impartida por el especialista Ulises Moya Sánchez, transmitida en vivo el 15 de agosto por las plataformas digitales de El Colegio Nacional.
        • La sesión formó parte del ciclo Olores, sabores y dolores: una visión neurobiológica, coordinado por el colegiado Pablo Rudomin y Ranier Gutiérrez, del CINVESTAV.  
        • Aunque la visión artificial está bioinspirada, no todos los modelos son robustos, aún son susceptibles de ataques y errores, que se pueden prever y corregir con modelos matemáticos, afirmó Moya.   

“La visión artificial es hacer que las computadoras vean, es una tarea complicada ya que nosotros nos olvidamos de lo complejo que puede ser por el buen funcionamiento de nuestra visión natural”, expuso Ulises Moya Sánchez, jefe de gabinete de la Dirección de Inteligencia Artificial, de la Coordinación General de Innovación del Gobierno del Estado de Jalisco, al impartir la conferencia Las neurociencias de la visión natural y artificial. 

La sesión se transmitió en vivo el 15 de agosto por las plataformas digitales de El Colegio Nacional y formó parte del ciclo Olores, sabores y dolores: una visión neurobiológica, coordinado por el colegiado Pablo Rudomin y Ranier Gutiérrez, del Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional.  

En su participación, el doctor Moya se refirió a su trabajo en la Coordinación General de Innovación Gubernamental, en el que, a través de la inteligencia artificial, busca resolver problemas. Explicó que en la visión artificial intervienen los siguientes elementos, una parte de luz, un objeto, un sensor, que en el caso de las máquinas puede ser una cámara, y un procesador. “En la visión artificial es una computadora la que hace este proceso. En este fenómeno hay partes físicas, de procesamiento de señales, de electrónica y un componente actualizado que es la inteligencia artificial”.

Recordó que en 2010 nació el proyecto Imagenet, con el que se logró clasificar un millón de fotografías en cien mil grupos de imágenes de forma automática y, en 2015, este programa redujo la probabilidad del error humano. “La comunidad científica logró pasar este conocimiento a la industria y otras áreas científicas, y se invirtió mucho en inteligencia artificial, que con los años se conoció como aprendizaje profundo, que se fue divulgando en escuelas, empresas, en el Pentágono y en la creación de hardware nuevo”. 

Sostuvo que este 2022 se presentó el proyecto Flamingo, un programa que logra describir lo que pasa en una imagen y es capaz generar preguntas. “Es una herramienta que no sólo se usa para fines lúdicos, también en la industria para vehículos autónomos, en la medicina y otras áreas científicas”, un ejemplo de cómo evolucionó la visión artificial, ahora no sólo clasifica, sino que logra hacer cuestionamientos. 

En palabras del especialista, este tipo de desarrollos utilizan redes neuronales artificiales profundas que logran procesar más datos con un mayor poder de cómputo. Comentó que para comprender la evolución de la inteligencia artificial, se pueden rastrear tres grandes cambios: en 1950, se intentó mimetizar los patrones humanos; en 1980 se logró aprender datos y ejemplos; y en el año 2010 se innovó con el uso de las redes neuronales artificiales profundas, que es la lectura de muchas capas de información a través de los superlativos como más y mayor.  

“Esa es la característica de la nueva inteligencia artificial que se distingue del aprendizaje automático y profundo, porque el aprendizaje profundo encuentra las características y las clasifica en un mismo modelo, esta extracción de características las puede hacer de manera automática y antes no era así”, agregó.  

De acuerdo con Moya, la visión artificial tiene un elemento base que es un perceptrón, es decir, un modelo matemático inspirado en una neurona biológica que tiene entrada, función de activación o una operación, y una salida, y aunque no funciona igual que una neurona, su inspiración es notable. “Sin embargo, para la visión, las entradas de datos son imágenes en dos dimensiones, estas señales tienen relaciones geométricas y es muy importante su combinación”. 

Aseguró que otro de los problemas a tomar en cuenta en esta tecnología es que el humano puede clasificar imágenes degradadas, con dificultad para distinguirse, pero si la visión artificial observa imágenes con bajo contraste, su eficiencia baja considerablemente. “También hay errores de contexto que un humano no tendría, por ejemplo, si en la imagen hay un perro detrás de unos barrotes que le generen sombra en el cuerpo, este tipo de tecnología pensaría que es un tigre. Se están atacando esos problemas con modelos matemáticos en distintas partes del mundo”. 

Puntualizó que, en el Gobierno de Jalisco, se está desarrollando un proyecto de detección temprana y oportuna de la retinopatía diabética. “México tiene la tasa más alta de incidencia de diabetes mellitus del mundo y la retinopatía diabética es una de las complicaciones más graves debido a un inadecuado nivel de glucosa, tiene una prevalencia de entre 25% y 45% en pacientes”. 

Detalló que Jalisco tiene cerca de 500 mil personas que deberían hacerse un examen anual y sólo hay 50 especialistas en retina en el estado. La forma en la que se evalúa esta enfermedad es a través de una imagen de la retina que puede ser analógica o digital. “Lo que nos interesa detectar de estas enfermedades, a través de las imágenes, son hemorragias, microneurismos, malformaciones, exudados, isquemia y algún tipo como de taponamiento cuya vena o arteria se pone rosada”. 

 

“Este es el problema que queremos atacar, y lo tenemos que transformar en un flujo de inteligencia artificial. Las vías clínicas de México nos dicen que si nosotros tenemos pacientes que sean de nivel R0 y R1 hay que darles un seguimiento y hacerles otro examen en un año o en 6 meses. Si tienen un nivel más alto hay que enviarlos al siguiente nivel de salud y ya sea que se les dé un tratamiento láser o se programe una cirugía”. 

El doctor Moya afirmó que el modelo que desarrollaron realiza un preprocesamiento para después analizar el nivel de la imagen. Identifica las regiones anatómicas más importantes que son el nervio óptico y la mácula y si no detecta alguna, no debería entrar al siguiente flujo. “Una de las partes más importantes de este tipo de modelos es que nosotros intentamos explicar qué es lo que está viendo la red y lo hacemos a través de esta tecnología, a través de los gradientes. En una imagen sana se fija en el nervio óptico y en la mácula, y en una imagen con un artefacto se fija en la saturación”. 

Los modelos que clasifican si un paciente va a primer nivel o segundo nivel son conocidos como M1, M2, M3, que tienen distintos filtros, y un dato relevante es que se detectó que una imagen de mala calidad bajaba el desempeño en un 90% de eficiencia. “La visión artificial ha mejorado notablemente para tareas específicas. Aunque la visión artificial está bioinspirada, no todos los modelos son robustos, aún son susceptibles de ataques y errores, que se pueden prever y corregir con modelos matemáticos”.  

La conferencia Las neurociencias de la visión natural y artificial, impartida por  Ulises Moya Sánchez se encuentra disponible en el Canal de YouTube de la institución: elcolegionacionalmx.

Página web: www.colnal.mx

Youtube: elcolegionacionalmx

Facebook: ColegioNacional.mx

Twitter: @ColegioNal­_mx

Correo de contacto: prensa@colnal.mx

 

Boletines relacionados

X
X