El informático de Duke gana el 'Premio Nobel' valorado en $1M por su trabajo en inteligencia artificial

Fecha de publicación:

por Ken Kingery

Ya sea para prevenir explosiones en las redes eléctricas, detectar patrones entre crímenes pasados u optimizar recursos en el cuidado de pacientes críticamente enfermos, la científica informática de la Universidad de Duke Cynthia Rudin quiere que la inteligencia artificial (IA) muestre su trabajo. Especialmente cuando se trata de tomar decisiones que afectan profundamente la vida de las personas.

Si bien muchos académicos en el campo en desarrollo del aprendizaje automático se centraban en mejorar los algoritmos, Rudin quería utilizar el poder de la IA para ayudar a la sociedad. Eligió buscar oportunidades para aplicar técnicas de aprendizaje automático a importantes problemas sociales y, en el proceso, se dio cuenta de que el potencial de la IA se libera mejor cuando los humanos pueden mirar dentro y comprender lo que está haciendo.

Ahora, después de 15 años de defender y desarrollar algoritmos de aprendizaje automático "interpretables" que permitan a los humanos ver el interior de la IA, las contribuciones de Rudin al campo le han valido el Premio Squirrel AI de $1 millón a la Inteligencia Artificial en Beneficio de la Humanidad de la Asociación para el Avance de la Inteligencia Artificial (AAAI). Fundada en 1979, AAAI es una destacada sociedad científica internacional que presta servicios a investigadores, profesionales y educadores de IA.

“Sólo los reconocimientos de renombre mundial, como el Premio Nobel y el Premio AM Turing de la Asociación de Maquinaria de Computación, conllevan recompensas monetarias del nivel de millones de dólares. El trabajo del profesor Rudin destaca la importancia de la transparencia para los sistemas de IA en dominios de alto riesgo. Su valentía al abordar cuestiones controvertidas resalta la importancia de la investigación para abordar los desafíos críticos en el uso responsable y ético de la IA”.

YOLANDA GIL

Rudin, profesor de informática e ingeniería en Duke, es el segundo ganador del nuevo premio anual, financiado por la empresa de educación en línea Squirrel AI para reconocer los logros en inteligencia artificial de una manera comparable a los principales premios en campos más tradicionales.

Se la cita por “trabajo científico pionero en el área de sistemas de IA interpretables y transparentes en implementaciones del mundo real, la defensa de estas características en áreas altamente sensibles como la justicia social y el diagnóstico médico, y por servir como modelo a seguir para investigadores y practicantes”.

"Sólo los reconocimientos de renombre mundial, como el Premio Nobel y el Premio AM Turing de la Asociación de Maquinaria de Computación, conllevan recompensas monetarias del nivel de un millón de dólares", dijo la presidenta del comité de premios de la AAAI y ex presidenta, Yolanda Gil. “El trabajo del profesor Rudin destaca la importancia de la transparencia para los sistemas de IA en dominios de alto riesgo. Su valentía al abordar cuestiones controvertidas resalta la importancia de la investigación para abordar los desafíos críticos en el uso responsable y ético de la IA”.

El primer proyecto aplicado de Rudin fue una colaboración con Con Edison, la compañía energética responsable de alimentar a la ciudad de Nueva York. Su tarea consistía en utilizar el aprendizaje automático para predecir qué pozos de inspección corrían riesgo de explotar debido a la degradación y sobrecarga de los circuitos eléctricos. Pero pronto descubrió que, sin importar cuántas novedades académicas publicadas agregara a su código, este tenía dificultades para mejorar significativamente el rendimiento cuando se enfrentaba a los desafíos que planteaba trabajar con notas escritas a mano de los despachadores y registros contables de la época de Thomas Edison.

"Obtuvimos más precisión a partir de técnicas estadísticas clásicas simples y una mejor comprensión de los datos a medida que continuamos trabajando con ellos", dijo Rudin. “Si pudiéramos entender qué información estaban usando los modelos predictivos, podríamos pedir a los ingenieros de Con Edison comentarios útiles que mejoraran todo nuestro proceso. Fue la interpretabilidad del proceso lo que ayudó a mejorar la precisión de nuestras predicciones, no ningún modelo de aprendizaje automático más grande o más sofisticado. En eso decidí trabajar y es la base sobre la que se construye mi laboratorio”. https://www.youtube.com/embed/PwLN5irdMT8?wmode=opaque&wmode=opaque

Durante la siguiente década, Rudin desarrolló técnicas de aprendizaje automático interpretable, que son modelos predictivos que se explican a sí mismos de maneras que los humanos pueden entender. Si bien el código para diseñar estas fórmulas es complejo y sofisticado, las fórmulas pueden ser lo suficientemente pequeñas como para escribirlas en unas pocas líneas en una ficha.

Rudin ha aplicado su estilo de aprendizaje automático interpretable a numerosos proyectos impactantes. Con sus colaboradores Brandon Westover y Aaron Struck del Hospital General de Massachusetts, y su antiguo alumno Berk Ustun, diseñó un sistema simple basado en puntos que puede predecir qué pacientes tienen mayor riesgo de sufrir convulsiones destructivas después de un derrame cerebral u otra lesión cerebral. Y con su exalumno del MIT Tong Wang y el Departamento de Policía de Cambridge, desarrolló un modelo que ayuda a descubrir puntos en común entre crímenes para determinar si podrían ser parte de una serie cometida por los mismos criminales. Ese programa de código abierto eventualmente se convirtió en la base del algoritmo Patternizr del Departamento de Policía de Nueva York, un poderoso código que determina si un nuevo delito cometido en la ciudad está relacionado con delitos pasados.

"El compromiso de Cynthia para resolver importantes problemas del mundo real, su deseo de trabajar estrechamente con expertos en el campo y su capacidad para destilar y explicar modelos complejos no tiene paralelo", dijo Daniel Wagner, superintendente adjunto del Departamento de Policía de Cambridge. “Su investigación resultó en contribuciones significativas al campo del análisis del crimen y la vigilancia policial. Lo que es más impresionante, es una fuerte crítica de los modelos de "caja negra" potencialmente injustos en la justicia penal y otros campos de alto riesgo, y una intensa defensora de modelos transparentes e interpretables donde los resultados precisos, justos y libres de sesgos son esenciales".

Los modelos de caja negra son lo opuesto a los códigos transparentes de Rudin. Los métodos aplicados en estos algoritmos de IA hacen imposible que los humanos comprendan de qué factores dependen los modelos, en qué datos se centran los modelos y cómo los utilizan. Si bien esto puede no ser un problema para tareas triviales como distinguir un perro de un gato, podría ser un gran problema para decisiones de alto riesgo que cambian la vida de las personas.

“El compromiso de Cynthia para resolver importantes problemas del mundo real, su deseo de trabajar estrechamente con expertos en el campo y su capacidad para destilar y explicar modelos complejos no tienen paralelo. Su investigación resultó en importantes contribuciones al campo del análisis del crimen y la vigilancia policial. Lo que es más impresionante, es una fuerte crítica de los modelos de "caja negra" potencialmente injustos en la justicia penal y otros campos de alto riesgo, y una intensa defensora de modelos transparentes e interpretables donde los resultados precisos, justos y libres de sesgos son esenciales".

DANIEL WAGNER

"Cynthia está cambiando el panorama de cómo se utiliza la IA en aplicaciones sociales al desviar los esfuerzos de los modelos de cajas negras hacia modelos interpretables al mostrar que la sabiduría convencional (que las cajas negras suelen ser más precisas) es muy a menudo falsa", dijo Jun Yang. , presidente del departamento de informática de Duke. “Esto hace que sea más difícil justificar el sometimiento de individuos (como los acusados) a modelos de caja negra en situaciones de alto riesgo. La interpretabilidad de los modelos de Cynthia ha sido crucial para que se adopten en la práctica, ya que permiten a los tomadores de decisiones humanos, en lugar de reemplazarlos”.

Un ejemplo impactante es el de COMPAS, un algoritmo de inteligencia artificial utilizado en varios estados para tomar decisiones de libertad bajo fianza que fue acusado por una investigación de ProPublica de utilizar parcialmente la raza como factor en sus cálculos. Sin embargo, la acusación es difícil de probar, ya que los detalles del algoritmo son información privada y algunos aspectos importantes del análisis de ProPublica son cuestionables. El equipo de Rudin ha demostrado que un modelo simple e interpretable que revele exactamente qué factores está teniendo en cuenta es igual de bueno para predecir si una persona cometerá o no otro delito. Esto plantea la pregunta, dice Rudin, de por qué es necesario utilizar modelos de caja negra para este tipo de decisiones de alto riesgo.

Tasa de cambio · Abriendo la caja negra

"Hemos demostrado sistemáticamente que para aplicaciones de alto riesgo, no hay pérdida de precisión para ganar interpretabilidad, siempre y cuando optimicemos nuestros modelos cuidadosamente", dijo Rudin. “Hemos visto esto en decisiones de justicia penal, numerosas decisiones de atención médica, incluidas decisiones de imágenes médicas, decisiones de mantenimiento de la red eléctrica, decisiones de préstamos financieros y más. Saber que esto es posible cambia la forma en que pensamos que la IA es incapaz de explicarse a sí misma”.

A lo largo de su carrera, Rudin no solo ha creado estos modelos de IA interpretables, sino que también ha desarrollado y publicado técnicas para ayudar a otros a hacer lo mismo. Eso no siempre ha sido fácil. Cuando comenzó a publicar su trabajo, los términos "ciencia de datos" y "aprendizaje automático interpretable" no existían, y no había categorías en las que su investigación encajara claramente, lo que significa que los editores y revisores no sabían qué hacer con él. Cynthia descubrió que si un artículo no demostraba teoremas y afirmaba que sus algoritmos eran más precisos, era (y a menudo sigue siendo) más difícil de publicar.

“Desde muy temprano he sentido una enorme admiración por Cynthia, por su espíritu de independencia, su determinación y su incansable búsqueda de una verdadera comprensión de cualquier cosa nueva que encontraba en las clases y los trabajos. Incluso como estudiante de posgrado, ella fue una constructora de comunidades y defendió a otros en su cohorte”.

INGRID DAUBECIES

A medida que Rudin continúa ayudando a la gente y publicando sus diseños interpretables, y a medida que siguen surgiendo más preocupaciones con el código de caja negra, su influencia finalmente está comenzando a cambiar el rumbo. Ahora existen categorías enteras en revistas y conferencias sobre aprendizaje automático dedicadas al trabajo interpretable y aplicado. Otros colegas en el campo y sus colaboradores están expresando lo importante que es la interpretabilidad para diseñar sistemas de IA confiables.

“He sentido una enorme admiración por Cynthia desde muy temprano, por su espíritu de independencia, su determinación y su incesante búsqueda de una verdadera comprensión de cualquier cosa nueva que encontraba en clases y trabajos”, dijo Ingrid Daubechies, Distinguida James B. Duke. Profesor de Matemáticas e Ingeniería Eléctrica e Informática, uno de los investigadores más destacados del mundo en procesamiento de señales y uno de los asesores de doctorado de Rudin en la Universidad de Princeton. “Incluso como estudiante de posgrado, ella fue una constructora de comunidades y defendió a otros en su cohorte. Ella me metió en el aprendizaje automático, ya que no era un área en la que yo tuviera ninguna experiencia antes de que ella, suave pero muy persistentemente, me empujara a hacerlo. ¡Estoy muy feliz por este maravilloso y merecido reconocimiento para ella!”

"No podría estar más emocionado de ver el trabajo de Cynthia honrado de esta manera", añadió el segundo asesor de doctorado de Rudin, el socio de investigación de Microsoft, Robert Schapire, cuyo trabajo sobre "impulso" ayudó a sentar las bases del aprendizaje automático moderno. “Por su investigación inspiradora y perspicaz, su pensamiento independiente que la ha llevado en direcciones muy diferentes a las de la corriente principal, y por su atención constante a cuestiones y problemas de importancia práctica y social”.

Rudin obtuvo títulos universitarios en física matemática y teoría musical de la Universidad de Buffalo antes de completar su doctorado en matemáticas aplicadas y computacionales en Princeton. Luego trabajó como investigadora postdoctoral de la Fundación Nacional de Ciencias en la Universidad de Nueva York y como científica investigadora asociada en la Universidad de Columbia. Se convirtió en profesora asociada de estadística en el Instituto de Tecnología de Massachusetts antes de unirse a la facultad de Duke en 2017, donde ocupa cargos en informática, ingeniería eléctrica e informática, bioestadística y bioinformática, y ciencia estadística.

Ha recibido en tres ocasiones el Premio INFORMS a Aplicaciones Innovadoras en Análisis, que reconoce aplicaciones creativas y únicas de técnicas analíticas, y es miembro de la Asociación Estadounidense de Estadística y del Instituto de Estadística Matemática.

"Quiero agradecer a AAAI y Squirrel AI por crear este premio que sé que cambiará las reglas del juego en este campo", dijo Rudin. "Tener un 'Premio Nobel' para la IA para ayudar a la sociedad deja finalmente claro, sin lugar a dudas, que este tema (el trabajo de la IA en beneficio de la sociedad) es realmente importante".

(C) Universidad de Duke 

Fuente original: WRAL TechWire