L'informaticien Duke remporte le « prix Nobel » d'une valeur de $1M pour ses travaux sur l'intelligence artificielle

Date publiée:

par Ken Kingery

Qu'il s'agisse de prévenir les explosions sur les réseaux électriques, de repérer des tendances parmi les crimes passés ou d'optimiser les ressources pour soigner les patients gravement malades, Cynthia Rudin, informaticienne à l'Université Duke, souhaite que l'intelligence artificielle (IA) montre son travail. Surtout lorsqu’il s’agit de prendre des décisions qui affectent profondément la vie des gens.

Alors que de nombreux chercheurs dans le domaine en développement de l’apprentissage automatique se concentraient sur l’amélioration des algorithmes, Rudin souhaitait plutôt utiliser le pouvoir de l’IA pour aider la société. Elle a choisi de saisir les opportunités d'appliquer les techniques d'apprentissage automatique à d'importants problèmes de société et, ce faisant, elle a réalisé que le potentiel de l'IA est mieux exploité lorsque les humains peuvent scruter l'intérieur et comprendre ce qu'elle fait.

Aujourd'hui, après 15 ans de promotion et de développement d'algorithmes d'apprentissage automatique « interprétables » qui permettent aux humains de voir à l'intérieur de l'IA, les contributions de Rudin dans ce domaine lui ont valu le prix Squirrel AI Award de $1 million pour l'intelligence artificielle au profit de l'humanité de l'Association pour l'avancement de l'intelligence artificielle (AAAI). Fondée en 1979, l'AAAI est une société scientifique internationale de premier plan au service des chercheurs, des praticiens et des éducateurs en IA.

« Seules les distinctions de renommée mondiale, telles que le prix Nobel et le prix AM Turing de l'Association of Computing Machinery, comportent des récompenses monétaires pouvant atteindre un million de dollars. Les travaux du professeur Rudin mettent en évidence l'importance de la transparence pour les systèmes d'IA dans les domaines à haut risque. Son courage dans la résolution de questions controversées souligne l’importance de la recherche pour relever les défis critiques liés à une utilisation responsable et éthique de l’IA.

YOLANDA GIL

Rudin, professeur d'informatique et d'ingénierie à Duke, est le deuxième récipiendaire de ce nouveau prix annuel, financé par la société d'éducation en ligne Squirrel AI pour récompenser les réalisations en matière d'intelligence artificielle d'une manière comparable aux premiers prix dans des domaines plus traditionnels.

Elle est citée pour « son travail scientifique pionnier dans le domaine des systèmes d'IA interprétables et transparents dans des déploiements réels, la défense de ces fonctionnalités dans des domaines très sensibles tels que la justice sociale et le diagnostic médical, et son rôle de modèle pour les chercheurs et praticiens. »

"Seules les récompenses de renommée mondiale, telles que le prix Nobel et le prix AM Turing de l'Association of Computing Machinery, comportent des récompenses monétaires pouvant atteindre un million de dollars", a déclaré Yolanda Gil, présidente du comité des prix de l'AAAI et ancienne présidente. « Les travaux du professeur Rudin mettent en évidence l'importance de la transparence pour les systèmes d'IA dans les domaines à haut risque. Son courage dans la résolution de questions controversées souligne l’importance de la recherche pour relever les défis critiques liés à une utilisation responsable et éthique de l’IA.

Le premier projet appliqué de Rudin était une collaboration avec Con Edison, la société énergétique responsable de l'alimentation électrique de la ville de New York. Sa mission consistait à utiliser l'apprentissage automatique pour prédire quels trous d'égout risquaient d'exploser en raison de circuits électriques dégradés et surchargés. Mais elle a vite découvert que peu importe le nombre de nouveautés académiques qu'elle ajoutait à son code, celui-ci avait du mal à améliorer de manière significative les performances lorsqu'il était confronté aux défis posés par le travail avec des notes manuscrites des répartiteurs et des documents comptables de l'époque de Thomas Edison.

"Nous obtenions plus de précision grâce à des techniques statistiques classiques simples et une meilleure compréhension des données à mesure que nous continuions à travailler avec elles", a déclaré Rudin. « Si nous pouvions comprendre quelles informations les modèles prédictifs utilisaient, nous pourrions demander aux ingénieurs de Con Edison des commentaires utiles qui amélioreraient l'ensemble de notre processus. C'est l'interprétabilité du processus qui a contribué à améliorer la précision de nos prédictions, et non un modèle d'apprentissage automatique plus vaste ou plus sophistiqué. C'est ce sur quoi j'ai décidé de travailler, et c'est la base sur laquelle repose mon laboratoire. »https://www.youtube.com/embed/PwLN5irdMT8?wmode=opaque&wmode=opaque

Au cours de la décennie suivante, Rudin a développé des techniques d’apprentissage automatique interprétable, qui sont des modèles prédictifs qui s’expliquent d’une manière que les humains peuvent comprendre. Bien que le code permettant de concevoir ces formules soit complexe et sophistiqué, les formules peuvent être suffisamment petites pour être écrites en quelques lignes sur une fiche.

Rudin a appliqué sa marque d'apprentissage automatique interprétable à de nombreux projets percutants. Avec ses collaborateurs Brandon Westover et Aaron Struck du Massachusetts General Hospital, et son ancien étudiant Berk Ustun, elle a conçu un système simple basé sur des points qui peut prédire quels patients sont les plus à risque d'avoir des crises destructrices après un accident vasculaire cérébral ou une autre lésion cérébrale. Et avec son ancien étudiant du MIT, Tong Wang, et le département de police de Cambridge, elle a développé un modèle qui permet de découvrir les points communs entre les crimes afin de déterminer s'ils pourraient faire partie d'une série commise par les mêmes criminels. Ce programme open source est finalement devenu la base de l'algorithme Patternizr du département de police de New York, un morceau de code puissant qui détermine si un nouveau crime commis dans la ville est lié à des crimes passés.

« L'engagement de Cynthia à résoudre d'importants problèmes du monde réel, son désir de travailler en étroite collaboration avec des experts du domaine et sa capacité à distiller et expliquer des modèles complexes sont sans précédent », a déclaré Daniel Wagner, surintendant adjoint du département de police de Cambridge. « Ses recherches ont abouti à des contributions significatives dans le domaine de l'analyse de la criminalité et du maintien de l'ordre. Plus impressionnant encore, elle critique vivement les modèles de « boîte noire » potentiellement injustes dans le domaine de la justice pénale et d'autres domaines à enjeux élevés, et est une ardente défenseure de modèles transparents et interprétables dans lesquels des résultats précis, justes et sans parti pris sont essentiels.

Les modèles de boîtes noires sont à l’opposé des codes transparents de Rudin. Les méthodes appliquées dans ces algorithmes d’IA empêchent les humains de comprendre de quels facteurs dépendent les modèles, sur quelles données ils se concentrent et comment ils les utilisent. Même si cela ne pose pas de problème pour des tâches triviales telles que distinguer un chien d'un chat, cela pourrait poser un énorme problème pour des décisions à enjeux élevés qui changent la vie des gens.

« L'engagement de Cynthia à résoudre d'importants problèmes du monde réel, son désir de travailler en étroite collaboration avec des experts du domaine et sa capacité à distiller et à expliquer des modèles complexes sont sans précédent. Ses recherches ont abouti à des contributions significatives dans le domaine de l'analyse de la criminalité et du maintien de l'ordre. Plus impressionnant encore, elle critique vivement les modèles de « boîte noire » potentiellement injustes dans le domaine de la justice pénale et d'autres domaines à enjeux élevés, et est une ardente défenseure de modèles transparents et interprétables dans lesquels des résultats précis, justes et sans parti pris sont essentiels.

DANIEL WAGNER

"Cynthia change le paysage de la façon dont l'IA est utilisée dans les applications sociétales en réorientant les efforts des modèles de boîte noire vers des modèles interprétables en montrant que la sagesse conventionnelle - selon laquelle les boîtes noires sont généralement plus précises - est très souvent fausse", a déclaré Jun Yang. , directeur du département d'informatique de Duke. « Cela rend plus difficile la justification du fait de soumettre des individus (tels que des accusés) à des modèles de boîte noire dans des situations à enjeux élevés. L'interprétabilité des modèles de Cynthia a été cruciale pour leur adoption dans la pratique, car ils aident les décideurs humains, plutôt que de les remplacer.

Un exemple marquant concerne COMPAS, un algorithme d'IA utilisé dans plusieurs États pour prendre des décisions de libération sous caution qui a été accusé par une enquête ProPublica d'utiliser partiellement la race comme facteur dans ses calculs. L’accusation est cependant difficile à prouver, car les détails de l’algorithme sont des informations exclusives et certains aspects importants de l’analyse réalisée par ProPublica sont discutables. L'équipe de Rudin a démontré qu'un modèle simple interprétable qui révèle exactement les facteurs qu'il prend en considération est tout aussi efficace pour prédire si une personne commettra ou non un autre crime. Cela soulève la question, dit Rudin, de savoir pourquoi les modèles de boîte noire doivent être utilisés pour ce type de décisions à enjeux élevés.

Taux de changement · Ouvrir la boîte noire

"Nous avons systématiquement montré que pour les applications à enjeux élevés, il n'y a aucune perte de précision pour gagner en interprétabilité, à condition d'optimiser soigneusement nos modèles", a déclaré Rudin. « Nous avons constaté cela dans le cas de décisions de justice pénale, de nombreuses décisions en matière de soins de santé, notamment en matière d'imagerie médicale, de décisions relatives à l'entretien du réseau électrique, de décisions en matière de prêts financiers, etc. Savoir que cela est possible change notre façon de considérer l’IA comme incapable de s’expliquer.

Tout au long de sa carrière, Rudin a non seulement créé ces modèles d'IA interprétables, mais a également développé et publié des techniques pour aider les autres à faire de même. Cela n'a pas toujours été facile. Lorsqu'elle a commencé à publier son travail, les termes « science des données » et « apprentissage automatique interprétable » n'existaient pas, et il n'existait aucune catégorie dans laquelle ses recherches s'inscrivaient parfaitement, ce qui signifie que les éditeurs et les critiques ne savaient pas quoi en faire. il. Cynthia a découvert que si un article ne prouvait pas les théorèmes et ne prétendait pas que ses algorithmes étaient plus précis, il était – et est souvent encore – plus difficile à publier.

«J'ai eu très tôt une énorme admiration pour Cynthia, pour son esprit d'indépendance, sa détermination et sa recherche incessante d'une véritable compréhension de tout ce qu'elle a rencontré en cours et dans les devoirs. Même lorsqu’elle était étudiante diplômée, elle était une bâtisseuse communautaire, défendant les autres membres de sa cohorte.

INGRID DAUBECHIES

Alors que Rudin continue d’aider les gens et de publier ses créations interprétables – et que de plus en plus de préoccupations continuent de surgir concernant le code de la boîte noire – son influence commence enfin à faire tourner le navire. Il existe désormais des catégories entières dans les revues et conférences d’apprentissage automatique consacrées aux travaux interprétables et appliqués. D’autres collègues dans le domaine et leurs collaborateurs soulignent l’importance de l’interprétabilité pour concevoir des systèmes d’IA fiables.

«J'ai eu très tôt une énorme admiration pour Cynthia, pour son esprit d'indépendance, sa détermination et sa recherche incessante d'une véritable compréhension de tout ce qu'elle a rencontré de nouveau en classe et dans les devoirs», a déclaré Ingrid Daubechies, lauréate James B. Duke. Professeur de mathématiques et de génie électrique et informatique, l'un des plus éminents chercheurs mondiaux en traitement du signal et l'un des conseillers de doctorat de Rudin à l'Université de Princeton. « Même lorsqu’elle était étudiante diplômée, elle était une bâtisseuse communautaire, défendant les autres membres de sa cohorte. Elle m'a initié à l'apprentissage automatique, car ce n'était pas un domaine dans lequel je n'avais aucune expertise avant qu'elle ne m'y pousse gentiment mais avec beaucoup de persistance. Je suis très heureux de cette reconnaissance merveilleuse et très méritée pour elle !

"Je ne pourrais pas être plus ravi de voir le travail de Cynthia honoré de cette manière", a ajouté le deuxième conseiller de doctorat de Rudin, Robert Schapire, partenaire de Microsoft Research, dont les travaux sur le "boosting" ont contribué à jeter les bases de l'apprentissage automatique moderne. "Pour ses recherches inspirantes et perspicaces, sa pensée indépendante qui l'a conduite dans des directions très différentes du courant dominant, et pour son attention de longue date aux questions et problèmes d'importance pratique et sociétale."

Rudin a obtenu des diplômes de premier cycle en physique mathématique et en théorie musicale de l'Université de Buffalo avant de terminer son doctorat en mathématiques appliquées et informatiques à Princeton. Elle a ensuite travaillé comme chercheuse postdoctorale à la National Science Foundation à l'Université de New York et comme chercheuse scientifique associée à l'Université de Columbia. Elle est devenue professeure agrégée de statistiques au Massachusetts Institute of Technology avant de rejoindre la faculté de Duke en 2017, où elle occupe des postes en informatique, génie électrique et informatique, biostatistique et bioinformatique, et science statistique.

Elle est trois fois récipiendaire du prix INFORMS Innovative Applications in Analytics, qui récompense les applications créatives et uniques des techniques analytiques, et est membre de l'American Statistical Association et de l'Institute of Mathematical Statistics.

"Je tiens à remercier AAAI et Squirrel AI pour avoir créé ce prix qui, je le sais, changera la donne dans le domaine", a déclaré Rudin. "Le fait d'avoir un 'Prix Nobel' pour l'IA afin d'aider la société montre clairement que ce sujet - le travail de l'IA au profit de la société - est réellement important."

(C) Université Duke 

Source primaire: WRAL TechWire