Femmes dans l'IA : Kristine Gloria encourage les femmes à entrer dans le domaine et à 'suivre leur curiosité'

Pour donner aux femmes universitaires et autres spécialisées dans l'IA la reconnaissance qu'elles méritent - et qui leur est due depuis longtemps - TechCrunch lance une série d'interviews mettant en avant des femmes remarquables ayant contribué à la révolution de l'IA. Nous publierons plusieurs articles tout au long de l'année alors que le boom de l'IA se poursuit, mettant en lumière des travaux clés souvent méconnus. Lisez d'autres profils ici.

Kristine Gloria a dirigé précédemment l'Initiative sur les technologies émergentes et intelligentes de l'Aspen Institute - l'Aspen Institute étant le think tank basé à Washington, axé sur le leadership basé sur des valeurs et l'expertise en matière de politique. Gloria détient un doctorat en sciences cognitives et une maîtrise en études des médias, et ses travaux antérieurs incluent des recherches au sein de l'Initiative de recherche sur la politique Internet du MIT, du Startup Policy Lab basé à San Francisco et du Centre pour la société, la technologie et la politique de l'UC Berkeley.

Q&R

En bref, comment avez-vous commencé dans le domaine de l'IA ? Qu'est-ce qui vous a attiré dans ce domaine ?

Pour être franche, je n'ai certainement pas commencé ma carrière en cherchant à travailler dans le domaine de l'IA. Tout d'abord, j'étais vraiment intéressée par comprendre l'intersection entre la technologie et la politique publique. À l'époque, je travaillais sur ma maîtrise en études des médias, explorant des idées autour de la culture du remix et de la propriété intellectuelle. Je vivais et travaillais à Washington en tant que Fellow Archer pour la Fondation New America. Un jour, je me souviens distinctement d'être assise dans une pièce remplie de décideurs et de politiciens qui utilisaient des termes qui ne correspondaient pas vraiment à leurs définitions techniques réelles. C'est peu de temps après cette réunion que j'ai réalisé que pour faire avancer les politiques publiques, j'avais besoin des qualifications nécessaires. Je suis retournée à l'école, j'ai obtenu mon doctorat en sciences cognitives avec une concentration sur les technologies sémantiques et la vie privée des consommateurs en ligne. J'ai eu la chance de trouver un mentor, un conseiller et un laboratoire qui encourageait une compréhension interdisciplinaire de la manière dont la technologie est conçue et construite. J'ai donc affiné mes compétences techniques tout en développant un point de vue plus critique sur les nombreuses façons dont la technologie interfère dans nos vies. Dans mon rôle de directrice de l'IA à l'Aspen Institute, j'ai ensuite eu le privilège d'idéer, d'engager et de collaborer avec certains des plus éminents penseurs en IA. Et je me suis toujours retrouvée attirée par ceux qui prenaient le temps de remettre en question profondément si et comment l'IA aurait un impact sur notre vie quotidienne.

Au fil des ans, j'ai dirigé diverses initiatives en matière d'IA et l'une des plus significatives est à peine commencée. Maintenant, en tant que membre fondateur de l'équipe et directrice des partenariats stratégiques et de l'innovation d'une nouvelle organisation à but non lucratif, Young Futures, je suis enthousiaste à l'idée d'intégrer ce type de réflexion pour atteindre notre mission de rendre le monde numérique plus facile pour les jeunes à grandir. En particulier, alors que l'IA générative devient la norme et que de nouvelles technologies émergent, il est à la fois urgent et crucial que nous aidions les préadolescents, les adolescents et leurs unités de soutien à naviguer ensemble dans cette vaste jungle numérique.

De quoi êtes-vous le plus fière (dans le domaine de l'IA) ?

Je suis particulièrement fière de deux initiatives. Tout d'abord, mon travail lié à la mise en lumière des tensions, des pièges et des effets de l'IA sur les communautés marginalisées. Publié en 2021, 'Pouvoir et Progrès dans les Biais Algorithmiques' articule des mois d'engagement des parties prenantes et de recherches sur cette question. Dans le rapport, nous posons l'une de mes questions préférées de tous les temps : 'Comment pouvons-nous (les opérateurs de données et d'algorithmes) recaster nos propres modèles pour anticiper un avenir différent, centré sur les besoins des plus vulnérables ?' Safiya Noble est l'auteure d'origine de cette question, et elle est une considération constante dans mon travail. La deuxième initiative la plus importante récemment est venue de mon temps à la tête des données chez Blue Fever, une entreprise ayant pour mission d'améliorer le bien-être des jeunes dans un espace en ligne sans jugement et inclusif. Plus précisément, j'ai dirigé la conception et le développement de Blue, le premier compagnon d'assistance émotionnelle IA. J'ai beaucoup appris dans ce processus. En particulier, j'ai acquis une nouvelle appréciation profonde de l'impact qu'un compagnon virtuel peut avoir sur quelqu'un qui lutte ou qui n'a peut-être pas les systèmes de soutien en place. Blue a été conçu et construit pour apporter son 'énergie de grand frère' pour aider les utilisateurs à réfléchir à leurs besoins mentaux et émotionnels.

Comment naviguez-vous à travers les défis de l'industrie technologique dominée par les hommes et, par extension, l'industrie de l'IA dominée par les hommes ?

Malheureusement, les défis sont réels et toujours très actuels. J'ai connu ma juste part d'incrédulité quant à mes compétences et mon expérience parmi toutes sortes de collègues dans cet espace. Mais pour chacun de ces défis négatifs, je peux pointer un exemple d'un collègue masculin étant mon plus grand soutien. C'est un environnement difficile, et je me rattache à ces exemples pour m'aider à gérer. Je pense aussi que tant de choses ont changé dans cet espace même au cours des cinq dernières années. Les compétences nécessaires et les expériences professionnelles jugées comme faisant partie de 'l'IA' ne sont plus strictement focalisées sur l'informatique.

Quels conseils donneriez-vous aux femmes qui cherchent à entrer dans le domaine de l'IA ?

Entrez et suivez votre curiosité. Cet espace est en mouvement constant, et la recherche la plus intéressante (et probablement la plus productive) est de continuer à être critiques et optimistes sur le domaine lui-même.

Quels sont certains des problèmes les plus pressants auxquels l'IA est confrontée à mesure qu'elle évolue ?

Je pense en fait que certains des problèmes les plus pressants auxquels l'IA est confrontée sont les mêmes problèmes que nous n'avons pas tout à fait résolus depuis l'introduction de l'internet. Il s'agit de questions liées à l'agence, à l'autonomie, à la vie privée, à l'équité, à l'égalité, et ainsi de suite. Ce sont les éléments essentiels de la manière dont nous nous situons parmi les machines. Oui, l'IA peut rendre les choses considérablement plus compliquées - tout comme les changements socio-politiques le peuvent.

De quels problèmes les utilisateurs d'IA devraient-ils être conscients ?

Les utilisateurs d'IA devraient être conscients de la manière dont ces systèmes compliquent ou améliorent leur propre agence et autonomie. De plus, à mesure que le discours autour de la manière dont la technologie, et particulièrement l'IA, peut impacter notre bien-être, il est important de se rappeler qu'il existe des outils éprouvés pour gérer des résultats négatifs.

Quelle est la meilleure façon de construire de manière responsable de l'IA ?

Une construction responsable de l'IA est plus que simplement le code. Une construction vraiment responsable prend en compte la conception, la gouvernance, les politiques et le modèle économique. Tous influencent les autres, et nous continuerons de ne pas atteindre nos objectifs si nous nous efforçons uniquement de traiter une partie de la construction.

Comment les investisseurs peuvent-ils pousser pour une IA responsable ?

Une tâche spécifique, que j'admire chez Mozilla Ventures, est d'exiger une carte modèle IA lors de son diligence. Développée par Timnit Gebru et d'autres, cette pratique de création de cartes modèles permet aux équipes - comme les investisseurs - d'évaluer les risques et les problèmes de sécurité des modèles IA utilisés dans un système. De plus, en lien avec ce qui précède, les investisseurs devraient évaluer de manière holistique la capacité du système à être construit de manière responsable. Par exemple, si vous disposez de fonctionnalités de confiance et de sécurité dans la construction ou si vous publiez une carte modèle, mais que votre modèle économique exploite les données de populations vulnérables, alors il y a un désalignement avec votre intention en tant qu'investisseur. Je pense que vous pouvez construire de manière responsable et rester rentable. Enfin, j'aimerais voir plus d'opportunités de financement collaboratif parmi les investisseurs. Dans le domaine du bien-être et de la santé mentale, les solutions seront variées et vastes, car aucune personne n'est la même et aucune solution unique ne peut résoudre tous les problèmes. Une action collective parmi les investisseurs intéressés à résoudre le problème serait une valeur ajoutée bienvenue.