Les femmes dans l'IA : Urvashi Aneja examine l'impact social de l'IA en Inde

Pour donner aux femmes universitaires et autres personnes centrées sur l'IA la reconnaissance qu'elles méritent - et qui est en retard - TechCrunch lance une série d'interviews mettant en lumière des femmes remarquables qui ont contribué à la révolution de l'IA. Nous publierons plusieurs articles tout au long de l'année alors que le boom de l'IA se poursuit, mettant en lumière des travaux clés souvent méconnus. Lisez d'autres profils .

Urvashi Aneja est la directrice fondatrice du Digital Futures Lab, un effort de recherche interdisciplinaire visant à examiner l'interaction entre la technologie et la société dans le Sud global. Elle est également chercheuse associée au programme Asie-Pacifique chez Chatham House, un institut de politique indépendant basé à Londres.

Les recherches actuelles d'Aneja se concentrent sur l'impact sociétal des systèmes de prise de décision algorithmiques en Inde, où elle est basée, et sur la gouvernance des plateformes. Aneja a récemment rédigé une étude sur les utilisations actuelles de l'IA en Inde, examinant des cas d'utilisation dans des secteurs tels que la police et l'agriculture.

Q&A

Brièvement, comment avez-vous commencé dans le domaine de l'IA ? Qu'est-ce qui vous a attirée dans ce domaine ?

J'ai commencé ma carrière dans la recherche et l'engagement politique dans le secteur humanitaire. Pendant plusieurs années, j'ai étudié l'utilisation des technologies numériques dans les crises prolongées dans des contextes à faibles ressources. J'ai rapidement appris qu'il y a une fine ligne entre l'innovation et l'expérimentation, en particulier lorsqu'il s'agit de populations vulnérables. Les enseignements de cette expérience m'ont profondément préoccupée par les récits techno-solutionnistes autour du potentiel des technologies numériques, en particulier de l'IA. En même temps, l'Inde avait lancé sa mission Digital India et sa stratégie nationale pour l'intelligence artificielle. J'étais troublée par les récits dominants qui considéraient l'IA comme une solution miracle pour les problèmes socio-économiques complexes de l'Inde, et par l'absence totale de discours critique sur la question.

Quel travail êtes-vous le plus fier (dans le domaine de l'IA) ?

Je suis fière d'avoir attiré l'attention sur l'économie politique de la production d'IA ainsi que sur les implications plus larges pour la justice sociale, les relations de travail et la durabilité environnementale. Très souvent, les récits sur l'IA se concentrent sur les gains d'applications spécifiques, et au mieux, sur les avantages et les risques de cette application. Mais cela cache la forêt pour un arbre - une approche orientée produit obscurcit les impacts structurels plus larges, tels que la contribution de l'IA à l'injustice épistémique, à la déqualification du travail et à la perpétuation du pouvoir incontrôlé dans le reste du monde. Je suis également fière d'avoir pu traduire ces préoccupations en politiques et réglementations concrètes - que ce soit en concevant des lignes directrices d'achat pour l'utilisation de l'IA dans le secteur public ou en fournissant des preuves lors de procédures judiciaires contre les grandes entreprises de la technologie dans le Sud global.

Comment naviguez-vous dans les défis de l'industrie technologique dominée par les hommes, et, par extension, de l'industrie de l'IA dominée par les hommes ?

En laissant mon travail parler. Et en se posant constamment la question : pourquoi ?

Quels conseils donneriez-vous aux femmes qui cherchent à entrer dans le domaine de l'IA ?

Développez vos connaissances et votre expertise. Assurez-vous que votre compréhension technique des problèmes est solide, mais ne vous concentrez pas uniquement étroitement sur l'IA. Au lieu de cela, étudiez largement afin de pouvoir établir des liens entre les domaines et les disciplines. Pas assez de gens comprennent l'IA comme un système socio-technique qui est le produit de l'histoire et de la culture.

Quels sont les problèmes les plus pressants auxquels l'IA est confrontée lors de son évolution ?

Je pense que le problème le plus pressant est la concentration du pouvoir entre les mains de quelques grandes entreprises de technologie. Bien que ce problème ne soit pas nouveau, il est exacerbé par les nouveaux développements dans les grands modèles de langage et l'IA générative. Beaucoup de ces entreprises alimentent désormais des peurs autour des risques existentiels de l'IA. Non seulement cela détourne l'attention des dommages existants, mais cela positionne également ces entreprises comme indispensables pour traiter les dommages liés à l'IA. À bien des égards, nous perdons une partie de l'élan du mouvement de rejet de la technologie qui a suivi l'épisode Cambridge Analytica. Dans des endroits comme l'Inde, je crains également que l'IA ne soit positionnée comme nécessaire au développement socio-économique, offrant une opportunité de surmonter les défis persistants. Non seulement cela exagère le potentiel de l'IA, mais cela néglige aussi le fait qu'il n'est pas possible de franchir les étapes du développement institutionnel nécessaires pour mettre en place des garanties. Un autre problème que nous ne prenons pas suffisamment au sérieux est l'impact environnemental de l'IA - la trajectoire actuelle est susceptible d'être insoutenable. Dans l'écosystème actuel, les personnes les plus vulnérables aux impacts du changement climatique sont peu susceptibles de bénéficier de l'innovation de l'IA.

Quels sont certains des problèmes dont les utilisateurs d'IA devraient être conscients ?

Les utilisateurs doivent être conscients que l'IA n'est pas magique, ni même proche de l'intelligence humaine. C'est une forme de statistique computationnelle qui a de nombreux usages bénéfiques, mais qui n'est finalement qu'une supposition probabiliste basée sur des modèles historiques ou précédents. Je suis sûr qu'il y a plusieurs autres problèmes dont les utilisateurs doivent également être conscients, mais je veux mettre en garde contre les tentatives de déplacer la responsabilité en aval, vers les utilisateurs. Je le constate le plus récemment avec l'utilisation d'outils d'IA générative dans des contextes à faibles ressources dans le reste du monde - au lieu d'être prudents vis-à-vis de ces technologies expérimentales et peu fiables, l'attention se porte souvent sur la manière dont les utilisateurs finaux, tels que les agriculteurs ou les travailleurs de la santé de première ligne, doivent se perfectionner.

Quelle est la meilleure façon de construire de manière responsable l'IA ?

Cela doit commencer par évaluer la nécessité de l'IA en premier lieu. Y a-t-il un problème que l'IA peut résoudre de manière unique ou d'autres moyens sont-ils possibles ? Et si nous devons construire de l'IA, est-il nécessaire d'avoir un modèle complexe et opaue, ou un modèle plus simple basé sur la logique pourrait-il faire l'affaire ? Nous devons également réintégrer les connaissances sectorielles dans la construction de l'IA. Dans l'obsession des mégadonnées, nous avons sacrifié la théorie - nous devons construire une théorie du changement basée sur les connaissances sectorielles et cela doit être la base des modèles que nous construisons, non pas uniquement les mégadonnées seules. Cela s'ajoute bien sûr aux questions clés telles que la participation, les équipes inclusives, les droits du travail, etc.

Comment les investisseurs peuvent-ils pousser à une IA responsable de manière plus efficace ?

Les investisseurs doivent prendre en compte l'ensemble du cycle de vie de la production d'IA - non seulement les résultats ou les retombées des applications d'IA. Cela nécessiterait d'examiner un éventail de questions telles que la valorisation équitable du travail, les impacts environnementaux, le modèle économique de l'entreprise (est-il basé sur la surveillance commerciale ?) et les mesures de responsabilité interne au sein de l'entreprise. Les investisseurs doivent également demander des preuves meilleures et plus rigoureuses sur les prétendus avantages de l'IA.