Microsoft et OpenAI lancent un fonds de 2 millions de dollars pour contrer les deepfakes électoraux

Microsoft et OpenAI ont annoncé un fonds de 2 millions de dollars pour lutter contre les risques croissants de l'utilisation de l'IA et des deepfakes pour 'tromper les électeurs et miner la démocratie'.

Cette année verra un nombre record de 2 milliards de personnes se rendre aux urnes dans des élections couvrant une cinquantaine de pays, ce qui suscite des inquiétudes quant à l'influence que l'IA exercera sur les électeurs, en particulier ceux des 'communautés vulnérables' qui pourraient être plus susceptibles de prendre ce qu'ils voient pour argent comptant.

L'émergence de l'IA générative, y compris des chatbots très populaires comme ChatGPT, a entraîné l'apparition d'un nouveau paysage de menaces majeur impliquant des deepfakes créés par l'IA conçus pour perpétuer la désinformation. Le fait que ces nouveaux outils soient largement disponibles et permettent à quiconque de créer de fausses vidéos, photos ou enregistrements audio d'entités politiques de haut niveau ne facilite pas les choses.

Aussi récemment que lundi, la Commission électorale indienne a exhorté les partis politiques à éviter d'utiliser des deepfakes et des désinformations similaires dans leurs campagnes en ligne autour des élections.

C'est dans ce contexte que toutes les grandes entreprises technologiques, dont Microsoft et OpenAI, ont signé des engagements volontaires pour contrer de tels risques, ainsi que pris des mesures pour élaborer un cadre commun visant à lutter contre les deepfakes créés explicitement pour tromper les électeurs.

Par ailleurs, de grandes entreprises d'IA ont commencé à aborder ces risques en introduisant des restrictions dans leurs logiciels. Par exemple, Google a déclaré qu'il n'autorisera pas son chatbot AI Gemini à répondre à des questions sur les élections, tandis que la maison mère de Facebook, Meta, limite également les réponses liées aux élections via son chatbot AI.

Aujourd'hui, OpenAI a lancé un nouveau détecteur de deepfake pour les chercheurs en désinformation, conçu pour aider à identifier le contenu faux généré par son propre générateur d'images DALL-E, tout en rejoignant le comité de pilotage de l'organisme de l'industrie, la Coalition pour la Provenance et l'Authenticité du Contenu (C2PA), qui compte déjà des membres tels qu'Adobe, Microsoft, Google et Intel.

Le nouveau 'fonds de résilience sociétale' fait partie de cette plus vaste poussée d'une IA 'responsable', Microsoft et OpenAI s'efforçant désormais de 'renforcer l'éducation et la littératie en matière d'IA parmi les électeurs et les communautés vulnérables', selon un article de blog publié par les entreprises aujourd'hui. Cela impliquerait d'accorder des subventions à quelques organisations, notamment Older Adults Technology Services (OATS), la Coalition pour la Provenance et l'Authenticité du Contenu (C2PA), l'Institut international pour la démocratie et l'assistance électorale (International IDEA), et le Partenariat sur l'IA (PAI).

Selon Microsoft, ces subventions visent à créer une meilleure compréhension de l'IA et de ses capacités au sein de la société. Par exemple, OATS utiliserait apparemment sa subvention pour des programmes de formation destinés aux personnes de 50 ans et plus aux États-Unis, couvrant les 'aspects fondamentaux de l'IA'.

'Le lancement du Fonds de résilience sociétale n'est qu'une étape qui représente l'engagement de Microsoft et OpenAI à relever les défis et les besoins dans l'espace de l'alphabétisation et de l'éducation en matière d'IA', a déclaré Teresa Hutson, vice-présidente de la technologie et de la responsabilité d'entreprise chez Microsoft, dans l'article de blog. 'Microsoft et OpenAI resteront dévoués à ce travail, et nous continuerons à collaborer avec des organisations et des initiatives qui partagent nos objectifs et nos valeurs'.