Le dépôt d'IPO de Rubrik révèle la création d'un comité de gouvernance de l'IA. Habituez-vous à cela.

Glissé dans le dépôt d'IPO de Rubrik cette semaine - entre les parties sur le nombre d'employés et les états de coûts - se trouvait un élément qui révèle comment l'entreprise de gestion des données envisage l'IA générative et les risques qui accompagnent cette nouvelle technologie : Rubrik a discrètement mis en place un comité de gouvernance pour superviser la mise en œuvre de l'intelligence artificielle dans ses activités.

Selon le formulaire S-1, le nouveau comité de gouvernance de l'IA comprend des responsables des équipes d'ingénierie, de produit, juridique et de sécurité de l'information de Rubrik. Ensemble, les équipes évalueront les risques potentiels juridiques, de sécurité et commerciaux liés à l'utilisation d'outils d'IA générative et réfléchiront aux « mesures pouvant être prises pour atténuer de tels risques », indique le dépôt.

Pour être clair, Rubrik n'est pas une entreprise d'IA à proprement parler - son seul produit d'IA, un chatbot appelé Ruby qu'elle a lancé en novembre 2023, est basé sur des API Microsoft et OpenAI. Mais comme beaucoup d'autres, Rubrik (et ses investisseurs actuels et futurs) envisage un avenir dans lequel l'IA jouera un rôle croissant dans ses activités. Voici pourquoi nous devrions nous attendre à davantage de mouvements de ce genre à l'avenir.

Un examen réglementaire croissant

Certaines entreprises adoptent les meilleures pratiques en matière d'IA pour prendre l'initiative, mais d'autres seront poussées à le faire par des réglementations telles que la loi sur l'IA de l'UE.

Surnommée « la première loi exhaustive sur l'IA au monde », la législation historique - qui devrait devenir loi dans l'ensemble du bloc plus tard cette année - interdit certaines utilisations de l'IA jugées présentant un « risque inacceptable », et définit d'autres applications « à haut risque ». Le projet de loi établit également des règles de gouvernance visant à réduire les risques qui pourraient aggraver les préjudices tels que les biais et discriminations. Cette approche d'évaluation des risques devrait être largement adoptée par les entreprises cherchant un moyen raisonné d'adopter l'IA.

L'avocat spécialisé en protection de la vie privée et des données, Eduardo Ustaran, associé chez Hogan Lovells International LLP, s'attend à ce que la loi sur l'IA de l'UE et ses obligations multiples amplifient le besoin de gouvernance de l'IA, ce qui nécessitera à son tour des comités. « Outre son rôle stratégique de concevoir et de superviser un programme de gouvernance de l'IA, d'un point de vue opérationnel, les comités de gouvernance de l'IA sont un outil clé pour aborder et réduire les risques », a-t-il déclaré. « Cela est dû au fait qu'un comité correctement établi et doté de ressources devrait être capable d'anticiper tous les domaines de risque et de travailler avec l'entreprise pour les traiter avant qu'ils ne se matérialisent. En un sens, un comité de gouvernance de l'IA servira de base pour tous les autres efforts de gouvernance et offrira une assurance indispensable pour éviter les lacunes en matière de conformité. »

Dans un récent document de politique sur les implications de la loi sur l'IA de l'UE pour la gouvernance d'entreprise, la consultante en ESG et conformité, Katharina Miller, a fait écho à ces propos, recommandant que les entreprises créent des comités de gouvernance de l'IA comme mesure de conformité.

Examen juridique

La conformité ne vise pas uniquement à satisfaire les régulateurs. La loi sur l'IA de l'UE a du mordant et « les sanctions pour non-conformité à la loi sur l'IA sont significatives », ont noté les cabinets d'avocats britannico-américains Norton Rose Fulbright.

Son champ d'application va au-delà de l'Europe. « Les entreprises opérant en dehors du territoire de l'UE peuvent être soumises aux dispositions de la loi sur l'IA si elles mènent des activités liées à l'IA impliquant des utilisateurs ou des données de l'UE », a averti le cabinet d'avocats. Si elle est similaire au RGPD, la législation aura un impact international, surtout dans le cadre d'une coopération renforcée entre l'UE et les États-Unis en matière d'IA.

Les outils d'IA peuvent entraîner des ennuis pour une entreprise au-delà de la législation sur l'IA. Rubrik a refusé de commenter auprès de TechCrunch, probablement en raison de sa période de silence liée à son IPO, mais le dépôt de l'entreprise mentionne que son comité de gouvernance de l'IA évalue un large éventail de risques.

Les critères de sélection et l'analyse incluent la considération de la façon dont l'utilisation d'outils d'IA générative pourrait soulever des problèmes relatifs aux informations confidentielles, aux données personnelles et à la vie privée, aux données clients et obligations contractuelles, aux logiciels open source, aux droits d'auteur et autres droits de propriété intellectuelle, à la transparence, à l'exactitude et à la fiabilité des résultats, ainsi qu'à la sécurité.

N'oubliez pas que le désir de Rubrik de couvrir ses bases juridiques pourrait être dû à diverses autres raisons. Il pourrait, par exemple, être également là pour montrer qu'il anticipe de manière responsable les problèmes, ce qui est crucial puisque Rubrik a déjà dû faire face non seulement à une fuite de données et à un piratage, mais aussi à des litiges en matière de propriété intellectuelle.

Une question d'optique

Les entreprises ne regarderont pas seulement l'IA à travers le prisme de la prévention des risques. Il y aura des opportunités qu'elles et leurs clients ne voudront pas manquer. C'est pourquoi les outils d'IA générative sont mis en œuvre malgré des défauts évidents comme les « hallucinations » (c'est-à-dire une tendance à fabriquer des informations).

Les entreprises devront trouver un équilibre délicat. D'un côté, se vanter de leur utilisation de l'IA pourrait augmenter leurs valorisations, peu importe la réalité de cette utilisation ou l'impact sur leur bilan. D'un autre côté, elles devront rassurer quant aux risques potentiels.

« Nous sommes à ce moment clé de l'évolution de l'IA où l'avenir de l'IA dépend grandement de la confiance du public envers les systèmes d'IA et les entreprises qui les utilisent », a écrit le conseiller en protection de la vie privée du fournisseur de logiciels de confidentialité et de sécurité OneTrust, Adomas Siudika, dans un article de blog sur le sujet.

La création de comités de gouvernance de l'IA sera probablement au moins une des façons d'essayer d'aider à renforcer la confiance.