Slack attaqué pour sa politique de formation à l'IA sournoise

Après de nombreux problèmes liés à la manière dont les grandes entreprises technologiques s'approprient les données des individus et des entreprises pour former des services d'IA, une tempête se prépare parmi les utilisateurs de Slack mécontents de la manière dont la plateforme de discussion propriété de Salesforce avance avec sa vision de l'IA.

La société, comme beaucoup d'autres, utilise ses propres données utilisateur pour former certains de ses nouveaux services d'IA. Mais, il s'avère que si vous ne voulez pas que Slack utilise vos données, vous devez envoyer un e-mail à la société pour vous désinscrire.

Et les conditions de cette interaction sont dissimulées dans ce qui semble être une politique de confidentialité obsolète et confuse à laquelle personne ne prêtait attention. C'était le cas avec Slack, jusqu'à ce qu'une personne mécontente les poste sur un site communautaire très populaire auprès des développeurs, et que ce poste soit devenu viral... c'est ce qui s'est passé ici.

Tout a commencé la nuit dernière, lorsqu'une note sur Hacker News a soulevé le problème de la formation des services d'IA de Slack, via un lien direct vers ses principes de confidentialité, aucun commentaire supplémentaire n'était nécessaire. Ce post a lancé une conversation plus longue - et ce qui semblait être une nouvelle pour les utilisateurs actuels de Slack - que Slack inscrit par défaut les utilisateurs à sa formation d'IA, et que vous devez envoyer un e-mail à une adresse spécifique pour vous désinscrire.

Ce fil de discussion sur Hacker News a ensuite suscité de multiples conversations et questions sur d'autres plateformes : Il existe un produit récent appelé "Slack AI" qui permet aux utilisateurs de rechercher des réponses et de résumer des fils de conversation, entre autres choses, mais pourquoi n'est-il jamais mentionné nommément dans ces principes de confidentialité de quelque manière que ce soit, même pour préciser si la politique de confidentialité s'applique à cela ? Et pourquoi Slack fait référence à la fois à des 'modèles globaux' et à des 'modèles d'IA'?

Entre les personnes confuses quant à l'endroit où Slack applique ses principes de confidentialité de l'IA, et les personnes surprises et agacées à l'idée d'envoyer un e-mail pour se désinscrire - dans une entreprise qui fait grand cas de vanter que 'Vous contrôlez vos données' - Slack ne donne pas une bonne image.

Le choc peut être nouveau, mais les conditions ne le sont pas. Selon des pages de l'Internet Archive, les conditions sont applicables depuis au moins septembre 2023. (Nous avons demandé à la société de confirmer.)

Conformément à la politique de confidentialité, Slack utilise les données des clients spécifiquement pour former des 'modèles globaux', que Slack utilise pour alimenter les recommandations de chaînes et d'emojis et les résultats de recherche. Slack nous dit que son utilisation des données a des limites spécifiques.

'Slack dispose de modèles d'apprentissage automatique au niveau de la plateforme pour des choses comme les recommandations de chaînes et d'emojis et les résultats de recherche. Nous ne construisons pas ou n'entraînons pas ces modèles de manière à ce qu'ils puissent apprendre, mémoriser ou être en mesure de reproduire une partie des données des clients', a déclaré un porte-parole de l'entreprise à TechCrunch. Cependant, la politique ne semble pas aborder la portée globale et les plans plus étendus de la société pour former des modèles d'IA.

Dans ses termes, Slack indique que si les clients se désinscrivent de la formation des données, ils bénéficieront tout de même des 'modèles IA/ML formés à l'échelle mondiale' de l'entreprise. Mais encore une fois, dans ce cas, il n'est pas clair pourquoi l'entreprise utilise les données des clients pour alimenter des fonctionnalités telles que les recommandations d'emojis.

L'entreprise a également déclaré qu'elle n'utilisait pas les données des clients pour former Slack AI.

'Slack AI est une extension achetée séparément qui utilise de grands modèles de langage (LLM) mais ne forme pas ces LLM sur les données des clients. Slack AI utilise des LLM hébergés directement dans l'infrastructure AWS de Slack, de sorte que les données des clients restent en interne et ne sont pas partagées avec un quelconque fournisseur de LLM. Cela garantit que les données des clients restent sous le contrôle de cette organisation et sont exclusivement utilisées par cette organisation', a déclaré un porte-parole.

Une partie de la confusion sera probablement dissipée plus tôt que tard. En réponse à une critique sur Threads de l'ingénieur et écrivain Gergely Orosz, l'ingénieur de Slack Aaron Maurer a admis que l'entreprise devait mettre à jour la page pour refléter 'comment ces principes de confidentialité interagissent avec Slack AI'.

Maurer a ajouté que ces termes ont été rédigés à une époque où l'entreprise n'avait pas Slack AI, et que ces règles reflètent le travail de l'entreprise autour de la recherche et des recommandations. Il sera intéressant d'examiner les termes pour de futures mises à jour, étant donné la confusion autour de ce que Slack fait actuellement avec son IA.

Les problèmes chez Slack sont un rappel sévère que, dans le monde en perpétuel mouvement du développement de l'IA, la confidentialité des utilisateurs ne devrait pas être une réflexion après-coup et que les conditions d'utilisation d'une entreprise devraient clairement indiquer comment et quand les données sont utilisées, ou si elles ne le sont pas.