La startup française FlexAI sort de l'ombre avec 30 millions de dollars pour faciliter l'accès au calcul IA

Une startup française a levé un investissement initial important pour \"reconcevoir l'infrastructure de calcul\" pour les développeurs souhaitant construire et entraîner plus efficacement des applications intelligentes.

FlexAI, comme la société est appelée, opère en mode furtif depuis octobre 2023, mais la société basée à Paris est officiellement lancée ce mercredi avec 28,5 millions d'euros (30 millions de dollars) de financement, tout en taquinant son premier produit : un service cloud à la demande pour l'entrainement en IA.

Il s'agit d'une somme importante pour un tour de financement initial, ce qui signifie normalement un pedigree substantiel des fondateurs - et c'est le cas ici. Brijesh Tripathi, co-fondateur et PDG de FlexAI, était précédemment ingénieur de conception senior chez NVIDIA, géant des GPU et désormais chouchou de l'IA, avant d'occuper divers postes d'ingénierie et d'architecture supérieurs chez Apple ; Tesla (travaillant directement sous Elon Musk) ; Zoox (avant que Amazon n'acquière la startup de conduite autonome) ; et, plus récemment, Tripathi était VP de la filiale IA et supercalculateurs d'Intel, AXG.

Le co-fondateur et CTO de FlexAI, Dali Kilani, a également un CV impressionnant, assumant divers rôles techniques au sein d'entreprises, dont NVIDIA et Zynga, tout en occupant récemment le poste de CTO chez la startup française Lifen, qui développe une infrastructure numérique pour l'industrie de la santé.

Le tour de financement a été mené par Alpha Intelligence Capital (AIC), Elaia Partners et Heartcore Capital, avec la participation de Frst Capital, Motier Ventures, Partech et le PDG d'InstaDeep Karim Beguir.

Equipe FlexAI à Paris. Crédits image : FlexAI

Le dilemme du calcul

Pour comprendre ce que Tripathi et Kilani tentent avec FlexAI, il est d'abord utile de comprendre les défis auxquels les développeurs et les praticiens de l'IA sont confrontés en termes d'accès au "calcul" ; cela fait référence à la puissance de traitement, à l'infrastructure et aux ressources nécessaires pour effectuer des tâches computationnelles telles que le traitement des données, l'exécution d'algorithmes et l'exécution de modèles d'apprentissage automatique.

\"Utiliser n'importe quelle infrastructure dans le domaine de l'IA est complexe ; ce n'est pas pour les âmes sensibles, et ce n'est pas pour les novices,\" a déclaré Tripathi à TechCrunch. \"Cela nécessite de connaître trop de choses sur la manière de construire l'infrastructure avant de pouvoir l'utiliser.\"

À l'inverse, l'écosystème du cloud public qui a évolué au cours de ces deux dernières décennies sert d'exemple parfait de la manière dont une industrie est née du besoin des développeurs de construire des applications sans se soucier de l'infrastructure en coulisses.

\"Si vous êtes un petit développeur et que vous voulez écrire une application, vous n'avez pas besoin de savoir où elle est exécutée ni ce qu'est le backend - vous avez juste besoin de lancer une instance EC2 [Amazon Elastic Compute Cloud] et c'est fait,\" a déclaré Tripathi. \"Vous ne pouvez pas faire cela avec le calcul IA aujourd'hui.\"

Dans le domaine de l'IA, les développeurs doivent déterminer le nombre de GPU (unités de traitement graphique) à interconnecter sur quel type de réseau, géré à travers un écosystème logiciel dont ils sont entièrement responsables de la configuration. Si un GPU ou un réseau tombe en panne, ou si quelque chose dans cette chaîne tourne mal, c'est au développeur de résoudre le problème.

\"Nous voulons amener l'infrastructure de calcul IA au même niveau de simplicité que le cloud généraliste est arrivé - après 20 ans, oui, mais il n'y a aucune raison pour laquelle le calcul IA ne peut pas voir les mêmes avantages,\" a déclaré Tripathi. \"Nous voulons arriver au point où l'exécution des charges de travail IA ne nécessite pas que vous deveniez des experts des centres de données.\"

Avec l'itération actuelle de son produit en cours de test avec quelques clients bêta, FlexAI lancera son premier produit commercial plus tard cette année. C'est essentiellement un service cloud qui connecte les développeurs à un \"calcul hétérogène virtuel\", ce qui signifie qu'ils peuvent exécuter leurs charges de travail et déployer des modèles IA sur plusieurs architectures, en payant au fur et à mesure plutôt que de louer des GPU sur une base de dollars par heure.

Les GPU sont des éléments vitaux dans le développement de l'IA, servant à entraîner et exécuter de grands modèles de langage (LLM), par exemple. Nvidia est l'un des principaux acteurs de l'espace des GPU et l'un des principaux bénéficiaires de la révolution de l'IA déclenchée par OpenAI et ChatGPT. Au cours des 12 derniers mois depuis le lancement d'une API pour ChatGPT en mars 2023 par OpenAI, permettant aux développeurs d'intégrer la fonctionnalité de ChatGPT dans leurs propres applications, les actions de Nvidia sont passées d'environ 500 milliards de dollars à plus de 2 billions de dollars.

Les LLM affluent désormais de l'industrie de la technologie, la demande de GPU explosant parallèlement. Mais les GPU sont coûteux à exécuter, et les louer pour des travaux plus petits ou des cas d'utilisation ad hoc ne fait pas toujours sens et peut être prohibitif ; c'est pourquoi AWS a tâtonné avec des locations à durée limitée pour des projets IA plus petits. Mais la location reste de la location, c'est pourquoi FlexAI veut abstraire les complexités sous-jacentes et permettre aux clients d'accéder au calcul IA selon les besoins.

\"Multicloud pour l'IA\"

Le point de départ de FlexAI est que la plupart des développeurs ne se soucient pas vraiment de savoir quels GPU ou puces ils utilisent, que ce soit Nvidia, AMD, Intel, Graphcore ou Cerebras. Leur principal souci est de pouvoir développer leur IA et construire des applications dans le cadre de leurs contraintes budgétaires.

C'est là qu'intervient le concept de FlexAI de \"calcul IA universel\", où FlexAI prend les besoins de l'utilisateur et les alloue à l'architecture qui convient le mieux à ce travail particulier, se chargeant de toutes les conversions nécessaires entre les différentes plateformes, que ce soit l'infrastructure Gaudi d'Intel, le ROCm d'AMD ou le CUDA de Nvidia.

\"Cela signifie que le développeur est uniquement concentré sur la création, l'entraînement et l'utilisation des modèles,\" a déclaré Tripathi. \"Nous nous occupons de tout en dessous. Les pannes, la récupération, la fiabilité, tout est géré par nous, et vous payez pour ce que vous utilisez.\"

À bien des égards, FlexAI s'engage à accélérer pour l'IA ce qui se passe déjà dans le cloud, ce qui signifie bien plus que de reproduire le modèle de paiement à l'utilisation : il s'agit de la possibilité d'utiliser \"multicloud\" en s'appuyant sur les différents avantages des différentes infrastructures GPU et puces.

FlexAI dirigera une charge de travail spécifique d'un client en fonction de ses priorités. Si une entreprise a un budget limité pour l'entraînement et la mise au point de ses modèles IA, elle peut le définir dans la plateforme FlexAI pour obtenir le maximum de puissance de calcul pour son argent. Cela pourrait signifier passer par Intel pour un calcul moins cher (mais plus lent), mais si un développeur a une petite tâche nécessitant la sortie la plus rapide possible, elle peut être dirigée à travers Nvidia à la place.

En interne, FlexAI est essentiellement un \"agrégateur de demande\", louant le matériel lui-même de manière traditionnelle et, en utilisant ses \"solides connexions\" avec les personnes chez Intel et AMD, garantit des prix préférentiels qu'il répartit à travers sa propre base de clients. Cela ne signifie pas nécessairement contourner le géant Nvidia, mais cela signifie probablement largement cela - avec Intel et AMD se battant pour les miettes de GPU laissées dans le sillage de Nvidia, il y a un énorme incitatif pour eux de jouer le jeu avec des agrégateurs tels que FlexAI.

\"Si je peux le faire fonctionner pour les clients et amener des dizaines à des centaines de clients sur leur infrastructure, ils [Intel et AMD] seront très heureux,\" a déclaré Tripathi.

Cela contraste avec des acteurs similaires du cloud GPU de l'espace tels que les bien financés CoreWeave et Lambda Labs, qui sont exclusivement axés sur le matériel Nvidia.

\"Je veux amener le calcul IA au point où en est le calcul généraliste dans le cloud aujourd'hui,\" a noté Tripathi. \"Vous ne pouvez pas faire du multicloud sur l'IA. Vous devez sélectionner un matériel spécifique, le nombre de GPU, l'infrastructure, la connectivité, et ensuite le maintenir vous-même. Aujourd'hui, c'est la seule façon d'obtenir réellement le calcul IA.\"

Interrogé sur qui sont les partenaires de lancement exacts, Tripathi a déclaré qu'il ne pouvait pas tous les nommer en raison d'un manque d'\"engagements formels\" de la part de certains d'entre eux.

\"Intel est un partenaire solide, ils fournissent certainement l'infrastructure, et AMD est un partenaire qui fournit l'infrastructure,\" a-t-il déclaré. \"Mais il y a une deuxième couche de partenariats qui se met en place avec Nvidia et quelques autres entreprises de silicium que nous ne sommes pas encore prêts à partager, mais ils sont tous dans le coup et des protocoles d'accord sont en cours de signature en ce moment.\"

L'effet Elon

Tripathi est plus que préparé à relever les défis à venir, ayant travaillé dans certaines des plus grandes entreprises de technologie au monde.

\"Je sais suffisamment sur les GPU ; j'ai l'habitude de construire des GPU,\" a déclaré Tripathi de son mandat de sept ans chez Nvidia, se terminant en 2007 lorsqu'il a quitté le navire pour Apple alors qu'elle lançait le premier iPhone. \"Chez Apple, je me suis concentré sur la résolution de problèmes réels des clients. J'étais là quand Apple a commencé à construire ses premiers SoCs [systèmes sur puce] pour les téléphones.\"

Tripathi a également passé deux ans chez Tesla de 2016 à 2018 en tant que chef de l'ingénierie matérielle, où il a fini par travailler directement sous Elon Musk pour ses six derniers mois après le départ soudain de deux personnes au-dessus de lui de l'entreprise.

\"Chez Tesla, la chose que j'ai apprise et que j'apporte dans ma startup est qu'il n'y a pas de contraintes autres que la science et la physique,\" a-t-il dit. \"La manière dont les choses sont faites aujourd'hui n'est pas la manière dont elles devraient être ou doivent être faites. Vous devriez suivre ce qui est bon de faire à partir de premiers principes, et pour cela, éliminer chaque boîte noire.\"

Tripathi a participé à la transition de Tesla vers la fabrication de ses propres puces, un mouvement depuis été imité par GM et Hyundai, entre autres constructeurs automobiles.

\"Une des premières choses que j'ai faites chez Tesla a été de déterminer combien il y a de microcontrôleurs dans une voiture, et pour cela, nous avons littéralement dû fouiller dans un tas de ces grosses boîtes noires avec un blindage métallique et un boîtier autour, pour trouver ces très petits microcontrôleurs là-dedans,\" a déclaré Tripathi. \"Et nous avons fini par les mettre sur une table, les avons étalés et dit, 'Elon, il y a 50 microcontrôleurs dans une voiture. Et nous payons parfois un millier de fois les marges sur eux parce qu'ils sont protégés et placés dans un gros boîtier en métal.' Et il a dit, 'allons fabriquer les nôtres.' Et nous l'avons fait.\"

Les GPU comme garantie

En regardant plus loin dans le futur, FlexAI a des aspirations pour construire sa propre infrastructure, y compris des centres de données. Cela, a déclaré Tripathi, sera financé par des financements par la dette, s'appuyant sur une tendance récente qui a vu des concurrents dans l'espace, y compris CoreWeave et Lambda Labs, utiliser des puces Nvidia comme garantie pour obtenir des prêts - plutôt que de céder plus d'actions.

\"Les banquiers savent maintenant comment utiliser les GPU comme garanties,\" a déclaré Tripathi. \"Pourquoi céder des actions ? Jusqu'à ce que nous devenions un véritable fournisseur de calcul, la valeur de notre entreprise n'est pas suffisante pour obtenir les centaines de millions de dollars nécessaires pour investir dans la construction de centres de données. Si nous faisions uniquement des actions, nous disparaîtrions lorsque l'argent serait épuisé. Mais si nous misons réellement sur les GPU comme garantie, ils peuvent prendre les GPU et les placer dans un autre centre de données.\"