Les nuages alternatifs connaissent un essor fulgurant alors que les entreprises recherchent un accès moins cher aux GPU

La demande pour les nuages alternatifs n'a jamais été aussi forte.

Comme en témoigne CoreWeave, le fournisseur d'infrastructure GPU qui a commencé sa vie en tant qu'exploitation minière de cryptomonnaie, a levé cette semaine 1,1 milliard de dollars de nouveaux fonds auprès d'investisseurs tels que Coatue, Fidelity et Altimeter Capital. Cette levée de fonds valorise l'entreprise à 19 milliards de dollars post-money et porte à 5 milliards de dollars le montant total levé en dette et en capitaux propres - un chiffre remarquable pour une entreprise de moins de dix ans.

Il ne s'agit pas seulement de CoreWeave.

Lambda Labs, qui propose également une gamme d'instances de GPU hébergées dans le cloud, a obtenu début avril un 'véhicule de financement spécial' de jusqu'à 500 millions de dollars, quelques mois après avoir bouclé une levée de fonds de série C de 320 millions de dollars. Le parc Voltage, soutenu par le milliardaire de la cryptomonnaie Jed McCaleb, a annoncé en octobre dernier qu'il investissait 500 millions de dollars dans des centres de données soutenus par des GPU. Et Together AI, un hôte de GPU cloud qui mène également des recherches en IA générative, a bouclé en mars une levée de fonds de 106 millions de dollars menée par Salesforce.

Alors, pourquoi tout cet engouement et cet afflux de liquidités dans l'espace du cloud alternatif ?

La réponse, comme vous pourriez vous y attendre, est l'IA générative.

Au fur et à mesure que le boom de l'IA générative se poursuit, la demande de matériel pour exécuter et entraîner des modèles d'IA générative à grande échelle augmente également. Les GPU, sur le plan architectural, sont le choix logique pour l'entraînement, l'affinage et l'exécution des modèles, car ils contiennent des milliers de cœurs qui peuvent travailler en parallèle pour effectuer les équations algébriques linéaires qui composent les modèles génératifs.

Mais l'installation de GPU est coûteuse. La plupart des développeurs et des organisations se tournent donc vers le cloud à la place.

Les acteurs traditionnels dans l'espace de l'informatique en nuage - Amazon Web Services (AWS), Google Cloud et Microsoft Azure - offrent un grand nombre d'instances de GPU et de matériels spécialisés optimisés pour les charges de travail d'IA générative. Mais pour au moins certains modèles et projets, les nuages alternatifs peuvent finir par être moins chers - et offrir une meilleure disponibilité.

Sur CoreWeave, la location d'un Nvidia A100 40GB - un choix populaire pour l'entraînement et l'inférence des modèles - coûte 2,39 dollars de l'heure, ce qui équivaut à 1 200 dollars par mois. Sur Azure, le même GPU coûte 3,40 dollars de l'heure, soit 2 482 dollars par mois; sur Google Cloud, c'est 3,67 dollars de l'heure, soit 2 682 dollars par mois.

Étant donné que les charges de travail d'IA générative sont généralement exécutées sur des clusters de GPU, les écarts de coûts augmentent rapidement.

'Des entreprises comme CoreWeave participent à un marché que nous appelons les fournisseurs de cloud spécialisés en 'GPU en tant que service'', a déclaré Sid Nag, vice-président des services et technologies cloud chez Gartner, à TechCrunch. 'Compte tenu de la forte demande de GPU, ils offrent une alternative aux hyperscalers, où ils ont pris des GPU Nvidia et fourni un autre moyen d'accès à ces GPU.'

Nag souligne que même certaines grandes entreprises de technologie ont commencé à s'appuyer sur des fournisseurs de cloud alternatifs alors qu'elles se heurtent à des défis de capacité de calcul.

En juin dernier, CNBC a rapporté que Microsoft avait signé un contrat de plusieurs milliards de dollars avec CoreWeave pour garantir qu'OpenAI, le créateur de ChatGPT et un partenaire proche de Microsoft, disposerait de la puissance de calcul nécessaire pour entraîner ses modèles d'IA générative. Nvidia, le fournisseur de la majeure partie des puces de CoreWeave, considère cela comme une tendance favorable, peut-être pour des raisons de levier ; il aurait accordé à certains fournisseurs de cloud alternatifs un accès préférentiel à ses GPU.

Lee Sustar, analyste principal chez Forrester, estime que les fournisseurs de cloud comme CoreWeave réussissent en partie parce qu'ils n'ont pas les 'contraintes' d'infrastructure auxquelles les fournisseurs en place doivent faire face.

'Compte tenu de la domination des hyperscalers sur le marché global du cloud public, qui exige des investissements massifs dans l'infrastructure et la gamme de services qui ne génèrent que peu ou pas de revenus, les challengers comme CoreWeave ont l'opportunité de réussir en se concentrant sur des services d'IA premium sans le fardeau des investissements globaux à la hauteur des hyperscalers', a-t-il déclaré.

Mais cette croissance est-elle durable ?

Sustar a des doutes. Il pense que l'expansion des fournisseurs de cloud alternatifs dépendra de leur capacité à continuer de mettre en service des GPU en masse et à les proposer à des prix compétitifs.

La concurrence sur les prix pourrait devenir difficile à l'avenir alors que Google, Microsoft et AWS renforcent leurs investissements dans le matériel personnalisé pour exécuter et entraîner des modèles. Google propose ses TPUs ; Microsoft a récemment dévoilé deux puces personnalisées, Azure Maia et Azure Cobalt ; et AWS a Trainium, Inferentia et Graviton.

'Les hyperscalers utiliseront leur silicium personnalisé pour atténuer leur dépendance à Nvidia, tandis que Nvidia se tournera vers CoreWeave et d'autres clouds d'IA centrés sur les GPU', a déclaré Sustar.

En outre, tous les projets d'IA générative n'ont pas besoin de GPU - en particulier s'ils ne sont pas sensibles au temps. Les CPU peuvent effectuer les calculs nécessaires, mais généralement moins rapidement que les GPU et le matériel sur mesure.

Plus existentiellement, il y a une menace que la bulle de l'IA générative éclate, ce qui laisserait aux fournisseurs des tonnes de GPU et pas assez de clients pour les demander. Mais l'avenir semble prometteur à court terme, selon Sustar et Nag, qui prévoient un flot régulier de clouds en pleine expansion.

'Les startups cloud orientées GPU donneront beaucoup de concurrence aux [incumbents], en particulier parmi les clients qui sont déjà multi-cloud et peuvent gérer la complexité de la gestion, de la sécurité, des risques et de la conformité sur plusieurs clouds', a déclaré Sustar. 'Ce type de clients cloud est à l'aise pour essayer un nouveau cloud IA s'il bénéficie d'un leadership crédible, d'un solide soutien financier et des GPU sans temps d'attente.'