Hugging Face partage 10 millions de dollars de calcul pour aider à battre les grandes sociétés d’IA
Hugging Face partage 10 millions de dollars de calcul pour aider à battre les grandes sociétés d’IA


Hugging Face, l’un des plus grands noms de l’apprentissage automatique, engage 10 millions de dollars en GPU partagés gratuits pour aider les développeurs à créer de nouvelles technologies d’IA. L’objectif est d’aider les petits développeurs, universitaires et startups à contrer la centralisation des progrès de l’IA.
« Nous avons la chance d’être dans une position où nous pouvons investir dans la communauté », a déclaré Clem Delangue, PDG de Hugging Face, à The Verge. Delangue a déclaré que l’investissement était possible parce que Hugging Face est « rentable, ou presque rentable » et a récemment levé 235 millions de dollars de financement, valorisant l’entreprise à 4,5 milliards de dollars.
Delangue s’inquiète de la capacité des startups de l’IA à rivaliser avec les géants de la technologie. Les avancées les plus significatives en matière d’intelligence artificielle – comme GPT-4, les algorithmes derrière la recherche Google et le système Full Self-Driving de Tesla – restent cachées dans les limites des grandes entreprises technologiques. Non seulement ces entreprises sont financièrement incitées à conserver leurs modèles propriétaires, mais avec des milliards de dollars à leur disposition pour les ressources informatiques, elles peuvent accroître ces gains et devancer leurs concurrents, ce qui empêche les startups de suivre le rythme.
« Si vous vous retrouvez avec quelques organisations qui dominent trop, il sera alors plus difficile de les combattre plus tard. »
Hugging Face vise à rendre les technologies d’IA de pointe accessibles à tous, et pas seulement aux géants de la technologie. J’ai parlé avec Delangue lors de Google I/O, la conférence phare du géant de la technologie, où les dirigeants de Google ont dévoilé de nombreuses fonctionnalités d’IA pour leurs produits propriétaires et même une famille de modèles open source appelée Gemma. Pour Delangue, l’approche propriétaire n’est pas l’avenir qu’il envisage.
« Si vous optez pour l’open source, vous vous dirigez vers un monde dans lequel la plupart des entreprises, des organisations, des organisations à but non lucratif, des décideurs politiques et des régulateurs peuvent également faire de l’IA. Donc, une manière beaucoup plus décentralisée sans trop de concentration du pouvoir, ce qui, à mon avis, est un monde meilleur », a déclaré Delangue.
Comment ça fonctionne
L’accès au calcul pose un défi important pour la construction de grands modèles de langage, favorisant souvent des entreprises comme OpenAI et Anthropic, qui concluent des accords avec des fournisseurs de cloud pour des ressources informatiques substantielles. Hugging Face vise à uniformiser les règles du jeu en faisant don de ces GPU partagés à la communauté via un nouveau programme appelé ZeroGPU.
Les GPU partagés sont accessibles simultanément à plusieurs utilisateurs ou applications, éliminant ainsi le besoin pour chaque utilisateur ou application de disposer d’un GPU dédié. ZeroGPU sera disponible via Hugging Face’s Spaces, une plate-forme d’hébergement pour la publication d’applications, qui compte jusqu’à présent plus de 300 000 démos d’IA créées sur CPU ou GPU payant, selon la société.
« Il est très difficile d’obtenir suffisamment de GPU auprès des principaux fournisseurs de cloud »
L’accès aux GPU partagés est déterminé par l’utilisation, donc si une partie de la capacité du GPU n’est pas activement utilisée, cette capacité devient disponible pour être utilisée par quelqu’un d’autre. Cela les rend rentables, économes en énergie et idéaux pour une utilisation à l’échelle de la communauté. ZeroGPU utilise des périphériques GPU Nvidia A100 pour alimenter cette opération, qui offrent environ la moitié de la vitesse de calcul des H100 populaires et plus chers.
« Il est très difficile d’obtenir suffisamment de GPU auprès des principaux fournisseurs de cloud, et la manière de les obtenir, ce qui crée une barrière à l’entrée élevée, consiste à s’engager sur de très grandes quantités pendant de longues périodes », a déclaré Delangue.
En règle générale, une entreprise s’engage auprès d’un fournisseur de cloud comme Amazon Web Services pendant une ou plusieurs années pour sécuriser les ressources GPU. Cet arrangement désavantage les petites entreprises, les développeurs indépendants et les universitaires qui construisent à petite échelle et ne peuvent pas prédire si leurs projets gagneront du terrain. Quelle que soit l’utilisation, ils doivent toujours payer pour les GPU.
« C’est aussi un cauchemar de prédiction de savoir de combien de GPU et de quel type de budget vous avez besoin », a déclaré Delangue.
L’IA open source rattrape son retard
Alors que l’IA progresse rapidement à huis clos, l’objectif de Hugging Face est de permettre aux gens de créer davantage de technologies d’IA à l’air libre.
« Si vous vous retrouvez avec quelques organisations qui dominent trop, il sera alors plus difficile de les combattre plus tard », a déclaré Delangue.
Andrew Reed, ingénieur en apprentissage automatique chez Hugging Face, j’ai même lancé une application qui visualise la progression des LLM propriétaires et open source au fil du temps, telle que notée par le Arène de chatbot LMSYS qui montre l’écart entre les deux qui se rapprochent.
Plus de 35 000 variantes du modèle d’IA open source Llama de Meta ont été partagées sur Hugging Face depuis la première version de Meta il y a un an, allant des « modèles quantifiés et fusionnés aux modèles spécialisés en biologie et en mandarin », selon la société.
« L’IA ne devrait pas être entre les mains de quelques-uns. Avec cet engagement envers les développeurs open source, nous sommes impatients de voir ce que tout le monde va concocter ensuite dans un esprit de collaboration et de transparence », a déclaré Delangue dans un communiqué de presse.









