Google a appris à un modèle d’IA comment utiliser d’autres modèles d’IA
Google a appris à un modèle d’IA comment utiliser d’autres modèles d’IA


Découvrez la dernière prouesse de Google dans le domaine de l’intelligence artificielle : l’apprentissage d’un modèle IA à utiliser d’autres modèles IA, entraînant une amélioration de 40 % dans le domaine du codage !
Les chercheurs de Google Research et Google DeepMind en intelligence artificielle ont mis au point une méthode innovante permettant à un grand modèle de langage (LLM) de bénéficier des compétences d’autres modèles de langage.
Cette avancée résout l’un des défis majeurs des LLM en offrant aux développeurs la possibilité d’enrichir les modèles existants de nouvelles capacités, sans avoir à tout recommencer ou à investir dans des sessions coûteuses de recyclage ou de réglage fin.
Selon l’équipe de recherche de Google, l’extension d’un LLM avec un autre langage améliore non seulement les performances des tâches existantes, mais permet également d’accomplir de nouvelles tâches qui seraient autrement impossibles pour les modèles individuels. Une avancée passionnante dans le monde de l’IA !
Enseigner de nouvelles astuces aux anciens chatbots
La recherche a été menée à l’aide du PaLM2-S LLM de Google, un modèle qui, selon la société, est comparable à GPT-4, l’IA qui sous-tend ChatGPT d’OpenAI.
PaLM2-S a été évalué seul lors des expériences de l’équipe, puis à nouveau après avoir été complété par des modèles de langage spécialisés plus petits. Les tâches effectuées comprenaient la traduction, où la version augmentée a montré une amélioration allant jusqu’à 13 % par rapport à la version de base, et le codage.
Lorsqu’il a été testé dans des tâches de codage, le modèle hybride a montré des améliorations significatives, selon l’article :
« De même, lorsque PaLM2-S est complété par un modèle spécifique au code, nous constatons une amélioration relative de 40 % par rapport au modèle de base pour les tâches de génération et d’explication de code, à égalité avec ses homologues entièrement affinés.
Des implications potentiellement massives
En apparence, les gains de performances démontrés pourraient avoir des implications immédiates pour le secteur de l’IA. L’augmentation des performances dans les tâches de traduction, par exemple, était évidemment plus importante lors de la traduction d’une langue avec un faible support vers l’anglais. Cela reste un problème en suspens dans l’apprentissage automatique, et le travail de Google dans ce domaine a le potentiel de faire bouger les choses.
Cependant, à plus grande échelle, il est possible que ce type de recherche s’attaque à l’épée de Damoclès qui plane au-dessus de la tête de nombreux PDG technologiques du secteur de l’IA : des problèmes juridiques qui pourraient démanteler les fondements mêmes des chatbots tels que ChatGPT.
Droit d’auteur contre intelligence artificielle
Dans le monde de l’IA et du droit d’auteur, les créateurs de certains des modèles de langage les plus en vogue font face à des défis juridiques. Des poursuites ont été engagées, alléguant que ces systèmes d’IA utilisent des données protégées par le droit d’auteur pour leur entraînement.
La grande question qui se pose est de savoir si les entreprises lucratives peuvent légalement tirer parti de ces données pour former leurs modèles linguistiques. Si les tribunaux décident que l’utilisation de telles données est interdite et que tous les modèles formés sur du matériel protégé par le droit d’auteur doivent être éliminés, cela pourrait poser des défis majeurs, tant sur le plan technique que financier, pour la continuité des services associés.
En raison des coûts élevés liés à la formation de ces modèles et de leur nécessité d’utiliser d’énormes quantités de données, des produits tels que ChatGPT pourraient ne pas être viables dans un paysage réglementaire plus strict en matière d’IA aux États-Unis.
Cependant, il existe une lueur d’espoir avec le nouveau programme d’augmentation LLM de Google. Si cela se concrétise et se développe, il pourrait atténuer certaines des exigences de mise à l’échelle et des coûts associés à la création ou à la refonte de modèles linguistiques, offrant ainsi une solution potentielle à ces défis juridiques et opérationnels.






