Des HPI et des sales gosses : comment les géants de la tech tentent d'éduquer leurs IA… avec un succès relatif
INDOMPTABLES IA (2/4) - Pour rendre un modèle de langage utile, fiable et neutre, on procède à son « alignement ». Dans la pratique, ce tâtonnement statistique équivaut à maîtriser un enfant prodigieusement érudit, hyperactif et affabulateur. Une science encore largement approximative, que présente le deuxième épisode de notre série.
L'entraînement des modèles de langage repose sur des milliards de données, mais leur alignement reste un processus complexe et coûteux. (Collage Michael Sallit pour « Les Echos »)
Par Frédéric Filloux (Journaliste spécialisé dans la tech, les médias et l'intelligence artificielle)
Publié le 16 févr. 2026 à 17:00Mis à jour le 17 févr. 2026 à 10:29
Réservé à nos abonnés
Tout les oppose. A l'Est, Qwen, le grand modèle de langage chinois (« large language models », LLM) créé par le géant Alibaba. A l'Ouest, Llama, développé en Californie par Meta, opérateur de Facebook, Instagram et WhatsApp. Créés en 2023, les deux ont connu de multiples itérations avec des versions propriétaires dédiées aux usages internes comme le profilage des clients, l'optimisation de la publicité ou des ventes, et évidemment la création des chatbots avec leur formidable potentiel d'addiction, donc de monétisation.
Intéressons-nous aux versions dites open source de ces modèles. On les télécharge facilement, même s'il faut avoir de bonnes connaissances pour les faire fonctionner. Les géants de l'IA américains, européens et
