Le Ministère de la Culture propose gratuitement 23 modèles IA dont GPT-4o, Qwen2.5, Claude 3.5 et Gemini 2.0 pour les comparer

Date:

Le paysage numérique français s’enrichit d’un nouvel outil dédié à l’intelligence artificielle conversationnelle : compar:IA. Lancé en octobre 2024 par le Ministère de la Culture et la Direction Interministérielle du Numérique (DINUM), compar:IA se positionne comme une plateforme gratuite permettant aux utilisateurs de comparer et d’évaluer divers modèles d’IA conversationnelle.

Une plateforme pour comparer les IA conversationnelles

compar:IA offre aux utilisateurs la possibilité de dialoguer simultanément avec deux modèles d’IA anonymisés. Cette approche comparative vise à développer l’esprit critique des utilisateurs en les incitant à analyser et à comparer les réponses fournies par chaque modèle. Après chaque interaction, l’utilisateur est invité à exprimer sa préférence, contribuant ainsi à l’amélioration continue des modèles. Les données recueillies sont compilées dans des jeux de données accessibles librement, servant à affiner les futurs modèles d’IA en français.

Voici le lien pour tester : https://www.comparia.beta.gouv.fr/

Un outil au service de la diversité linguistique et culturelle

L’une des missions principales de compar:IA est de promouvoir la diversité linguistique et culturelle dans le domaine de l’IA. En collectant des préférences issues de tâches réelles, la plateforme génère des jeux de données qui peuvent être exploités par les acteurs industriels et académiques. Cette démarche vise à entraîner de nouveaux modèles plus respectueux des spécificités culturelles et linguistiques du français.

Modèles d’intelligence artificielle disponibles

Le site compar:IA présente une sélection de 23 modèles d’IA conversationnelle, chacun doté de caractéristiques distinctes. Voici une liste détaillée de ces modèles :

Cohere/Aya Expanse 8B : Ce modèle semi-ouvert, développé par l’entreprise canadienne Cohere, comporte 8 milliards de paramètres. Il appartient à la famille Command R et a été spécifiquement entraîné sur un corpus multilingue.

Anthropic/Claude 3.5 Sonnet v2 : Modèle propriétaire de taille estimée XL, il est le plus avancé de la famille Claude. Spécialisé dans la génération de textes littéraires avec un ton naturel, sa version v2 est sortie en octobre 2024.

Cohere/Command R : Ce modèle semi-ouvert de 35 milliards de paramètres, mis à jour en août 2024, est conçu pour les tâches de recherche et d’extraction d’informations. Il a été entraîné sur 23 langues.

DeepSeek/DeepSeek v3 : Avec 671 milliards de paramètres, ce modèle semi-ouvert de la société chinoise DeepSeek utilise une architecture Mixture-of-Experts, permettant une grande taille tout en réduisant les coûts d’inférence.

OpenAI/GPT-4o : Lancé en août 2024, ce modèle propriétaire de taille estimée XL est l’un des deux modèles principaux sur lesquels repose ChatGPT d’OpenAI.

OpenAI/GPT-4o mini : Version plus petite du GPT-4o, ce modèle propriétaire de taille estimée M a été lancé en juillet 2024.

Google/Gemini 1.5 Pro : Sorti en septembre 2024, ce modèle propriétaire de taille estimée XL est multimodal, capable de générer des textes et des images, d’analyser des vidéos et de transcrire de l’audio.

Google/Gemini 2.0 Flash : Ce modèle propriétaire de taille estimée M, lancé en décembre 2024, appartient à la famille Flash de Gemini. Multilingue et multimodal, il offre des réponses très rapides pour des raisonnements moins complexes.

Google/Gemma 2 9B : Modèle semi-ouvert de 9 milliards de paramètres, sorti en juin 2024, il est conçu pour répondre à des instructions spécifiques, traiter des requêtes complexes et proposer des solutions créatives.

Nous/Hermes 3 405B : Adaptation du modèle Llama 3.1 405B de Meta, ce modèle semi-ouvert de 405 milliards de paramètres est le plus grand de la série Hermes. Il a été lancé en juillet 2024.

Liquid/LFM 40B : Ce modèle propriétaire de taille estimée M, sorti en septembre 2024 par l’entreprise américaine Liquid, utilise une architecture Mixture of Experts pour optimiser l’utilisation de ses paramètres.

Meta/Llama 3.1 405B : Avec 405 milliards de paramètres, ce modèle semi-ouvert est le plus grand de la série Llama de Meta. Sorti en juillet 2024, il est optimisé pour des tâches complexes de programmation, de mathématiques et de raisonnement.

Meta/Llama 3.1 70B : Ce modèle semi-ouvert de 70 milliards de paramètres, lancé en avril 2024, est performant pour générer et comprendre des textes complexes dans diverses langues.

Meta/Llama 3.1 8B : Version la plus légère de Llama 3.1, ce modèle semi-ouvert de 8 milliards de paramètres est rapide et adapté aux applications courantes. Il est sorti en avril 2024.

NVIDIA/Llama 3.1 Nemotron 70B : Ce modèle semi-ouvert de 70 milliards de paramètres est un fine-tune conçu par NVIDIA à partir du modèle Llama 3.1 70B de Meta.

Meta/Llama 3.3 70B : Sorti en décembre 2024, ce modèle semi-ouvert de 70 milliards de paramètres est performant pour générer et comprendre des textes complexes dans diverses langues.

Mistral/Ministral : Optimisé pour un temps de réaction rapide, ce modèle semi-ouvert de 8 milliards de paramètres, sorti en octobre 2024, est idéal pour des applications nécessitant des réponses immédiates et supporte plus de 100 langues.

Mistral/Mistral Large : Ce modèle semi-ouvert de 123 milliards de paramètres, lancé en novembre 2024 par la société française Mistral, gère l’anglais, le français, l’italien, l’allemand et l’espagnol.

Mistral/Mistral Nemo : Sorti en juillet 2024, ce modèle semi-ouvert de 12 milliards de paramètres est optimisé pour un temps de réaction rapide et peut gérer un contexte de 128k tokens dans plus de 100 langues.

Mistral/Mistral Small 3 : Ce modèle semi-ouvert de 24 milliards de paramètres, lancé en janvier 2025, est spécialisé dans le multilinguisme et possède des capacités de raisonnement avancées.

Mistral/Mixtral 8x22B : Modèle semi-ouvert de 176 milliards de paramètres, sorti en avril 2024, il a été entraîné en anglais, français, allemand, italien et espagnol, et est spécialisé dans les tâches de mathématiques, de programmation et de raisonnement.

Microsoft/Phi-4 : Ce modèle semi-ouvert de 15 milliards de paramètres, appartenant à la famille Phi, a été lancé en décembre 2024. Il a été entraîné sur un large corpus synthétique et filtré issu du web.

Alibaba/Qwen2.5-Coder-32B : Ce modèle semi-ouvert de 32 milliards de paramètres, lancé en novembre 2024, est spécialisé dans les tâches de codage et de programmation.

Une évaluation écologique rigoureuse pour des choix éclairés

compar:IA intègre une dimension écologique en évaluant l’impact environnemental des modèles d’IA conversationnelle. Cette évaluation repose sur la méthodologie développée par Ecologits (GenAI Impact), qui applique les principes de l’analyse du cycle de vie (ACV) conformément à la norme ISO 14044. L’ACV se concentre sur l’impact de l’inférence—l’utilisation des modèles pour répondre aux requêtes—et sur la fabrication des cartes graphiques, incluant l’extraction des ressources, la production et le transport.

La consommation électrique d’un modèle est estimée en considérant plusieurs paramètres, tels que la taille du modèle, la localisation des serveurs où il est déployé et le nombre de tokens générés lors des réponses. Ces données permettent de calculer le potentiel de réchauffement climatique, exprimé en équivalent CO₂, offrant ainsi aux utilisateurs une comparaison précise de l’empreinte carbone des différents modèles pour une même requête. Cette transparence vise à encourager le développement et l’adoption de modèles d’IA plus éco-responsables.

Il est important de noter que les méthodologies d’évaluation de l’impact environnemental de l’IA sont en constante évolution. Actuellement, l’analyse se focalise principalement sur l’inférence et la fabrication du matériel. Cependant, l’impact cumulé de l’inférence, à l’échelle de millions d’utilisateurs effectuant des requêtes quotidiennement, peut s’avérer supérieur à l’impact de l’entraînement initial. Ainsi, une évaluation complète devrait idéalement considérer l’ensemble du cycle de vie des modèles, de l’entraînement à l’utilisation en production.

La localisation des centres de données influence également l’empreinte carbone des modèles d’IA. Un modèle déployé dans un pays dépendant fortement des énergies fossiles aura un impact environnemental plus élevé que s’il est hébergé dans un pays privilégiant les énergies renouvelables. La méthodologie d’Ecologits intègre ces données sur le mix énergétique des différents pays, offrant une estimation plus précise et nuancée de l’empreinte carbone réelle de l’inférence pour chaque modèle.

Un engagement pour la transparence et la collaboration

compar:IA se distingue par son engagement envers la transparence et la collaboration. Les jeux de données générés à partir des interactions et des préférences des utilisateurs sont diffusés sous licence ouverte, permettant à l’ensemble de l’écosystème IA d’en bénéficier. Cette approche collaborative vise à accélérer le développement de modèles d’IA plus performants et adaptés aux spécificités culturelles et linguistiques du français.

compar:IA s’impose comme un outil essentiel pour tous ceux qui souhaitent explorer, comparer et contribuer au développement des IA conversationnelles en français. En favorisant la diversité linguistique et culturelle, et en encourageant la collaboration entre les différents acteurs du domaine, compar:IA participe activement à l’évolution et à l’amélioration des technologies d’intelligence artificielle.

Notre site est un média approuvé par Google Actualité.

Ajoutez Media24.fr dans votre liste de favoris pour ne manquer aucune news !

Nous rejoindre en un clic
Suivre-Media24.fr

Eric GARLETTI
Eric GARLETTIhttps://www.eric-garletti.fr/
Je suis curieux, défenseur de l'environnement et assez geek au quotidien. De formation scientifique, j'ai complété ma formation par un master en marketing digital qui me permet d'aborder de très nombreux sujets.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Articles connexes

Où sont les principaux sites de production d’énergie marine possibles ?

Quand on parle d'énergie renouvelable, le vent et le soleil viennent immédiatement à l'esprit. Pourtant, il existe une...

Fourmis Atta sexdens : leur mémoire des infections intrigue les scientifiques

Elles sont minuscules, organisées, et elles savent se défendre collectivement contre des microbes : les fourmis coupeuses de...

La banane au cœur d’un nouveau moteur hypersonique ? La Chine veut utiliser cet élément chimique pour dépasser les 7 000 km/h avec ses...

La Chine trouvent comment "doper" ses avions hypersonique grâce au magnésiums Les chercheurs chinois viennent peut-être de réécrire le...

Ce géant français de l’aéronautique se rend incontournable au bon fonctionnement du plus grand aéroport d’Inde avec 70 millions de passagers en 2024

Thales inaugure un centre avancé de maintenance aéronautique à Gurugram. Thales a récemment inauguré un nouveau centre de Maintenance,...