Nous pensons que nous savions tous que Meta ne resterait pas à l'écart de la tendance de l'IA. La société de Mark Zuckerberg, Meta, a annoncé avoir formé et mettre désormais à la disposition des chercheurs un nouveau grand modèle de langage qui est un élément clé des systèmes d'intelligence artificielle devenus extrêmement populaires ces derniers mois. Cependant, ce modèle sera plus petit que ses concurrents, et l'entreprise y voit un avantage.

Large Language Model Meta AI, ou LLaMA, est un concurrent de ChatGPT AI

Meta rejoint la bataille pour la domination entre les sociétés d'IA de la même manière que Google l'a fait il y a quelque temps. LLaMA sera bientôt disponible sous une licence non commerciale pour les chercheurs et ceux associés au gouvernement, aux affaires civiques ou au milieu universitaire. Comme d'autres technologies similaires, il sera capable de traiter d'énormes quantités de texte pour résumer les données et créer du contenu.

Meta a annoncé que son modèle nécessite « beaucoup moins » de puissance de calcul que les autres offres et s'entraîne simultanément dans 20 langues en utilisant les alphabets latin et cyrillique. Mettre un tel outil à la disposition des chercheurs est une étape vers des tests plus larges d'un modèle que Meta voudra probablement utiliser dans de futurs produits basés sur l'intelligence artificielle génératrice de contenu.

Un autre chatbot, cette fois de Zuckerberg ?

Meta a peu d'expérience en matière d'IA générative comme ChatGPT ou Barda, mais l'intelligence artificielle est une bonne raison pour l'entreprise d'investir dans l'industrie technologique. Le récent ralentissement économique dans le secteur a entraîné des licenciements massifs dans de nombreuses entreprises, dont Meta. Pour l'entreprise de Zuckerberg, c'est aussi en partie la conséquence de la concentration sur le Metaverse, qui entraîne jusqu'à présent plus de pertes que de bénéfices.

La société affirme que LLaMA peut surpasser ses concurrents en termes de nombre de paramètres et de variables pris en compte par l'algorithme. Le ChatGPT d'OpenAI a 175 milliards de paramètres, mais Meta dit que la même chose peut être obtenue avec moins. LLaMA sera disponible en plusieurs options, de seulement 7 milliards de paramètres à 65 milliards.


recommandé:

Partager:

Autres nouvelles