Achamos que todos sabíamos que a Meta não vai ficar longe da tendência da IA. A Meta, empresa de Mark Zuckerberg, anunciou que treinou e agora está disponibilizando para pesquisadores um novo modelo de linguagem grande que é um componente-chave dos sistemas de inteligência artificial que se tornaram muito populares nos últimos meses. Porém, esse modelo será menor que seus concorrentes, e a empresa vê nisso uma vantagem.

Large Language Model Meta AI, ou LLaMA, é um concorrente do ChatGPT AI

A Meta está se juntando à batalha pelo domínio entre as empresas de IA da mesma forma que o Google fez há algum tempo. O LLaMA logo estará disponível sob uma licença não comercial para pesquisadores e pessoas associadas ao governo, assuntos cívicos ou acadêmicos. Como outras tecnologias semelhantes, será capaz de processar grandes quantidades de texto para resumir dados e criar conteúdo.

A Meta anunciou que seu modelo requer “significativamente menos” poder de computação do que outras ofertas e treina simultaneamente em 20 idiomas usando os alfabetos latino e cirílico. Disponibilizar tal ferramenta aos pesquisadores é um passo em direção a testes mais amplos de um modelo que a Meta provavelmente desejará usar em produtos futuros baseados em inteligência artificial de geração de conteúdo.

Outro chatbot, desta vez de Zuckerberg?

A Meta tem pouca experiência quando se trata de IA generativa como ChatGPT ou Barda, mas a inteligência artificial é um bom motivo para a empresa investir na indústria de tecnologia. A recente crise económica na indústria levou a despedimentos massivos em muitas empresas, incluindo a Meta. Para a empresa de Zuckerberg, isso também é, em parte, consequência do foco no Metaverso, que até agora traz mais perdas do que lucros.

A empresa afirma que o LLaMA pode superar os concorrentes em termos de número de parâmetros e variáveis ​​levados em consideração pelo algoritmo. O ChatGPT da OpenAI tem 175 bilhões de parâmetros, mas Meta diz que o mesmo pode ser alcançado com menos. O LLaMA estará disponível em várias opções, de apenas 7 bilhões de parâmetros a 65 bilhões.


recomendado:

Поделиться:

Outras notícias