Vi tror att vi alla visste att Meta inte kommer att hålla sig borta från AI-trenden. Mark Zuckerbergs företag Meta meddelade att de har utbildat och nu gör tillgänglig för forskare en ny stor språkmodell som är en nyckelkomponent i artificiell intelligenssystem som har blivit enormt populära de senaste månaderna. Den här modellen kommer dock att vara mindre än sina konkurrenter och företaget ser en fördel i detta.

Large Language Model Meta AI, eller LLaMA, är en konkurrent till ChatGPT AI

Meta går med i kampen om dominans mellan AI-företag på samma sätt som Google gjorde för en tid sedan. LLaMA kommer snart att finnas tillgänglig under en icke-kommersiell licens för forskare och de som är associerade med regering, samhällsfrågor eller akademi. Liksom andra liknande tekniker kommer den att kunna bearbeta enorma mängder text för att sammanfatta data och skapa innehåll.

Meta meddelade att dess modell kräver "betydligt mindre" datorkraft än andra erbjudanden och tränar samtidigt på 20 språk som använder de latinska och kyrilliska alfabeten. Att göra ett sådant verktyg tillgängligt för forskare är ett steg mot bredare testning av en modell som Meta sannolikt kommer att vilja använda i framtida produkter baserade på innehållsgenererande artificiell intelligens.

En annan chatbot, den här gången från Zuckerberg?

Meta har liten erfarenhet när det kommer till generativ AI som ChatGPT eller Barda, men artificiell intelligens är ett bra skäl för företaget att investera i teknikindustrin. Den senaste ekonomiska nedgången i branschen har lett till massiva uppsägningar hos många företag, inklusive Meta. För Zuckerbergs bolag är detta också delvis konsekvensen av att fokusera på Metaverse, som hittills ger mer förluster än vinster.

Företaget hävdar att LLaMA kan överträffa konkurrenterna när det gäller antalet parametrar och variabler som tas i beaktande av algoritmen. OpenAI:s ChatGPT har hela 175 miljarder parametrar, men Meta säger att samma sak kan uppnås med färre. LLaMA kommer att finnas tillgänglig i flera alternativ, från bara 7 miljarder parametrar till 65 miljarder.


Rekommenderad:

Dela:

Andra nyheter