Wir denken, dass wir alle gewusst haben, dass Meta sich dem KI-Trend nicht entziehen wird. Mark Zuckerbergs Unternehmen Meta gab bekannt, dass es ein neues großes Sprachmodell, das eine Schlüsselkomponente von Systemen der künstlichen Intelligenz ist, die in den letzten Monaten sehr populär geworden sind, ausgebildet hat und nun Forschern zur Verfügung stellt. Dieses Modell wird jedoch kleiner sein als seine Konkurrenten, und das Unternehmen sieht darin einen Vorteil.

Large Language Model Meta AI, oder LLaMA, ist ein Konkurrent von ChatGPT AI

Meta mischt sich in den Kampf um die Vorherrschaft zwischen KI-Unternehmen ein, so wie Google es vor einiger Zeit getan hat. LLaMA wird in Kürze unter einer nicht-kommerziellen Lizenz für Forscher und Personen verfügbar sein, die mit Regierung, Zivilangelegenheiten oder der Wissenschaft in Verbindung stehen. Wie andere ähnliche Technologien wird es in der Lage sein, riesige Textmengen zu verarbeiten, um Daten zusammenzufassen und Inhalte zu erstellen.

Meta gab bekannt, dass sein Modell „deutlich weniger“ Rechenleistung als andere Angebote benötige und gleichzeitig in 20 Sprachen mit dem lateinischen und kyrillischen Alphabet trainiere. Die Bereitstellung eines solchen Tools für Forscher ist ein Schritt hin zu umfassenderen Tests eines Modells, das Meta wahrscheinlich in zukünftigen Produkten verwenden möchte, die auf inhaltsgenerierender künstlicher Intelligenz basieren.

Noch ein Chatbot, diesmal von Zuckerberg?

Meta hat wenig Erfahrung, wenn es um generative KI wie ChatGPT oder Barda geht, aber künstliche Intelligenz ist für das Unternehmen ein guter Grund, in die Tech-Branche zu investieren. Der jüngste wirtschaftliche Abschwung in der Branche hat bei vielen Unternehmen, darunter auch Meta, zu massiven Entlassungen geführt. Für Zuckerbergs Unternehmen ist dies unter anderem auch eine Folge der Fokussierung auf Metaverse, die bislang mehr Verluste als Gewinne mit sich bringt.

Das Unternehmen behauptet, dass LLaMA die Konkurrenz in Bezug auf die Anzahl der vom Algorithmus berücksichtigten Parameter und Variablen übertreffen kann. ChatGPT von OpenAI hat satte 175 Milliarden Parameter, aber Meta sagt, dass dasselbe mit weniger erreicht werden kann. LLaMA wird in mehreren Optionen erhältlich sein, von nur 7 Milliarden bis zu 65 Milliarden Parametern.


Empfohlen:

Teilen:

Weitere Nachrichten