Zum Ende des Jahres 2024 teilt der Risikokapitalgeber Rob Toews von Radical Ventures seine Vorhersagen für die KI im Jahr 2025:
01. Meta wird anfangen, für Lama-Modelle Gebühren zu verlangen
Meta ist der globale Maßstab für offene KI In einer eindrucksvollen Fallstudie zur Unternehmensstrategie hat sich Meta dazu entschlossen, sein hochmodernes Llama-Modell kostenlos zur Verfügung zu stellen, während Konkurrenten wie OpenAI und Google ihre hochmodernen Modelle als Closed Source beließen und für die Nutzung Gebühren verlangten.
Daher dürfte die Nachricht, dass Meta Unternehmen ab nächstem Jahr Gebühren für die Nutzung von Llama berechnen wird, für viele eine Überraschung sein.
Um es klar zu sagen: Wir möchten weder, dass Meta die Llama-Quellsoftware vollständig einstellt, noch möchten wir, dass jeder, der das Llama-Modell verwendet, dafür bezahlen muss.
Stattdessen erwarten wir, dass Meta die Bedingungen der Open-Source-Lizenz von Llama verschärft, sodass Unternehmen ab einer bestimmten Größe, die Llama in einem kommerziellen Umfeld einsetzen, für die Nutzung des Modells zahlen müssen.
Technisch bietet Meta diese Funktionalität bereits in eingeschränktem Umfang an. Das Unternehmen erlaubt den größten Unternehmen – Cloud-Supercomputern und anderen Unternehmen mit mehr als 700 Millionen aktiven Benutzern pro Monat – nicht, sein Llama-Modell kostenlos zu nutzen.
Im Jahr 2023 sagte Meta-CEO Mark Zuckerberg: „Wenn Sie ein Unternehmen wie Microsoft, Amazon oder Google sind und Llama im Grunde weiterverkaufen, sollten wir in der Lage sein, damit Einnahmen zu erzielen. Ich glaube nicht, dass es viel geben wird. . Kurzfristiges Einkommen, aber hoffentlich auch langfristig ein gewisses Einkommen.“
Im nächsten Jahr wird Meta den Kreis der Unternehmen, die Llama kostenpflichtig nutzen, deutlich ausweiten und mehr große und mittelständische Unternehmen einbeziehen. Die Synchronisierung großer Sprachmodelle (LLMs) ist sehr aufwändig. Meta muss jedes Jahr Milliarden von Dollar investieren, um Llama auf Augenhöhe mit den neuesten Spitzenmodellen von Unternehmen wie OpenAI, Anthropic usw. zu halten oder zumindest annähernd auf Augenhöhe zu halten.
Meta ist eines der größten und am besten finanzierten Unternehmen der Welt. Allerdings handelt es sich auch hierbei um ein börsennotiertes Unternehmen, das letztlich seinen Anteilseignern gegenüber rechenschaftspflichtig ist.
Da die Kosten für die Entwicklung hochmoderner Modelle immer weiter steigen, wird es für Meta zunehmend untragbar, so viel Geld in die Schulung der nächsten Generation von Llama-Modellen zu investieren, ohne damit Einnahmen zu erwarten.
Im nächsten Jahr wird das Llama-Modell weiterhin kostenlos für Hobbyisten, Akademiker, einzelne Entwickler und Startups verfügbar sein. Aber 2025 wird das Jahr sein, in dem Meta ernsthaft daran arbeitet, Llama profitabel zu machen.
02. Fragen zum „Skalierungsgesetz“
Das meistdiskutierte Thema der letzten Wochen im Bereich der künstlichen Intelligenz war die Frage der Skalierungsgesetze und ob diese bald zusammenbrechen werden.
Dieses Skalierungsgesetz wurde erstmals in einem OpenAI-Papier aus dem Jahr 2020 vorgeschlagen. Das Grundkonzept ist einfach: Wenn Sie ein KI-Modell trainieren, indem Sie die Anzahl der Modellparameter, die Menge der Trainingsdaten und den Rechenaufwand erhöhen, verbessert sich die Leistung des Modells auf zuverlässige und vorhersehbare Weise (technisch gesehen sein Test Der Verlust wird geringer).
Von GPT-2 über GPT-3 bis GPT-4 sind die erstaunlichen Leistungsverbesserungen alle auf das Skalierungsgesetz zurückzuführen.
Wie das Mooresche Gesetz ist auch das Skalierungsgesetz kein wirkliches Gesetz, sondern lediglich eine empirische Beobachtung.
Mehrere Berichte im vergangenen Monat deuteten darauf hin, dass die Erträge der KI-Labore zurückgehen, während sie weiterhin große Sprachmodelle entwickeln. Dies hilft zu erklären, warum die Veröffentlichung von GPT-5 von OpenAI wiederholt verzögert wurde.
Der häufigste Einwand gegen die Stagnation der Skalierungsgesetze besteht darin, dass die Einführung der Testzeitberechnung eine völlig neue Dimension der Skalierung eröffnet.
Dies bedeutet, dass neue Inferenzmodelle wie o3 von OpenAI die Rechenleistung während der Inferenz massiv skalieren können, anstatt die Rechenleistung während des Trainings massiv zu skalieren. Dadurch können die Modelle „länger nachdenken“ und neue KI-Fähigkeiten freisetzen.
Das ist sehr wichtig. Test-Time-Computing stellt einen spannenden neuen Ansatz zur Skalierung und Verbesserung der Leistung von KI dar.