OpenAI, das mit zahlreichen Klagen wegen unerlaubter Verwendung von Inhalten konfrontiert ist, warf DeepSeek vor, sich an einer „Destillation“ zu beteiligen, einer Technik, bei der die Ergebnisse eines größeren Modells genutzt werden, um ein kleineres zu verbessern. Das chinesische Unternehmen DeepSeek hat mit der Veröffentlichung seines R1-Modells in der KI-Community für Aufsehen gesorgt, sein größter Konkurrent ist darüber jedoch nicht glücklich.
OpenAI teilte der Financial Times mit, dass es Beweise dafür gefunden habe, dass DeepSeek zur Entwicklung seines Chatbots OpenAI-Modelle verwendet habe. Die Entwickler von ChatGPT warfen DeepSeek vor, eine „Destillation“ zu betreiben, bei der Entwickler die Ergebnisse eines größeren, leistungsfähigeren Modells verwenden, um ein kleineres Modell effizienter zu machen. Es hilft Entwicklern, ähnliche Ergebnisse zu geringeren Kosten zu erzielen.
Eine Quelle teilte der Financial Times mit, dass diese Vorgehensweise in der Branche zwar gängige Praxis sei, das Extrahieren von Daten aus OpenAI zur Schaffung eines direkten Konkurrenten jedoch gegen die Servicebedingungen des Unternehmens verstoßen würde.
Laut Bloomberg haben Sicherheitsforscher bei Microsoft, einem großen OpenAI-Investor, im Herbst Daten entdeckt, die aus der API von OpenAI extrahiert wurden, und OpenAI darüber informiert. Mittlerweile gehen sie davon aus, dass DeepSeek dafür verantwortlich sein könnte, obwohl beide Unternehmen noch Ermittlungen durchführen. David Sacks, Präsident Trumps KI- und Kryptowährungszar, sagte gegenüber Fox News: „Es gibt viele Beweise dafür, dass DeepSeek Wissen aus den Modellen von OpenAI gestohlen hat, und ich glaube nicht, dass OpenAI darüber glücklich ist.“ Das Unternehmen ist sich bewusst, dass Unternehmen wie die in China „versucht, Modelle führender US-amerikanischer KI-Unternehmen zu verbessern“, sagte einer der Beteiligten gegenüber Bloomberg.
Der Sprecher fügte hinzu: „Als führender Entwickler von KI ergreifen wir Maßnahmen, um unser geistiges Eigentum zu schützen, unter anderem indem wir bei der Auswahl der Spitzenfunktionen, die wir in veröffentlichte Modelle aufnehmen, wählerisch sind. Wir glauben, dass diese Ankündigung von einigen als unfair angesehen wird. Zukunft.“ Es mag ironisch erscheinen, dass zur gleichen Zeit, als OpenAI Angriffe von Medienunternehmen abwehrte, mehrere Klagen von Autoren und anderen Künstlern eingingen, die behaupteten, dass OpenAI ihre Inhalte ohne Erlaubnis zum Trainieren seiner Modelle verwende.