Posted on Leave a comment

Ist die nächste Grenze der generativen KI ein Transformationstransformator?

Die Transformer-Architektur basiert auf den derzeit beliebtesten öffentlichen und privaten KI-Modellen. Wir wollen also wissen – was kommt als nächstes? Wird diese Architektur zu besseren Überlegungen führen? Was kommt nach Transformer? Um heute Intelligenz in Modelle zu integrieren, sind riesige Datenmengen, GPU-Rechenleistung und knappe Talente erforderlich. Dadurch ist der Bau und die Wartung oft teuer.

Der Einsatz künstlicher Intelligenz beginnt damit, einfache Chatbots intelligenter zu machen. Jetzt haben Startups und Unternehmen herausgefunden, wie sie Intelligenz als Co-Pilot bündeln können, um menschliches Wissen und Fähigkeiten zu erweitern. Der natürliche nächste Schritt besteht darin, Dinge wie mehrstufige Arbeitsabläufe, Speicherung und Personalisierung in Agenten zu packen, um Anwendungsfälle in so unterschiedlichen Funktionen wie Vertrieb und Technik zu bearbeiten. Die Erwartung besteht darin, dass einfache Eingabeaufforderungen des Benutzers es dem Agenten ermöglichen, die Absicht zu klassifizieren, das Ziel in mehrere Schritte zu unterteilen und die Aufgabe abzuschließen, sei es eine Internetsuche, die Aufschlüsselung der Authentifizierung in mehrere Tools oder das Lernen aus wiederholten Verhaltensweisen in der Vergangenheit.

Die Transformer-Architektur basiert auf den derzeit beliebtesten öffentlichen und privaten KI-Modellen. Wir wollen also wissen – was kommt als nächstes? Wird diese Architektur zu besseren Überlegungen führen? Was kommt nach Transformer? Um heute Intelligenz in Modelle zu integrieren, sind riesige Datenmengen, GPU-Rechenleistung und knappe Talente erforderlich. Dadurch ist der Bau und die Wartung oft teuer.

Der Einsatz künstlicher Intelligenz beginnt damit, einfache Chatbots intelligenter zu machen. Jetzt haben Startups und Unternehmen herausgefunden, wie sie Intelligenz als Co-Pilot bündeln können, um menschliches Wissen und Fähigkeiten zu erweitern. Der natürliche nächste Schritt besteht darin, Dinge wie mehrstufige Arbeitsabläufe, Speicherung und Personalisierung in Agenten zu packen, um Anwendungsfälle in so unterschiedlichen Funktionen wie Vertrieb und Technik zu bearbeiten. Die Erwartung besteht darin, dass einfache Eingabeaufforderungen des Benutzers es dem Agenten ermöglichen, die Absicht zu klassifizieren, das Ziel in mehrere Schritte zu unterteilen und die Aufgabe abzuschließen, sei es eine Internetsuche, die Aufschlüsselung der Authentifizierung in mehrere Tools oder das Lernen aus wiederholten Verhaltensweisen in der Vergangenheit.

Während die neuesten Forschungsergebnisse und Modellveröffentlichungen große Hoffnungen auf die Unterstützung der Transformer-Architektur als nächste Grenze versprechen, müssen wir auch die technischen Herausforderungen berücksichtigen, die Unternehmen daran hindern, diese Vorteile zu nutzen:

Der Mangel an Funktionen im Unternehmen ist frustrierend: Stellen Sie sich vor, Sie würden CXOs ein Produkt verkaufen, das nicht über einfache Funktionen wie rollenbasierte Zugriffskontrolle (RBAC), Single Sign-On (SSO) oder fehlenden Zugriff auf Protokolle verfügt ( Eingabeaufforderungen und Ausgaben). Die heutigen Modelle sind vielleicht noch nicht das Richtige für Unternehmen, aber Unternehmen erstellen separate Budgets, um sicherzustellen, dass sie das nächste große Ding nicht verpassen.

Die bisherige Funktionsweise durchbrechen: KI-Co-Piloten und -Agenten machen die Daten- und Anwendungssicherheit komplexer. Stellen Sie sich einen einfachen Anwendungsfall vor: Die Videokonferenz-App, die Sie täglich verwenden, führt KI-Zusammenfassungsfunktionen ein. Als Benutzer möchten Sie vielleicht die Möglichkeit haben, nach einer Besprechung Protokolle zu erhalten, aber in regulierten Branchen kann diese Verbesserung plötzlich zum Albtraum eines CISOs werden. Tatsächlich waren Funktionen, die bisher gut funktioniert hatten, fehlerhaft und erforderten eine zusätzliche Sicherheitsüberprüfung. Wenn SaaS-Anwendungen solche Funktionen einführen, müssen Unternehmen Leitplanken einrichten, um Datenschutz und Compliance zu gewährleisten.

Der anhaltende Kampf zwischen RAG und Nudge: Man kann beides oder keines davon ohne große Opfer einsetzen. Man kann sich Retrieval-Augmented Generation (RAG) als eine Möglichkeit vorstellen, sicherzustellen, dass Fakten korrekt dargestellt werden und die Informationen auf dem neuesten Stand sind, während Feinabstimmung als Ermöglichung einer optimalen Modellqualität angesehen werden kann. Die Feinabstimmung ist schwierig, weshalb einige Modellanbieter davon abraten. Dazu gehört auch die Herausforderung einer Überanpassung, die sich negativ auf die Modellqualität auswirken kann. Die Feinabstimmung scheint von mehreren Seiten unter Druck gesetzt zu werden – da das Kontextfenster des Modells größer wird und die Token-Kosten sinken, könnte RAG zu einer besseren Bereitstellungsoption für Unternehmen werden. Im Kontext von RAG war das kürzlich von Cohere eingeführte Command R+-Modell das erste offen gewichtete Modell, das GPT-4 im Chatbot-Bereich schlug. Command R+ ist das fortschrittlichste RAG-Optimierungsmodell, das für Workflows auf Unternehmensebene entwickelt wurde.

Preiswert einen neuen Akku, Batterien, Ladegerät online kaufen: Der Akkuokok.de mit getesteten Produkten! ✓ Schnelle Lieferung ✓ Hohe Qualität ✓ Sichere Ersatz-Akkus bestellen Sie hier!Jetzt günstig bestellen!

Leave a Reply

Your email address will not be published. Required fields are marked *