Der Aufstieg der generativen KI (Gen AI) hat die Aufmerksamkeit von Unternehmen auf der ganzen Welt geweckt, und jeder ist begierig darauf, etwas zu entwickeln und Wettbewerbsvorteile zu erlangen. Um diese transformative Technologie zu nutzen, müssen Sie sich jedoch mit einem völlig neuen Stack von Technologien, Tools und Frameworks auseinandersetzen. Das Verständnis aller damit verbundenen Feinheiten kann Unternehmen dabei helfen, die richtigen Anwendungsfälle zu priorisieren, die richtigen Technologien auszuwählen und den Wert der generativen KI zu maximieren.
Wie generative KI funktioniert
Generative KI bezieht sich auf die verschiedenen KI-Techniken, -Tools und -Modelle, die darauf ausgelegt sind, auf der Grundlage eines Inputs völlig neue Inhalte zu generieren. Sie kann nicht nur Text, sondern auch Bilder, Videos, Audio und andere Modalitäten verstehen und erstellen.
Es handelt sich zwar um eine Untergruppe der Künstlichen Intelligenz (KI), aber das Besondere an Gen AI ist das Foundation Model (FM). FMs sind Modelle des maschinellen Lernens (ML), die mit riesigen Datenmengen über verschiedene Modalitäten hinweg trainiert wurden. Foundation Models sind verallgemeinert. Im Gegensatz zu früheren Formen der KI werden FMs nicht für bestimmte Aufgaben trainiert und können zur Lösung einer Vielzahl von Problemen angepasst werden.
FMs basieren auf einer Deep Learning Architektur für neuronale Netzwerke, die Transformer genannt wird . Transformer-Modelle können große Mengen an Textinhalten aufnehmen und die Relevanz und den Kontext jedes Wortes in einem Satz, Absatz oder Artikel verstehen. Sie können Beziehungen zwischen Wörtern verstehen.
Foundation Models werden in zwei Schritten erstellt:
- Schritt 1: Vorschulung mit riesigen Mengen roher, verallgemeinerter und nicht beschrifteter Daten aus verschiedenen Modalitäten wie Text, Bilder, Audio, Video usw. Dieses Training ist weitgehend unüberwacht. FMs haben eine große Anzahl von einstellbaren Parametern, die es ihnen ermöglichen, komplexe Themen zu verstehen.
- Schritt 2: Feinabstimmung auf spezifische Aufgaben wie Frage/Antwort, Zusammenfassung, Sentimentanalyse usw. FMs sind verallgemeinert und können zur Lösung einer Vielzahl von Aufgaben angepasst werden.
Die ausgereiftesten FMs sind heute textorientiert, vor allem wegen der Unmengen von Textinhalten, die bereits für das Training zur Verfügung stehen. Dies hat die Entwicklung eines speziellen Typs von FMs für sprachspezifische Aufgaben beschleunigt: Große Sprachmodelle (LLM).
Der generative KI-Technologie-Stack im Unternehmenskontext
Generative KI ist nicht einfach eine weitere Anwendung, die Sie erstellen. Sie bringt einen völlig neuen Technologie-Stack mit sich.
Während Foundation Models das Herzstück des Stacks sind, gibt es mehrere neue Schichten, die Unternehmen je nach Zielsetzung aufbauen, kaufen oder einfach nur zur Kenntnis nehmen müssen. Der Tech Stack besteht aus mehreren neuen Tools, Technologien und Techniken, die in mehreren verschiedenen Schichten organisiert sind.
1. Rechnen
Am unteren Ende des Stacks befinden sich die Rechenhardwarechips, die für das Modelltraining und die Inferenz benötigt werden. In den letzten Jahren hat die rohe Rechenleistung von Grafikprozessoren (GPUs) zugenommen, wobei sich die Verarbeitungseffizienz alle 18 Monate verdoppelt.
Nvidia ist der führende Anbieter von GPUs, aber auch AMD und Intel bringen ihre GPUs und die dazugehörigen Entwickler-Tools auf den Markt. Google hat Tensor Processing Unit (TPU) Chips eingeführt, die speziell für den Einsatz von ML in großem Maßstab entwickelt wurden. Das Startup-Unternehmen SambaNova hat eigene Hardware entwickelt, darunter Prozessor- und Speicherchips sowie Software, die für den Betrieb sehr großer LLMs ausgelegt ist.
Unternehmen, die sich entscheiden, ihre eigenen Foundation Models zu entwickeln oder bestehende FMs für ihren Bereich oder Anwendungsfall zu optimieren, müssen mit KI-Hardware-Beschleunigern zusammenarbeiten, die Hardware und Software kombinieren, um die Gesamtbetriebskosten zu senken. Alle anderen Unternehmen werden die bestehenden FMs nutzen, die von den Cloud-Anbietern gehostet werden, und müssen sich nicht mit dieser Schicht des Stacks befassen.
2. Cloud-Plattformen
Hinter den Kulissen spielen die Anbieter von Infrastrukturen eine entscheidende Rolle bei Gen AI-Lösungen. Dazu gehören Cloud-Hyperscaler (Amazon AWS, Microsoft Azure, Google GCP), die nicht nur die Speicher- und Rechenressourcen bereitstellen, die für die Analyse riesiger Datenmengen erforderlich sind, sondern auch Modelle, umfassende Tools und Dienste für die Entwicklung von Gen-KI-Anwendungen. Derzeit sind die Angebote der Cloud-Anbieter sehr ähnlich, aber die Differenzierung wird mit der Zeit kommen.
3. Basis-Modelle
Anstatt ein Foundation Model von Grund auf zu entwickeln, werden die meisten Unternehmen ein bestehendes FM wählen, das ihren Bedürfnissen entspricht. Es gibt sowohl Open-Source-Optionen wie Falcon und Llama 2 als auch kommerzielle, quelloffene Modelle, die als APIs verfügbar sind, wie OpenAI, A121labs und ANTROP\C.
Bei der Auswahl von FMs spielen mehrere Faktoren eine Rolle, z.B. die Anzahl der einstellbaren Parameter, die Größe des Kontextfensters, die Ausgabequalität, die Inferenzgeschwindigkeit, die Kosten, die Feinabstimmung, die Sicherheits- und Datenschutzanforderungen und die Lizenzerlaubnis. Auf FMs kann über APIs der Modellanbieter zugegriffen werden, oder Sie können das Modell herunterladen und es in Ihrer eigenen Infrastruktur (in der Cloud oder vor Ort) selbst hosten.
4. Feinabgestimmte Modelle
Wenn die Genauigkeit von FMs nicht ausreicht, sollten Sie eine Feinabstimmung oder Anpassung eines bestehenden FMs in Betracht ziehen. Bei der Feinabstimmung werden die Parameter eines bestehenden Modells angepasst, indem es auf Ihrem Unternehmensdatensatz trainiert wird, um „Fachwissen“ für Ihren speziellen Anwendungsfall oder Bereich aufzubauen.
5. MLOps (oder LLMOps)
Machine Learning Operations (MLOps) gab es schon immer in der traditionellen Machine Learning Welt. MLOps mit generativer KI, auch LLMOps genannt, sind komplexer, vor allem aufgrund des großen Umfangs und der Größe der beteiligten Modelle. LLMOps umfassen Aktivitäten wie die Auswahl eines Basismodells, die Anpassung dieses FM für Ihren Anwendungsfall, die Modellbewertung, die Bereitstellung und die Überwachung.
Die Anpassung eines Basismodells erfolgt hauptsächlich durch promptes Engineering oder Feinabstimmung. Die Feinabstimmung bringt die zusätzliche Komplexität der Datenbeschriftung, des Modelltrainings und der Bereitstellung des Modells in der Produktion mit sich.
Im Bereich der LLMOps sind mehrere Tools aufgetaucht. Es gibt Einzellösungen für Experimente, Bereitstellung, Überwachung, Beobachtbarkeit, Sofortengineering, Governance usw. sowie Tools, die LLMOps von Anfang bis Ende anbieten.
6. Datenplattformen und -management
Daten sind das Lebenselixier von Gen AI. Je besser die Daten sind, die zur Bereitstellung von Kontext oder zum Training und zur Feinabstimmung von Foundation Models verwendet werden, desto besser sind die Ergebnisse. Etwa 80 % der Zeit, die für die Entwicklung von Gen AI aufgewendet wird, dient dazu, die Daten in den richtigen Zustand zu versetzen: Dateneingabe, Automatisierung von Datenpipelines, Bereinigung, Datenqualität, Vektorisierung und Speicherung.
Viele Unternehmen verfügen bereits über eine Datenstrategie für strukturierte Daten, aber die generative KI kann noch einen Schritt weiter gehen und den Wert unstrukturierter Daten freisetzen. Sie brauchen eine Strategie für unstrukturierte Daten, um sie mit Ihrer Strategie für generative KI in Einklang zu bringen.
7. Anwendungserfahrung
An der Spitze des Stacks stehen Anwendungen, die Gen AI-Modelle in eine großartige Benutzererfahrung integrieren. Diese Anwendungen können ein oder mehrere LLMs oder eine Kombination von Modellen verwenden, die zusammenarbeiten, um verschiedene Probleme zu lösen und ein ganzheitliches Erlebnis zu bieten.
Einige bemerkenswerte Beispiele sind Midjourney, ein KI-Bildgenerator, und GitHub Copilot, ein KI-Paarprogrammierer. GitHub Copilot ist eine in der Cloud gehostete Anwendung, die auf einer modifizierten Version des GPT-3 FM basiert. Außerdem wurde das Modell auf Milliarden von Zeilen von Open-Source-Code-Repositories wie GitHub abgestimmt.
Was dies für Unternehmen bedeutet
Wer sich frühzeitig für generative KI entscheidet, kann sich einen erheblichen Wettbewerbsvorteil verschaffen. Wir empfehlen Ihnen, einen geschäftsorientierten Ansatz zu verfolgen und hochwertige, strategische Anwendungsfälle zu priorisieren. Sie können Anwendungsfälle für abteilungsinterne Produktivitätsverbesserungen identifizieren oder Ihre Produkte verbessern, um sich einen Wettbewerbsvorteil zu verschaffen, indem Sie die Generative KI als Funktionen in bestehende Produkte einbauen.
Viele unserer Kunden beginnen mit Anwendungsfällen, die nicht zum Kerngeschäft gehören (z.B. IT-Support-Chatbot), als Experiment, um das Vertrauen zu stärken. Orion kann Ihnen helfen, Anwendungsfälle zu identifizieren und zu priorisieren und schnell ein Proof of Concept zu erstellen, um den Wert von Gen AI in Ihrem Unternehmen zu demonstrieren.
Orion arbeitet seit 30 Jahren mit Unternehmen zusammen, um digitale Innovationen zu inspirieren und zu beschleunigen. Erfahren Sie hier mehr über unsere Erfahrungen im Bereich Generative KI.