Neue Technologien im Blick

Aktuelle Fragen zu KI und neuen Technologien

Gartner-Experten geben schnelle Antworten auf kürzlich gestellte Kundenfragen zu neuen Technologien.

Juni 2025

Was ist allgemeine künstliche Intelligenz (Artificial General Intelligence, AGI) und wie unterscheidet sie sich von schwacher KI?

Gartner definiert allgemeine künstliche Intelligenz (Artificial General Intelligence, AGI) als die (derzeit hypothetische) Fähigkeit einer Maschine, die Fähigkeiten des Menschen bei allen kognitiven Aufgaben zu erreichen oder zu übertreffen. Darüber hinaus wird AGI in der Lage sein, autonom zu lernen und sich anzupassen, um vorgegebene oder neuartige Ziele in einem breiten Spektrum von physischen und virtuellen Umgebungen zu verfolgen.

Schwache KI ist darauf ausgelegt, bestimmte Aufgaben (wie Bilderkennung, Sprachübersetzung oder Schachspielen) auszuführen oder bestimmte Probleme zu lösen. Schwache KI-Systeme basieren auf überwachtem Lernen und sind auf die Daten beschränkt, mit denen sie trainiert wurden. Sie können nicht über ihre spezifische Programmierung und ihr Training hinaus lernen oder sich anpassen, was sie in ungewohnten Situationen weniger flexibel macht.

AGI ist derzeit theoretisch – kein existierendes System verfügt über AGI-Fähigkeiten. Während das Streben nach AGI oft mit ehrgeizigen Zielen in der KI-Forschung und -Entwicklung verbunden ist, wirft die Technologie erhebliche ethische, gesellschaftliche und regulatorische Fragen auf. Gartner vertritt den Standpunkt, dass AGI in den nächsten zehn Jahren noch nicht Realität sein wird. Es wird jedoch Fortschritte in Richtung AGI geben – und jeder Schritt auf dem Weg dorthin kann in neue Arten von Geschäftswert umgewandelt werden. 

AGI sollte menschliche Intelligenz nicht nachahmen. Sie sollte jedoch zu neuen Arten von Werten führen. AGI sollte auch nicht zu einer einzigen Superintelligenz werden, da die Technologie den Menschen bei seinen Bemühungen stets unterstützen sollte. Sollte AGI Realität werden, wird sie unserer Meinung nach am besten durch die Verbindung unzähliger schwacher KI-Agenten ermöglicht, um eine synergetische Art von KI zu schaffen.

Erfahren Sie, wie Gartner Ihnen helfen kann

Füllen Sie das Formular aus, um sich mit Gartner in Verbindung zu setzen und zu erfahren, wie wir neue Technologien – wie z. B. KI – untersuchen und Tools für deren Auswahl, Kauf und Einsatz anbieten.

Indem Sie auf die Schaltfläche "Fortfahren" klicken, erklären Sie sich mit den Nutzungsbedingungen und der Datenschutzerklärung von Gartner einverstanden.

Wie ausgereift ist die agentenbasierte KI (Agentic AI) und wie sieht die Roadmap für ihre Einführung aus?

Von Danielle Casey

Bislang haben nur 6 % der I&O-Organisationen (Infrastructure and Operations) den höchsten Reifegrad erreicht, der für die erfolgreiche Einführung von agentenbasierter KI erforderlich ist. In den meisten Unternehmen ist die agentenbasierte KI auf isolierte Implementierungen beschränkt, die zwar einige Vorteile bieten, aber nicht transformativ sind. 

Die Roadmap für die Einführung von agentenbasierter KI erfordert einen strukturierten, mehrgleisigen Ansatz:

  • Beurteilung und Bereitschaft: Beurteilen Sie zunächst Ihren aktuellen Stand und identifizieren Sie Lücken in Ihrer Infrastruktur und Ihren Betriebsmodellen, die die Einführung von agentenbasierter KI behindern könnten. Dazu gehört die Bewertung der Datenqualität, der Governance und der vorhandenen technologischen Fähigkeiten.

  • Strategische Vision: Schaffen Sie eine Vision für die Einführung von agentenbasierter KI, in der Sie die Hindernisse bei der Entscheidungsfindung aufzeigen und untersuchen, wie diese durch agentenbasierte KI beseitigt werden könnten. Diese Vision sollte mit dem gesamten IT-Betriebsmodell des Unternehmens übereinstimmen.

  • Investitionen in die Infrastruktur: Künftige Investitionen sollten sich darauf konzentrieren, dass neue Infrastrukturen mit agentenbasierter KI kompatibel sind. Dazu gehört die Einführung intelligenter Infrastrukturen und Plattformen, die die autonomen Fähigkeiten von KI-Agenten unterstützen können.

  • Governance und Management: Erstellen Sie ein Governance-Framework mit einem Center of Excellence (CoE), das mit IT-Experten, Business-Technologen und Führungskräften besetzt ist, um die Implementierung und Skalierung von KI-Initiativen zu überwachen. 

  • Kontinuierliche Verbesserung: Überprüfen Sie regelmäßig Ihre KI-Ausgereiftheit und passen Sie Ihre Strategien an die sich weiterentwickelnden Technologien und Marktanforderungen an. Dazu gehört auch die jährliche Aktualisierung der KI-Reifegradbewertung.

  • Implementierung und Iteration: Nachdem Sie die Finanzierung gesichert und einen klaren Implementierungsplan entwickelt haben, führen Sie die Strategien iterativ aus.

Welche Investitionen in die GPU-Infrastruktur sollte ich für die Skalierung der KI-Einführung in den nächsten drei Jahren einplanen?

Erwägen Sie eine umfassende Investitionsstrategie mit fünf Schlüsselkomponenten:

1. Infrastrukturplanung: Investieren Sie in KI-optimierte IaaS (Infrastructure-as-a-Service), für die in den nächsten drei Jahren ein erhebliches Wachstum prognostiziert wird. Diese Infrastruktur sollte so konzipiert sein, dass sie KI-Workloads effizient unterstützt und dabei die Skalierbarkeit der Cloud sowie Preismodelle nach dem Pay-as-you-go-Prinzip nutzt. Implementieren Sie KI-Supercomputing-Architekturen, die KI-Beschleuniger, optimierten Speicher und Hochgeschwindigkeitsnetzwerke integrieren. Diese Architektur ist entscheidend für die extreme Parallelität, die für das Training generativer KI-Modelle erforderlich ist.

2. Erwerb und Verwaltung von GPUs: Nutzen Sie Funktionen wie Dynamic Workload Scheduling und GPU Sharing, um die Nutzung von GPU-Ressourcen zu maximieren. Dies ist besonders wichtig, da das Angebot an GPUs immer knapper wird und die Nachfrage nach Inferenz-Workloads steigt. Reduzieren Sie auch die Umstellungskosten von herkömmlichen GPUs auf cloudoptimierte KI-Prozessoren, indem Sie in offene Standards und Ökosysteme investieren.

3. Netzwerk- und Speicherverbesserungen: Bauen Sie dedizierte Netzwerke für KI-Workloads aus, die niedrige Latenzzeiten und verlustfreie Netzwerkfunktionen gewährleisten. Dazu gehört die Verwendung von InfiniBand oder Hochgeschwindigkeits-Ethernet zur effektiven Verbindung von GPUs. Implementieren Sie Speicherlösungen, die einen hohen Durchsatz und geringe Latenzzeiten unterstützen, wie z. B. parallele Dateisysteme und Objektspeicher. Diese Systeme sollten in der Lage sein, die großen Datensätze zu verarbeiten, die für das KI-Training und die Inferenz erforderlich sind.

4. Kostenmanagement und Effizienz: Integrieren Sie Überwachungstools, um die GPU-Nutzung und den Stromverbrauch zu verfolgen, was eine bessere Verwaltung der IT-Betriebskosten sowie Effizienzsteigerungen ermöglicht. Da KI-Workloads den Energieverbrauch erheblich steigern können, sollten Sie in fortschrittliche Kühltechnologien (wie Immersionskühlung) investieren, um die hohe Leistungsdichte der KI-Computing-Infrastruktur zu bewältigen.

5. Training und Entwicklung von Fähigkeiten: Entwickeln Sie Trainingsprogramme für I&O-Teams (Infrastructure and Operations), um deren Fähigkeiten bei der Verwaltung der KI-Infrastruktur zu verbessern, einschließlich Prompt-Engineering und KI-Rechenzentrumsdesign.

Was ist bei der Einrichtung eines „AI Center of Excellence“ (CoE) zu beachten?

Die Einrichtung eines AI Center of Excellence (CoE) ist eine strategische Initiative, die die Fähigkeit eines Unternehmens zur effektiven Nutzung von KI-Technologien erheblich verbessern kann. Zu den wichtigen Schritten und Überlegungen gehören:

  • Etablierung von Unterstützung aus der Führungsebene: Suchen Sie einen Sponsor aus der Führungsebene, der sich aktiv an den Projekten des CoE beteiligt und bei der Bewältigung der organisatorischen Herausforderungen hilft, und stellen Sie sicher, dass der Sponsor den anderen Führungskräften den Wert des CoE vermittelt.

  • Definition der Zielsetzungen und des Umfangs des CoE: Erstellen Sie gemeinsam eine detaillierte Charta, die Ziele, Grundsätze, Rollen, Metriken und Kommunikationsverfahren enthält und das CoE an den Prioritäten des Unternehmens ausrichtet. Legen Sie Erfolgsmetriken fest, die spezifisch, messbar und für die Führung relevant sind.

  • Zusammenstellung eines vielfältigen Teams: Stellen Sie sicher, dass eine generalistische Denkweise vorherrscht und der Fokus nicht nur auf der Technologie liegt. Beziehen Sie Mitarbeiter mit einer Mischung aus technischen und sozialen Fähigkeiten ein, wie z. B. KI-Architekten, Datenwissenschaftler und Change-Management-Spezialisten, um die vorgesehenen Aktivitäten effektiv zu verwalten. Erwägen Sie den Einsatz von Beratern für erste Projekte, um Skill-Gaps zu schließen und den Wissenstransfer zu erleichtern.

  • Auswahl aussagekräftiger Metriken: Sie sollten Eingaben, Prozesse und Ausgaben abdecken, um eine umfassende Bewertung der Effektivität zu ermöglichen, die Unternehmensbedürfnisse widerzuspiegeln und die technologiegesteuerten Metriken mit den Geschäftsergebnissen zu verknüpfen.

  • Bestimmung der richtigen Organisationsstruktur: Wählen Sie ein Modell, das sich mit der Reifung des Unternehmens weiterentwickeln kann. Gängige Modelle sind zentralisierte, dezentralisierte und föderierte Strukturen.

  • Förderung einer Kultur der kontinuierlichen Verbesserung: Implementieren Sie Schulungs- und Entwicklungsprogramme, um die Fähigkeiten des CoE-Personals zu verbessern. Erstellen Sie Anerkennungsprogramme, um Erfolge zu feiern und das Engagement zu fördern.

  • Nutzung vorhandener Ressourcen und Tools: Führen Sie eine gründliche Beurteilung der bestehenden IT-Landschaft durch, um Tools zu identifizieren, die für KI-Initiativen genutzt werden können. Schließen Sie Partnerschaften mit Technologieanbietern, um die Fähigkeiten des CoE zu verbessern.

  • Erstellung von Wissensplattformen (Innovation-as-a-Service): Hub-Playbooks, technische Leitfäden, Basiswissen und wichtige Anwendungsfälle für den unternehmensweiten Zugriff.

  • Überwachung und Bewertung der Effektivität: Führen Sie Umfragen durch, um Erkenntnisse über die Wirkung des CoE und verbesserungswürdige Bereiche zu gewinnen. Konzentrieren Sie sich auf Maßnahmen, die über Produktivitäts- und Effizienzsteigerungen hinausgehen oder aus diesen resultieren. Melden Sie Metriken und Erfolgsgeschichten an leitende Führungskräfte, um die kontinuierliche Unterstützung für das CoE sicherzustellen.

Kann ich darauf vertrauen, dass KI-gesteuerte Roboter wesentliche Funktionen sicher ausführen?

Das Misstrauen gegenüber der KI ist groß, weil es einen „Blackbox“-Effekt gibt – wir sehen Ergebnisse, können aber nicht verstehen, wie sie zustande gekommen sind. Der Mangel an AI TRiSM (AI Trust, Risk and Security) wird noch dadurch verschärft, dass die zugrunde liegenden Daten, die KI-Modelle zur Erstellung ihrer Ergebnisse verwendet haben, nicht transparent sind. KI-gesteuerte Roboter brauchen letztlich Menschen, die die Verantwortung dafür übernehmen, dass sie ihre Aufgaben auf sichere, faire und gesellschaftlich nützliche Weise erfüllen.

Gartner empfiehlt bei der Evaluierung von KI-gesteuerten Robotern oder anderen KI-Anwendungsfällen Folgendes:

  • Zusammenarbeit mit den relevanten Stakeholdern – Führungskräfte im Bereich Unternehmensarchitektur, IT, HR, Recht und Datenanalyse – zur Nutzung des Potenzials von verbesserten ethischen KI-Governance-Plattformen. Operationalisieren Sie die wichtigsten ethischen Grundprinzipien und deren Einbettung in die breitere KI-Strategie

  • Bewältigung ethischer Dilemmata im Zusammenhang mit dem Einsatz und der Entwicklung von KI-Systemen durch die Aufnahme eines KI-Ethikers in das zentrale KI-Team und/oder die Bildung eines Beirats für digitale Ethik zur Validierung ansonsten zweideutiger KI-Ergebnisse und zur Verbesserung ihrer kontextbezogenen Genauigkeit.

  • Kontinuierliche Überwachung des Verhaltens von KI-Systemen durch die Implementierung eines robusten KI-Testprogramms, das mit grundlegenden ethischen Prinzipien in Einklang steht, um potenzielle negative Folgen, wie z. B. rechtliche Rückwirkungen, zu vermeiden.

Wie machen Cloud-Ausfälle den Bedarf an neuen Technologien zur Verbesserung der Resilienz deutlich?

Von Nathan Hill

Der Google-Cloud-Ausfall im Juni 2025 macht deutlich, dass selbst die modernsten Cloud-Anbieter nicht vor Störungen geschützt sind. Die Zusammenarbeit mit einem Cloud-Anbieter ersetzt nicht die sorgfältige Geschäftskontinuitätsplanung und Notfallwiederherstellung (Business Continuity Planning / Disaster Recovery, BCP / DR), ebenso wenig wie die gründliche Prüfung der Resilienz und Architektur des gewählten Partners. Innovative Technologien wie optimiertes Multicloud-Networking, cloud-native Überwachung und autonome Fehlerbehebung helfen Unternehmen heute dabei, ihre Abhängigkeit von einzelnen Anbietern zu verringern und schneller auf Vorfälle zu reagieren. Mit der zunehmenden Nutzung von Cloud-Diensten sollten IT-Leiter:innen und CIOs Resilienz als strategisches Ziel fest im Blick behalten und gezielt Technologien auswählen, die Verfügbarkeit, Transparenz und Fehlerisolation in komplexen Hybrid-Cloud-Umgebungen stärken.

Erfahren Sie mehr in unserem Webinar: Leitfaden für CIOs und Leiter für I&O: Zwischen Single-Cloud- und Multicloud-Strategien wählen

April 2025

Was ist Manus AI? Kann sie für geschäftliche Anwendungen genutzt werden?

Von Daniel Sun 

Manus AI, entwickelt vom chinesischen Start-up Monica.im und am 6. März 2025 auf den Markt gebracht, ist ein universeller LLM-Assistent (Large Language Model) mit dem Potenzial, sich zu einem universellen KI-Agenten weiterzuentwickeln. Dies ist eine Weiterführung der KI-Technologie, die sich auf die Verbesserung der Zusammenarbeit zwischen Mensch und Maschine und die Automatisierung von KI-Anwendungen konzentriert. 

Das Wichtigste, was CIOs über Manus AI wissen sollten

  • Fähigkeiten: Manus AI bietet eine breite Palette von Funktionen, darunter Aufgabenautomatisierung, Datenverarbeitung, Analyse und Entscheidungsfindung sowie Inhaltserstellung. Manus AI kann auch aus Interaktionen lernen und seine Handlungen entsprechend anpassen – zum Beispiel durch die selbstgesteuerte Durchführung von Aufgaben oder die Anpassung von Plänen an einen neuen Kontext.

  • Technologie: Manus AI nutzt bestehende LLMs, darunter Claude von Anthropic und Qwen von Alibaba, und verwendet eine Multiagent-Architektur. Dadurch kann es verschiedene Tools und Open-Source-Software nutzen und seine Fähigkeiten bei der Ausführung von Aufgaben und der Interaktion mit APIs verbessern.

  • Benutzeroberfläche: Über einen Chatbot mit vereinfachter Benutzererfahrung können Benutzer mit der KI interagieren, während diese im Hintergrund Aufgaben erledigt.

  • Anwendungen: Zu den potenziellen Anwendungsfällen von Manus AI für Unternehmen gehören die Rationalisierung komplexer Prozesse, die Verbesserung der Kundenbindung durch automatisierte Antworten und die Unterstützung bei Aufgaben wie Finanzanalysen.

  • Herausforderungen: Die betriebliche Stabilität kann ein Problem darstellen, da Manus AI auf Systeme und APIs von Drittanbietern angewiesen ist, die in Unternehmensumgebungen Risiken bergen können. Außerdem gibt es ethische und rechtliche Bedenken. Dazu gehören Fragen der Verantwortlichkeit und Haftung, wenn KI kritische Entscheidungen trifft und Unklarheit über ihre Datenquellen und Betriebsmechanismen besteht. Der Preis ist nicht klar definiert.

Was sind kleine Sprachmodelle (Small Language Models, SLMs)? Und wie schneiden SLMs im Vergleich zu großen Sprachmodellen (Large Language Models, LLMs) ab?

Von George Brocklehurst 

Kleine Sprachmodelle (Small Language Models, SLMs) sind eine Kategorie von Sprachmodellen, die als effizientere und kostengünstigere Alternativen zu großen Sprachmodellen (Large Language Models, LLMs) konzipiert sind. 

SLMs sind in der Größenordnung von 10 Milliarden Parametern angesiedelt. Ihre Stärke kommt zum Tragen, wenn sie auf bestimmte Aufgaben und Bereiche zugeschnitten sind. Aufgrund ihrer geringeren Größe lassen sie sich leichter feinabstimmen und einsetzen als ihre LLM-Gegenstücke.

Ausgewählte Vorteile von SLMs

  • Kosteneffizienz: SLMs lassen sich relativ kostengünstig feinabstimmen und warten, sodass sie auch für Unternehmen mit eingeschränktem Budget geeignet sind.

  • Effizienz: Sie benötigen deutlich weniger Rechenressourcen, was den Einsatz auf Geräten, vor Ort oder in privaten Cloud-Umgebungen ermöglicht sowie den Datenschutz und die Sicherheit erhöht.

  • Aufgabenspezialisierung: Bei entsprechender Ausrichtung auf einen bestimmten Anwendungsfall und Feinabstimmung für diese Implementierung können sie größere Modelle übertrumpfen. Dies macht sie besonders nützlich in Szenarien, in denen größere Sprachfähigkeiten nicht erforderlich sind.

Anwendungsfälle für kleine Sprachmodelle

  • SLMs sind ideal für Anwendungen, die ein hohes Maß an Benutzerinteraktionen, niedrige Latenzzeiten und Szenarien mit sensiblen Daten erfordern. Sie können effektiv in Dokumenten-Chatbots, Kundenserviceanwendungen und Sprachmodellen für Unternehmen eingesetzt werden.

  • Sie lassen sich auch in Multimodellsysteme integrieren, in denen mehrere aufgabenspezialisierte Modelle zusammenarbeiten, um komplexe KI-Herausforderungen zu bewältigen.

SLMs vs. LLMs

SLMs können zwar nicht mit den allgemeinen Fähigkeiten von LLMs in Bezug auf Sprachverständnis und -generierung mithalten, funktionieren aber in spezifischen Anwendungen, in denen ihre geringere Größe und ihr geringerer Ressourcenbedarf einen erheblichen Vorteil darstellen, hervorragend. 

SLMs stellen einen praktischen und effizienten Ansatz zur Implementierung generativer KI-Lösungen dar, insbesondere für Unternehmen, die spezielle Fähigkeiten ohne den zusätzlichen Aufwand für größere Modelle benötigen. Aus diesem Grund wird erwartet, dass der Einsatz von SLM zunehmen wird. Gartner geht davon aus, dass bis 2026 mehr GenAI-Anfragen und -Anforderungen auf Geräten als in der Cloud verarbeitet werden, was intelligente Assistenten und andere proaktive Anwendungen ermöglicht.

Wie verändert KI die Landschaft für Edge-Geräte?

Von Christian Stephan 

Moderne Edge-Geräte sind zunehmend in der Lage, komplexe Algorithmen auszuführen. Gleichzeitig wird die KI umgestaltet und an die Fähigkeiten dieser Geräte angepasst, was intelligentere, effizientere und autonomere Anwendungen ermöglicht. Mit der Weiterentwicklung von KI-Modellen werden wir erhebliche Effizienzsteigerungen bei der gerätebasierten Inferenz mit begrenzter Rechenkapazität erleben und können eine noch stärkere Integration erwarten, die Innovationen in verschiedenen Sektoren vorantreibt.

Die wichtigsten Auswirkungen von KI auf Edge-Geräte

  • Echtzeit-Verarbeitung: Mithilfe von KI können Edge-Geräte Daten in Echtzeit verarbeiten und Analysen lokal durchführen, wodurch die Latenzzeiten und Bandbreitennutzung reduziert werden und die Abhängigkeit von der Netzwerkinfrastruktur wegfällt. Dies ist entscheidend für Anwendungen, die eine sofortige Entscheidungsfindung und robuste Prozesse erfordern, wie z. B. autonome Fahrzeuge und industrielle Automatisierung.

  • Datenschutz und Sicherheit: Durch die lokale Verarbeitung von Daten trägt KI dazu bei, Datenschutzbedenken auszuräumen, da sensible Informationen nicht in die Cloud übertragen werden müssen. Stattdessen werden sie während der Laufzeit verarbeitet, ohne dass Rohdaten gespeichert werden. Dies ist besonders wichtig für die Verarbeitung personenbezogener Daten, wie z. B. biometrische Daten, oder in anderen stark regulierten Branchen, in denen die Datenhoheit eine Rolle spielt.

  • Integration in IoT: Edge-Geräte werden zunehmend in IoT-Netze (Internet of Things) integriert, was einen intelligenteren, autonomeren Betrieb ermöglicht. Durch die Integration von KI in den Edge-Bereich können Geräte von ihrer Umgebung lernen und ihre Leistung im Laufe der Zeit verbessern, was zu einem effizienteren Betrieb und einem besseren Nutzererlebnis führt.

  • Einsatz fortgeschrittener Techniken: Techniken wie TinyML, Transferlernen und föderiertes Lernen werden eingesetzt, um das Modelltraining für Edge-Geräte zu optimieren. Dank dieser Fortschritte können Edge-Geräte Machine-Learning-Aufgaben durchführen, ohne dass umfangreiche Rechenressourcen benötigt werden.

  • Kosteneffizienz: Durch die Verringerung des Bedarfs an Datenübertragungen an zentrale Systeme kann KI am Edge des Netzwerks die Betriebskosten langfristig senken, während die Investitionsausgaben zunächst steigen. Dies ist besonders vorteilhaft für Anwendungen, die große Datenmengen verarbeiten, aber nur eine föderierte oder aggregierte Zusammenfassung übertragen müssen. Dies minimiert die Bandbreitenanforderungen und die damit verbundenen Kosten im Vergleich zur Verarbeitung aller Daten in der Cloud.

  • Skalierbarkeit und Flexibilität: KI verbessert die Skalierbarkeit von Edge-Lösungen, indem sie eine verteilte Verarbeitung und Entscheidungsfindung ermöglicht. Neue Nodes am Edge können eingesetzt werden, ohne dass der Bedarf an einer Skalierung der zentralen IT-Strukturen wesentlich steigt. Diese Flexibilität ist entscheidend für die Anpassung an verschiedene Anwendungsfälle in unterschiedlichen Branchen, von intelligenten Städten bis hin zum Gesundheitswesen.

  • Energieeffizienz: Die Verarbeitung von Daten direkt auf dem Edge-Gerät reduziert den Energieverbrauch der gesamten Netzinfrastruktur erheblich, indem unnötiger Traffic minimiert wird oder zusätzliche Verarbeitungsschritte wie Schutzalgorithmen für sensible Rohdaten entfallen.

  • Flexible Infrastruktur: KI-gestützte Edge-Geräte können Teil größerer zusammengesetzter Strukturen sein, um über Cloud-to-Edge- und Edge-to-Cloud-Integrationen erweiterte Funktionen bereitzustellen. Dies ermöglicht die Synchronisierung mit größeren Orchestrierungen unter Beibehaltung der lokalen Ausführung.

Wie unterscheiden sich domänenspezifische KI-Modelle von allgemeinen LLMs für Unternehmen?

Von Tsuneo Fujiwara 

Domänenspezifische KI-Modelle (Domain-Specific AI Models, DSAMs) und allgemeine große Sprachmodelle (Large Language Models, LLMs) dienen unterschiedlichen Zwecken und haben verschiedene Eigenschaften, die sie für verschiedene Unternehmensanwendungen geeignet machen. Während LLMs so konzipiert sind, dass sie domänenunabhängig für alle Aufgabenklassen, Anliegen und Probleme eingesetzt werden können, sind DSAMs auf die Lösung von Problemen in einer bestimmten Branche, Geschäftsfunktion oder Problemklasse (Ressourcenoptimierung) ausgerichtet. Daher sind die angewandten Trainingsmethoden und die Vorteile, die sie mit sich bringen, unterschiedlich.

Hauptunterschiede zwischen domänenspezifischen KI-Modellen und allgemeinen LLMs

Zweck und Spezialisierung

  • DSAMs: Sind für bestimmte Branchen, Geschäftsfunktionen oder Aufgaben maßgeschneidert und für das Verständnis und die Generierung von Inhalten optimiert, die für bestimmte Domänen relevant sind, wie z. B. das Gesundheitswesen, das Finanzwesen oder den juristischen Bereich. Dies ermöglicht eine größere Genauigkeit, Zuverlässigkeit und ein kontextbezogenes Verständnis.

  • Allgemeine LLMs: Sind für die Bewältigung eines breiten Spektrums von Aufgaben in verschiedenen Domänen konzipiert und zeichnen sich durch das Verständnis und die Generierung allgemeiner Sprache aus.

Trainingsdaten

  • DSAMs: Werden oft auf Datensätze abgestimmt, die spezifisch für ihre Zieldomäne sind, was ihnen hilft, die Nuancen und Terminologien zu lernen, die für diesen Bereich relevant sind. Dies verringert den Bedarf an umfangreichem Prompt-Engineering und verbessert die Leistung des Modells bei bestimmten Aufgaben.

  • Allgemeine LLMs: Werden auf großen Mengen unbeschrifteter Textdaten aus verschiedenen Quellen trainiert, was ihnen ein breites Spektrum an Fähigkeiten verleiht.

Kosten- und Ressourceneffizienz

  • DSAMs: Sind für Unternehmen in der Regel kostengünstiger, da sie weniger Rechenleistung und Daten für die Feinabstimmung benötigen als allgemeine LLMs. So sind sie einfacher zu implementieren und zu warten, insbesondere in Umgebungen mit begrenzten Ressourcen.

  • Allgemeine LLMs: Können ressourcenintensiv in der Bereitstellung und Feinabstimmung sein und erfordern mehr Parameter, Energie und Ausgaben, um das gleiche Leistungsniveau wie DSAMs zu erreichen. 

Anwendungsfälle

  • DSAMs: Ideal für Anwendungen, die tiefgreifende Kenntnisse in einem bestimmten Bereich erfordern, wie z. B. medizinische Diagnosen, die Analyse juristischer Dokumente oder Finanzprognosen. Sie können für diese speziellen Aufgaben relevantere und genauere Ergebnisse liefern.

  • Allgemeine LLMs: Geeignet für ein breites Spektrum allgemeiner Aufgaben, wie z. B. Inhaltserstellung, Zusammenfassung und Informationsbeschaffung für Dialogagenten.

Was ist Model Context Protocol (MCP) und wie ermöglicht es KI-Agenten?

Von Gary Olliffe 

Wenn Unternehmen versuchen, KI-Agenten zu implementieren, die komplexere Aufgaben in Workflows und Prozessen übernehmen, müssen diese Agenten auf eine Vielzahl von Daten, Informationen und funktionalen Ressourcen zugreifen. Das Model Context Protocol (MCP) ist eine offene Standardschnittstelle, die eine konsistente und flexible Methode zur Verbindung von KI-Anwendungen und -Agenten mit diesen Ressourcen definiert. 

MCP definiert, wie KI-Anwendungen modell- und anwendungsunabhängig auf andere Ressourcen – wie Informationsspeicher, APIs und andere Anwendungen – zugreifen und mit ihnen interagieren. Da sich KI-Agenten von isolierten Assistenten zu kollaborativen Systemen entwickeln, wird zunehmend auf sie zurückgegriffen, um Abläufe zu automatisieren, die Produktivität zu steigern und End-to-End-Geschäftsprozesse zu unterstützen, die eine flexible Integration erfordern.

Ohne MCP wird jedes KI-Anwendungsframework bzw. jede KI-Plattform ihren eigenen, proprietären Ansatz für die Anbindung externer Ressourcen mit KI definieren. Mit MCP sind Unternehmen in der Lage, Ressourcen für eine Vielzahl von KI-Anwendungsfällen auf konsistente und überschaubare Weise gemeinsam zu nutzen, wodurch Duplikation vermieden wird und Entwickler und Nutzer ihre KI-Anwendungen mit den für eine Aufgabe oder einen Anwendungsfall am besten geeigneten Ressourcen verbinden können. 

In der Softwareentwicklung werden Agenten beispielsweise Aufgaben wie Code-Modernisierung, Testautomatisierung und Problemlösung unterstützen. Dabei muss sichergestellt werden, dass jeder Agent in allen Phasen über die richtigen Tools und den richtigen Kontext verfügt, um effizient und genau zu arbeiten. MCP bietet einen Standardmechanismus zur Integration dieser Fähigkeiten in Standard- oder individuell entwickelte KI-Anwendungen.

Da KI-Agenten immer autonomer werden und immer mehr voneinander abhängen, sollten IT-Führungskräfte prüfen, ob ihre KI-Architekturen für die Unterstützung einer flexiblen Integration in gemeinsam nutzbaren Kontext ausgelegt sind. MCP befindet sich noch in den Anfangsphasen seines Lebenszyklus und wird schnell reifen müssen, um den Anforderungen der Unternehmen gerecht zu werden. Die schnell wachsende Beliebtheit von MCP unterstreicht jedoch den Bedarf an einer Standardschnittstelle für LLM-basierte KI-Anwendungen und -Agenten, die eine Verbindung zu externem Kontext herstellen können.

Steigern Sie Ihre Leistung bei den unternehmenskritischen Prioritäten.

TOP