Direkt zum Hauptinhalt

Arten von KI-Agenten: Definitionen, Rollen und Beispiele

Types of AI Agents: Definitions, Roles, and Examples

Published: January 19, 2026

Grundlagen für Data + AI14 min read

Summary

  • KI-Agenten bewegen sich von der Vorhersage zur Ausführung und ergreifen reale Maßnahmen unter Verwendung von reflexbasierten, modellbasierten, zielbasierten, nutzenbasierten und lernenden Ansätzen, die Vorhersagbarkeit gegen Anpassungsfähigkeit eintauschen.
  • Der richtige Agent hängt von der Task ab: Einfache Agenten eignen sich für stabile, sich wiederholende Arbeiten, während dynamische Umgebungen Planung oder Lernen erfordern können, aber zusätzliche Autonomie erhöht oft das Risiko und die Komplexität.
  • Die erfolgreichsten Produktionsagenten sind Hybride, die Reflexe für die Sicherheit, Planung für die Flexibilität und begrenztes Lernen für die Anpassung kombinieren, geleitet von Governance, klaren Kompromissen und schrittweiser Skalierung.

KI-Agenten entwickeln sich von einer Neuheit zur Notwendigkeit. Was als einfache Automatisierung und chatbasierte Assistenten begann, entwickelt sich zu Systemen, die ihre Umgebung beobachten, über den nächsten Schritt entscheiden und in realen Arbeitsabläufen handeln. Diese Agenten führen Jobs aus, rufen Tools auf, aktualisieren Systeme und beeinflussen Entscheidungen, die einst menschliches Urteilsvermögen erforderten.

Wenn KI-Systeme handeln, steht mehr auf dem Spiel. Fehler können sich auf nachgelagerte Systeme auswirken und zu Ergebnissen führen, die schwer nachzuvollziehen oder rückgängig zu machen sind. Dieser Wandel macht agentische KI zu einer Herausforderung für das Systemdesign, die von Teams verlangt, früher über Autonomie, Kontrolle, Zuverlässigkeit und Governance nachzudenken.

Gleichzeitig ist die Sprache rund um KI-Agenten unübersichtlich geworden. Je nach Quelle gibt es vier, fünf oder sieben Arten von Agenten – was oft eher Trends als langlebige Designprinzipien widerspiegelt. Dieser Leitfaden verfolgt einen pragmatischen Ansatz. Anstatt eine weitere Taxonomie einzuführen, konzentriert er sich auf ein stabiles Framework zum Verständnis von KI-Agenten und hilft Ihnen dabei, Kompromisse abzuwägen, Overengineering zu vermeiden und den richtigen Agenten für das jeweilige Problem auszuwählen.

Warum Agententypen in der Praxis wichtig sind

Von der Vorhersage zur Ausführung

KI-Agenten sind wichtig, da KI-Systeme nicht mehr auf die Analyse oder die Erstellung von Inhalten beschränkt sind. Sie nehmen zunehmend direkt an Workflows teil. Sie entscheiden, was als Nächstes zu tun ist, rufen Tools auf, triggern nachgelagerte Prozesse aus und passen ihr Verhalten kontextbasiert an. Kurz gesagt, sie handeln.

Sobald KI-Systeme handeln, potenziert sich ihre Wirkung. Eine einzige Entscheidung kann mehrere Systeme, Datenquellen oder Benutzer beeinflussen. Fehler breiten sich schneller aus, und unbeabsichtigtes Verhalten ist schwerer rückgängig zu machen. Das ist es, was agentenbasierte KI von früheren Generationen von KI-Anwendungen unterscheidet.

Infolgedessen überdenken Teams, wo KI in ihre Architektur passt. Agenten lassen die Grenze zwischen Softwarelogik und Entscheidungsfindung verschwimmen und zwingen Unternehmen, sich mit Zuverlässigkeit, Aufsicht und Kontrolle viel früher als bisher zu befassen.

Wie Agententypen Designentscheidungen prägen

Der Wert der Klassifizierung zeigt sich in realen Designentscheidungen. Agententypen sind keine abstrakten Label; sie kodieren Annahmen darüber, wie Entscheidungen getroffen werden, wie viel Kontext beibehalten wird und wie vorhersagbar das Verhalten sein muss. Die Wahl eines Agententyps ist die Wahl einer Reihe von Kompromissen.

Ein reflexbasierter Agent priorisiert Geschwindigkeit und Determinismus. Ein lernender Agent passt sich im Laufe der Zeit an, bringt aber Unsicherheit und Betriebskosten mit sich. Ohne ein klares Framework greifen Teams oft standardmäßig auf die leistungsstärkste verfügbare Option zurück, auch wenn das Problem dies nicht erfordert.

Die Klassifizierung bietet eine gemeinsame Sprache für diese Entscheidungen. Sie hilft Teams dabei, Expectations abzugleichen, über Fehlermodi nachzudenken und Overengineering zu vermeiden. In einer schnelllebigen Landschaft voller neuer Tools und Labels ermöglicht ein stabiles mentales Modell den Anwendern, Agentensysteme bewusst statt reaktiv zu entwerfen.

Die Bausteine eines KI-Agenten

Wie Agenten wahrnehmen und handeln

Ein KI-Agent existiert in einer Umgebung und interagiert mit ihr durch Wahrnehmung und Aktion. Die Wahrnehmung umfasst Signale wie Sensordaten, Systemereignisse, Benutzereingaben oder Abfrageergebnisse. Aktionen sind die Betriebe, die der Agent durchführen kann und die beeinflussen, was als Nächstes geschieht, vom Aufruf einer API bis zum Auslösen eines nachgelagerten Prozesses.

Zwischen Wahrnehmung und Handlung liegt der Zustand. Einige Agenten stützen sich nur auf die aktuelle Eingabe, während andere einen internen Zustand beibehalten, der frühere Beobachtungen oder abgeleitete Kontexte zusammenfasst. Ein effektives Agentendesign beginnt bei der Umgebung selbst: Vollständig beobachtbare, stabile Umgebungen begünstigen einfachere Designs, während teilweise beobachtbare oder verrauschte Umgebungen oft ein Gedächtnis oder interne Modelle erfordern, um sich zuverlässig zu verhalten.

Autonomie, Ziele und Lernen

Autonomie beschreibt, wie viel Freiheit ein Agent hat, zu entscheiden, was er wann tun soll. Die Entscheidungslogik eines Agenten – die Regeln, Pläne oder gelernten Richtlinien (Policies), die Beobachtungen auf Aktionen abbilden – bestimmt, wie diese Freiheit ausgeübt wird. Einige Agenten führen vordefinierte Aktionen als Reaktion auf Eingaben aus, während andere Ziele auswählen, Aktionen planen und festlegen, wann ein Task abgeschlossen ist. Autonomie existiert auf einem Spektrum, von Low-Level-Agenten, die direkt auf Eingaben reagieren, bis hin zu High-Level-Agenten, die im Laufe der Zeit planen, optimieren oder lernen.

Ziele und Lernen erhöhen die Flexibilität, bringen aber auch Komplexität mit sich. Zielorientierte Agenten müssen Pläne anpassen, wenn sich die Bedingungen ändern. Lernende Agenten erfordern kontinuierliches Training und eine fortlaufende Evaluierung, da sich ihr Verhalten weiterentwickelt. Jeder Schritt hin zu mehr Autonomie tauscht Vorhersagbarkeit gegen Anpassungsfähigkeit ein. Klare Grenzen sind daher unerlässlich, um Agenten zu entwickeln, die in der Produktion verständlich und vertrauenswürdig bleiben.

Die fünf Kernarten von KI-Agenten

Die fünf zentralen Typen von KI-Agenten beschreiben fünf grundlegende Arten, wie Agenten entscheiden, was zu tun ist: auf Eingaben reagieren, den internen Zustand aufrechterhalten, auf Ziele hin planen, Kompromisse optimieren und aus Erfahrungen lernen. Dieses Framework hat sich bewährt, weil es das Entscheidungsverhalten anstelle spezifischer Technologien beschreibt. Indem es sich darauf konzentriert, wie ein Agent reagiert, schlussfolgert, optimiert oder sich anpasst – nicht auf die Werkzeuge, die er verwendet, oder die Rollen, die er spielt – ist es weiterhin auf moderne Systeme anwendbar, die mit großen Sprachmodellen, Orchestrierungsebenen und externen Tools erstellt werden.

1. Einfache Reflexagenten

Einfache Reflexagenten arbeiten mit direkten Bedingung-Aktion-Regeln. Wenn ein bestimmtes Eingabemuster erkannt wird, führt der Agent eine vordefinierte Reaktion aus. Es gibt kein Gedächtnis für vergangene Ereignisse, kein internes Modell der Umgebung und keine Überlegungen zu zukünftigen Konsequenzen. Diese Einfachheit macht Reflexagenten schnell, vorhersehbar und einfach zu testen und zu validieren.

Reflex-Agenten funktionieren am besten in vollständig beobachtbaren, stabilen Umgebungen, in denen sich die Bedingungen selten ändern. Sie sind nach wie vor in Monitoring-, Alarmierungs- und Kontrollsystemen verbreitet, in denen Sicherheit und Determinismus wichtiger sind als Flexibilität. Ihre Einschränkung ist die Brüchigkeit: Bei verrauschten oder unvollständigen Eingaben kann das Verhalten abrupt fehlschlagen, da dem Agenten der kontextbezogene Zustand fehlt.

2. Modellbasierte Reflexagenten

Modellbasierte Reflexagenten erweitern einfache Reflexagenten, indem sie eine interne Repräsentation der Umgebung pflegen. Dieser interne Zustand ermöglicht es dem Agenten, Rückschlüsse auf Aspekte der Welt zu ziehen, die er nicht direkt beobachten kann. Die Entscheidungen bleiben regelbasiert, aber diese Regeln operieren auf abgeleitetem Kontext anstatt nur auf rohen Eingaben.

Dieser Ansatz verbessert die Robustheit in teilweise beobachtbaren oder dynamischen Umgebungen. Viele praktische Systeme verlassen sich auf modellbasiertes Reflexverhalten, um Zuverlässigkeit und Anpassungsfähigkeit auszubalancieren, ohne die Unvorhersehbarkeit des Lernens einzuführen.

3. Zielbasierte Agenten

Zielbasierte Agenten repräsentieren gewünschte Ergebnisse und bewerten Aktionen danach, ob sie das System näher an diese Ziele bringen. Anstatt sofort zu reagieren, planen diese Agenten Aktionssequenzen und passen sie an, wenn Hindernisse auftreten. Die Planung ermöglicht Flexibilität und unterstützt komplexeres Verhalten über längere Zeiträume.

Planung bringt auch Kosten und Anfälligkeit mit sich. Ziele müssen klar definiert sein, und Pläne hängen von Annahmen darüber ab, wie sich die Umgebung verhält. In sich schnell ändernden Umgebungen erfordern Pläne oft häufige Überarbeitungen oder eine Fallback-Logik. Zielbasierte Agenten sind leistungsstark, erfordern aber eine sorgfältige Entwurfsdisziplin, um unnötige Komplexität zu vermeiden.

4. Nutzenbasierte Agenten

Nutzenbasierte Agenten verfeinern zielbasiertes Denken, indem sie Ergebnissen einen Wert zuweisen, anstatt Erfolg als binär zu betrachten. Aktionen werden auf der Grundlage des erwarteten Nutzens ausgewählt, sodass der Agent konkurrierende Ziele wie Geschwindigkeit, Genauigkeit, Kosten oder Risiko abwägen kann.

Die Stärke von nutzenbasierten Agenten ist die Transparenz. Indem sie Prioritäten direkt kodieren, legen sie eine Entscheidungslogik offen, die sonst in Heuristiken verborgen wäre. Die Herausforderung liegt darin, Nutzenfunktionen zu definieren, die die Prioritäten der realen Welt widerspiegeln. Ein schlecht spezifizierter Nutzen kann zu technisch optimalem, aber unerwünschtem Verhalten führen.

5. Lernende Agenten

Lernende Agenten verbessern ihr Verhalten im Laufe der Zeit, indem sie Feedback aus der Umgebung einbeziehen. Dieses Feedback kann aus mit Label versehenen Daten, Belohnungen, Bestrafungen oder impliziten Signalen stammen. Lernen ermöglicht es Agenten, sich in Umgebungen anzupassen, die zu komplex oder unvorhersehbar sind, um sie explizit mit festen Regeln zu modellieren.

Gleichzeitig bringt das Lernen Unsicherheit mit sich. Das Verhalten entwickelt sich weiter, die Performance kann driften und die Ergebnisse werden schwerer vorhersagbar. Lernende Agenten eignen sich am besten, wenn Anpassungsfähigkeit entscheidend ist und die Teams bereit sind, diese Komplexität zu bewältigen.

Neue und hybride Muster von KI-Agenten

Multi-Agenten-Systeme

Wenn KI-Agenten für größere und komplexere Probleme eingesetzt werden, reichen Designs mit nur einem Agenten oft nicht aus. Multi-Agenten-Systeme verteilen die Entscheidungsfindung auf mehrere Agenten, die miteinander interagieren. Diese Agenten können auf gemeinsame Ziele hinarbeiten, um Ressourcen konkurrieren oder unabhängig in einer verteilten Umgebung agieren. Dieser Ansatz ist nützlich, wenn die Arbeit zerlegt oder parallelisiert werden kann.

Der Kompromiss ist die Koordination. Mit steigender Anzahl an Agenten erhöht sich das Risiko von widersprüchlichen Aktionen, inkonsistenten Zuständen und unbeabsichtigtem emergentem Verhalten, was klare Kommunikations- und Koordinationsmechanismen für Zuverlässigkeit und Vorhersagbarkeit unerlässlich macht.

Hierarchische Agenten

Hierarchische Agenten schaffen Struktur durch eine mehrschichtige Steuerung. Ein übergeordneter Agent plant, zerlegt Ziele oder übernimmt die Aufsicht, während untergeordnete Agenten sich auf die Ausführung konzentrieren. Dieses Supervisor-Sub-Agent-Muster hilft bei der Verwaltung der Komplexität, indem es strategische von operativen Entscheidungen trennt.

Hierarchien können die Klarheit und Kontrolle verbessern, aber sie führen auch zu Abhängigkeiten. Wenn die Zuständigkeiten zwischen den Schichten schlecht definiert sind, können Fehler oder falsche Annahmen auf höheren Ebenen durch das System kaskadieren.

Hybride und rollenbasierte Agenten

Die meisten Produktionsagenten sind Hybride. Sie kombinieren Reflexverhalten für Geschwindigkeit und Sicherheit, Planung für Flexibilität und Lernen für die Anpassung. Dieser gemischte Ansatz ermöglicht es Systemen, bei sich ändernden Bedingungen Zuverlässigkeit und Reaktionsfähigkeit in Einklang zu bringen.

Viele moderne Labels beschreiben eher funktionale Rollen als Verhaltensweisen. Begriffe wie Kunden-Agenten, Code-Agenten, Kreativ-Agenten oder Daten-Agenten beschreiben, was ein Agent tut, nicht wie er entscheidet. Trends wie LLM-basierte Agenten, Workflow-Agenten und werkzeugnutzende Agenten spiegeln neue Schnittstellen und Fähigkeiten wider, die sich immer noch am besten durch klassische Agentenverhaltensweisen verstehen lassen.

Den richtigen KI-Agenten für Ihren Anwendungsfall auswählen

Agentendesign an die Realität anpassen

Die Wahl eines KI-Agententyps sollte beim Problem starten, nicht bei den Tools. Unterschiedliche Agentendesigns gehen von unterschiedlichen Niveaus an Vorhersehbarkeit, Kontrolle und Risiko aus. Wenn diese Annahmen nicht mit der Realität übereinstimmen, versagen selbst hochentwickelte Agenten auf eine Weise, die schwer zu diagnostizieren ist.

Sehr repetitive, gut definierte Tasks profitieren in der Regel von einfacheren Agenten. Wenn Tasks offener werden oder eine Sequenzierung erfordern, werden ziel- oder nutzenbasierte Agenten besser geeignet. Ein häufiger Fehler ist die Annahme, dass Komplexität automatisch Lernen erfordert.

Die Umgebungsdynamik ist ebenso wichtig. In stabilen Umgebungen können einfachere Agenten über lange Zeiträume hinweg effektiv bleiben. In dynamischen Umgebungen wird Anpassungsfähigkeit wertvoll – aber nur mit Feedbackschleifen und Aufsicht. Interpretierbarkeit ist eine weitere Einschränkung. Wenn Entscheidungen erklärt oder geprüft werden müssen, ist vorhersagbares Verhalten oft wichtiger als Flexibilität.

Wann Lernen hilft – und wann es schadet

Lernende Agenten sind am nützlichsten, wenn explizite Regeln unpraktisch sind oder wenn die Performance von Mustern abhängt, die sich nur durch Erfahrung ergeben. Personalisierung und Szenarien des bestärkenden Lernens fallen oft in diese Kategorie.

Diese Anpassungsfähigkeit hat ihren Preis. Lernen führt zu operativem Mehraufwand und sich entwickelndem Verhalten, was das Testen und die Governance erschwert. In weitgehend stabilen Umgebungen kann Lernen Risiken ohne nennenswerten Nutzen mit sich bringen.

Eine praktische Heuristik hilft, diese Zielkonflikte zu verdeutlichen. Lassen sich die Regeln klar definieren, ist kein Lernen nötig. Wenn Sie das Ziel klar definieren können, optimieren Sie nicht. Wenn Sie den Nutzen klar definieren können, optimieren Sie bewusst. Lernen sollte eine bewusste Entscheidung sein, kein default.

Warnzeichen für eine schlechte Passung sind instabile Ausgaben, übermäßige Retraining-Zyklen, unklare Fehlermodi und Schwierigkeiten bei der Erklärung, warum sich ein Agent auf eine bestimmte Weise verhalten hat. Diese Symptome deuten oft darauf hin, dass der Agententyp nicht auf das Problem abgestimmt ist, und nicht auf einen Fehler in den zugrunde liegenden Modellen oder Werkzeugen selbst.

Wie sich KI-Agententypen in der Praxis zeigen

Automatisierung, Steuerung und Planung

KI-Agententypen lassen sich am einfachsten anhand der Probleme verstehen, die sie in der Praxis lösen. Reflexagenten bleiben in Automatisierungs- und Steuerungssystemen, in denen Geschwindigkeit und Vorhersagbarkeit am wichtigsten sind, grundlegend. Einfaches Bedingungs-Aktions-Verhalten liegt Alarmierungs- und Monitoring-Workflows zugrunde, da die Reaktionen unmittelbar und konsistent sein müssen.

Modellbasierte Reflexagenten erweitern dieses Muster auf Umgebungen mit unvollständigen oder verzögerten Informationen. Indem sie einen internen Zustand pflegen, unterstützen sie ein robusteres Verhalten in Bereichen wie Robotik, Navigation und langlebigen Software-Workflows, in denen Agenten über die reinen Eingaben hinaus ableiten müssen, was geschieht.

Zielbasierte Agenten sind in Planungs- und Koordinationsszenarien üblich. Die Planung von Arbeit, die Sequenzierung von Tasks oder das Routing von Anfragen durch mehrstufige Prozesse profitieren von Agenten, die über zukünftige Zustände nachdenken, insbesondere wenn die Ziele klar sind und die Annahmen über die Umgebung stabil bleiben.

Optimierungs- und lerngetriebene Systeme

Nutzenbasierte Agenten dominieren optimierungsintensive Anwendungen wie Empfehlungssysteme und die Ressourcenzuweisung. Dienstprogrammfunktionen machen Kompromisse explizit, sodass diese Systeme konkurrierende Ziele ausbalancieren und transparenter abgestimmt und evaluiert werden können.

Lernende Agenten untermauern adaptive Entscheidungssysteme, in denen sich Muster im Laufe der Zeit entwickeln. Sie werden wertvoll, wenn statische Regeln versagen, erfordern aber auch eine fortlaufende Evaluierung und ein Neutraining, um zuverlässig zu bleiben.

Agenten in Geschäfts- und Analytics-Workflows

In Geschäfts- und Analytics-Workflows kombinieren moderne Agentensysteme zunehmend mehrere Ansätze. Agenten können Abfragen planen, Werkzeuge auswählen, Daten abrufen und nachgelagerte Aktionen triggern. In Workflows der Softwareentwicklung unterstützen Agenten zunehmend bei Tasks wie der Navigation in großen Codebasen, dem Ausführen von Tests, dem Vorschlagen von Änderungen oder der Koordination von Pull-Requests über Systeme hinweg. In dieser Phase sind Beobachtbarkeit, Governance und Kontrolle wichtiger als cleveres Verhalten – insbesondere wenn das Steuern und Skalieren von KI-Agenten in der Produktion zu einer Anforderung und nicht zu einem nachträglichen Gedanken wird.

Herausforderungen, Einschränkungen und Missverständnisse

Warum Agentenklassifizierungen voneinander abweichen

Listen von KI-Agenten unterscheiden sich oft, weil sie unterschiedliche Fragen beantworten. Einige Frameworks klassifizieren Agenten nach Entscheidungsverhalten, andere nach Systemarchitektur und wieder andere nach Anwendungsrolle. Wenn diese Perspektiven vermischt werden, wächst die Anzahl der „Typen“ schnell, ohne für mehr Klarheit zu sorgen.

Diese Verwirrung wird durch Marketing-getriebene Labels wie „Big-Four-Agenten“ oder rollenbasierte Begriffe wie Coding-Agenten oder Kunden-Agenten noch verstärkt. Diese Labels beschreiben, wie Agenten positioniert sind, und nicht, wie sie entscheiden oder sich verhalten, was Vergleiche irreführend macht.

Mehr Autonomie ist nicht immer besser

Ein weiteres häufiges Missverständnis ist, dass mehr Autonomie automatisch zu besseren Systemen führt. In der Praxis führt eine erhöhte Autonomie fast immer zu zusätzlicher Komplexität. Hochautonome Agenten sind schwerer zu testen, vorherzusagen und einzuschränken. In vielen Anwendungsfällen übertreffen einfachere Agenten fortschrittlichere, da ihr Verhalten leichter nachzuvollziehen und zu kontrollieren ist.

Lernende Agenten bringen ihre eigenen Risiken mit sich. Da sich das Verhalten im Laufe der Zeit entwickelt, können die Ergebnisse unvorhersehbar werden, insbesondere wenn die Datenqualität nachlässt oder sich Feedback-Schleifen bilden. Der laufende Wartungsaufwand – wie Retraining, Evaluierung und Monitoring – wird ebenfalls oft während der frühen Experimentierphase unterschätzt.

Missverständnisse über Intelligenz verkomplizieren die Sache zusätzlich. Agenten, die intelligent erscheinen, beruhen oft mehr auf Struktur, Einschränkungen und sorgfältigem Design als auf ausgeklügelten Schlussfolgerungen. Bei effektivem Agentendesign geht es nicht darum, Autonomie oder Intelligenz zu maximieren, sondern darum, Kontrolle, Flexibilität und Kosten in Einklang zu bringen. Teams, die diese Kompromisse explizit machen, bauen mit weitaus höherer Wahrscheinlichkeit Agenten, die sich im Laufe der Zeit in der Produktion bewähren.

Wohin sich die agentische KI entwickelt

Agentenbasierte KI entwickelt sich schnell, aber die Richtung wird immer klarer. Große Sprachmodelle verändern, wie Agenten schlussfolgern, mit Werkzeugen interagieren und mit unstrukturierten Eingaben arbeiten, was sie flexibler und ausdrucksstärker macht. Was sie nicht ändern, sind die grundlegenden Kompromisse, die das Verhalten von Agenten bestimmen.

Die erfolgreichsten Systeme werden von Grund auf hybrid sein. Reflex-Mechanismen werden für Sicherheit und Reaktionsfähigkeit unerlässlich bleiben, Planung und nutzenbasiertes Denken werden die Koordination und Optimierung unterstützen und Lernen wird selektiv dort angewendet, wo Anpassungsfähigkeit wirklich erforderlich ist. Erfolgreiche Teams neigen dazu, klein zu starten, den Umfang zu begrenzen und auf der Grundlage von realem Feedback schrittweise zu expandieren.

Trotz all der schnellen Innovation bleibt die zentrale Erkenntnis dieselbe. Das Verständnis der grundlegenden Typen von KI-Agenten hilft Teams, klar zu denken, überlegt zu wählen und unnötige Komplexität zu vermeiden. Die Tools werden sich weiterentwickeln, aber ein solides Agenten-Design wird weiterhin darüber entscheiden, welche Systeme in der Produktion funktionieren – und welche nicht.

KI-Agenten mit Databricks automatisch erstellen

Automatisch einen Agenten erstellen

Es gibt Plattformen wie Databricks Agent Bricks, die einen einfachen Ansatz zum Erstellen und Optimieren domänenspezifischer, hochwertiger KI-Agentensysteme für gängige KI-Anwendungsfälle bieten. Geben Sie Ihren Anwendungsfall und Ihre Daten an, und Agent Bricks erstellt automatisch mehrere KI-Agentensysteme für Sie, die Sie weiter verfeinern können.

Einen Agenten in Code erstellen

Mosaic AI Agent Framework und MLflow bieten Werkzeuge, mit denen Sie unternehmensreife Agenten in Python erstellen können.

Databricks unterstützt die Erstellung von Agenten mit Authoring-Bibliotheken von Drittanbietern wie LangGraph/LangChain, LlamaIndex oder benutzerdefinierten Python-Implementierungen.

Erstellen Sie Prototypen von Agenten mit AI Playground

Der AI Playground ist die einfachste Möglichkeit, einen Agenten auf Databricks zu erstellen. Mit dem AI Playground können Sie aus verschiedenen LLMs auswählen und dem LLM über eine Low-Code-Benutzeroberfläche schnell Tools hinzufügen. Sie können dann mit dem Agenten chatten, um seine Antworten zu testen, und den Agenten dann für die Bereitstellung oder Weiterentwicklung in Code exportieren.

Welche Arten von Agenten können mit Agent Bricks erstellt werden?

Agent Bricks, als Teil der Databricks Data Intelligence Platform, können verwendet werden, um verschiedene Arten von produktionsreifen KI-Agenten zu erstellen, die für gängige Anwendungsfälle in Unternehmen optimiert sind. Die primär unterstützten Agententypen sind:

  • Agent für die Informationsextraktion: Dieser Agent wandelt unstrukturierte Dokumente (wie PDFs, E-Mails, Berichte usw.) für Analysen in strukturierte Daten um.
  • Wissensassistent-Agent: Dieser Typ erstellt einen hochwertigen, anpassbaren Chatbot, der Fragen auf der Grundlage der spezifischen Daten und Dokumente Ihrer Organisation (z. B. HR-Richtlinien, technische Handbücher oder Produktdokumentationen) beantworten kann und Quellenangaben für seine Antworten liefert.
  • Benutzerdefinierter LLM-Agent: Dieser Agent übernimmt spezialisierte Tasks der Textgenerierung und -transformation, wie z. B. das Zusammenfassen von Kundenanrufen, das Klassifizieren von Inhalten nach Themen, das Analysieren von Stimmungen oder das Erstellen markengerechter Marketinginhalte.
  • Multi-Agenten-Supervisor: Dieser orchestriert mehrere spezialisierte Agenten (und andere Tools oder APIs), um gemeinsam an komplexen, mehrstufigen Workflows zu arbeiten, wie z. B. der Kombination von Dokumentenabfragen mit Compliance-Prüfungen.

 

(Dieser Blogbeitrag wurde mit KI-gestützten Tools übersetzt.) Originalbeitrag

Verpassen Sie keinen Beitrag von Databricks

Abonnieren Sie unseren Blog und erhalten Sie die neuesten Beiträge direkt in Ihren Posteingang.