Industrielle Fertigung
Industrielles Internet der Dinge | Industrielle Materialien | Gerätewartung und Reparatur | Industrielle Programmierung |
home  MfgRobots >> Industrielle Fertigung >  >> Manufacturing Technology >> Automatisierungssteuerung System

Technischer Dienstag:Warum Orchestrierung der Schlüssel zur effektiven Bereitstellung von KI-Agenten ist

Neu bei der Agenten-Orchestrierung? Hier beginnen .

Seien wir ehrlich:KI-Agenten sind nicht einfach zu erstellen oder bereitzustellen. Aber sobald sie eingebettet sind, ist die Wirkung unglaublich. Ich liebe es, von UiPath-Kunden wie Ainara Etxeandia Sagasti, Leiterin der digitalen Dienste bei Lantik, zu hören, die „RPA, generative KI und Agententechnologie kombiniert, um öffentliche Dienste zugänglicher, effizienter und bürgerorientierter als je zuvor zu machen“. Auf der UiPath Platform™ wurden bereits mehr als 10.000 KI-Agenten erstellt. Agenten können die Effizienz und Rentabilität von Prozessen steigern, benötigen jedoch eine starke Orchestrierung und Hilfe durch Automatisierung und Menschen im Kreislauf.

In diesem Blogbeitrag werde ich die häufigsten Probleme beim Erstellen, Testen oder Bereitstellen von KI-Agenten im großen Maßstab behandeln. Ich werde auch erklären, wie ein orchestrierter Ansatz – der auf kontrollierter Handlungsfähigkeit und Interoperabilität basiert – diese Probleme abmildern kann.

1. Leistung und Zuverlässigkeit von Agenten

Entwickler und Benutzer nennen häufig die Unzuverlässigkeit von KI-Agenten als Hindernis für die Produktion. Große Sprachmodelle (LLMs) machen Agenten flexibel und anpassungsfähig, führen aber auch zu inkonsistenten Ausgaben. Dies kann die Entwicklung und das Testen vereiteln. Wie ein Ingenieur es ausdrückte:„Meine Agenten funktionieren manchmal perfekt und versagen dann bei ähnlichen Eingaben völlig. Wir brauchen bessere Möglichkeiten, Grenzfälle zu simulieren und Fehler konsistent zu reproduzieren … die Überwachung der Agenten-„Drift“ im Laufe der Zeit ist ein echtes Problem.“

Eine weitere Herausforderung sind Halluzinationen – Agenten, die Fakten oder Werkzeugeingaben erfinden –, die Prozesse zum Stillstand bringen können. Ein Benutzer, der KI-Workflows erstellt, teilte mit:„Die größten Probleme, die wir finden, sind Wiederholbarkeit und Halluzinationen … um sicherzustellen, dass die LLM-Agenten bei gleichen oder ähnlichen Abfragen nicht aus dem Ruder laufen und Eingaben in andere Tools halluzinieren.“ Diese Unvorhersehbarkeit erfordert umfangreiche Tests und Validierungen, aber die Tools zum Testen von Agenten sind noch unausgereift. Wenn Fehler auftreten, kann es aufgrund der undurchsichtigen Modellbegründung schwierig sein, sie zu diagnostizieren. Dies führt dazu, dass Teams bei Änderungen äußerst vorsichtig sind:„Wir sind zu diesem Zeitpunkt so misstrauisch gegenüber sofortigen Systemänderungen, weil wir uns verbrannt haben, weil wir dem Agenten gesagt haben, er solle etwas nicht tun, und dann fängt er an, sich seltsam zu verhalten … so oft.“

Ein weiteres Problem ist die Leistung der zugrunde liegenden KI-Modelle. Große Modelle können ressourcenintensiv oder langsam sein, während kleinere Modelle möglicherweise nicht so gut funktionieren. Die richtige Balance zu finden ist eine Herausforderung.

Ein Mangel an konsistenten, zuverlässigen Ergebnissen macht es schwierig, KI-Agenten ohne umfassende Schutzmaßnahmen geschäftskritische oder kundenorientierte Aufgaben anzuvertrauen. In der Praxis erfordert das Erreichen einer hohen Zuverlässigkeit häufig die Vereinfachung des Agentenverhaltens, die Einführung strenger Einschränkungen oder die Einführung von Ausweichmöglichkeiten (z. B. ständiges menschliches Eingreifen). Diese Maßnahmen beeinträchtigen jedoch tendenziell die Autonomie, Effizienz und damit den Nutzen der Agenten in wertschöpfenden Unternehmensszenarien.

2. Kontrollierte Agentur und Human-in-the-Loop

Während KI-Agenten komplexe Aufgaben automatisieren können, sind Entwickler der Meinung, dass menschliche Aufsicht und Zusammenarbeit unerlässlich sind – und es schwierig ist, die richtige Balance zu finden. Vollständige Autonomie ist oft unpraktisch, da Agenten Fehler machen oder unklare Entscheidungen treffen können. Unternehmen benötigen Kontrolle über den Grad der Agentur, der mit der Zeit zunehmen kann, da die Agenten präziser und zuverlässiger werden.

Ein gängiger Ansatz besteht darin, für bestimmte Genehmigungen oder die Bearbeitung von Grenzfällen einen „Menschen auf dem Laufenden“ zu halten. Dies kann jedoch Prozesse verlangsamen, wenn es nicht gut orchestriert wird. Dann wird ein „Human-in-the-Loop“ für bestimmte Genehmigungen, kritische Entscheidungen und den Umgang mit Ausnahmen benötigt. Ein KI-Ingenieur stellte fest, dass die Einschränkung von Agenten und die Einbeziehung von Menschen zu besseren Ergebnissen führt:„Streng eingeschränkte LLMs mit menschlicher Aufsicht können gute Ergebnisse für mittelkomplexe Aufgaben erzielen … [Vollständig] autonome, universelle Agenten [im Maßstab]“ sind noch nicht realistisch.

Wenn die KI hingegen zu streng kontrolliert wird oder eine ständige Überprüfung erfordert, erzielt sie keinen ROI. Manchmal kann ein Agent Arbeitsabläufe unterbrechen oder mehr Aufwand verursachen, als er einspart. Ein Entwickler erklärte beispielsweise, wie die Programmierung von Copilot die Produktivität störte, indem sie manuelle Korrekturen erzwang:„Es fängt etwas an, bringt es aber nicht zu Ende … Ich muss meine Aufmerksamkeit auf die Überprüfung und das Schließen der Tags, Klammern usw. lenken. Es stört meinen Arbeitsfluss und verlangsamt mich.“

Die Herausforderung besteht darin, hybride Arbeitsabläufe zu entwerfen, bei denen Agenten die Arbeit erledigen, sie aber nahtlos an Menschen übergeben, um Entscheidungen zu treffen – ohne zusätzliche Reibung zu erzeugen.

3. Kosten- und ROI-Bedenken

Der ROI von KI-Agenten ist ein wiederkehrendes Problem, insbesondere wenn die Nutzung zunimmt. Große Sprachmodell-APIs (und die Infrastruktur für deren Ausführung) können teuer sein. Teams befürchten Kostenexplosionen, wenn die Agenten nicht optimiert werden. Ein Benutzer behauptete, dass aktuelle Agenten „zu teuer“ für ihre Leistung seien. Bei geringer Zuverlässigkeit kann es schwierig sein, den ROI zu messen. Wenn ein Agent nur zeitweise erfolgreich ist, können die Kosten seiner Fehler (und manuellen Korrekturen) die Vorteile überwiegen.

Unternehmen versuchen, die Kosten durch Methoden wie Modelloptimierungen und Nutzungsrichtlinien zu kontrollieren. Ein Benutzer beschrieb die Implementierung von Caching zur Reduzierung wiederholter Aufrufe und die sorgfältige Beschaffung hochwertiger Daten zur Verbesserung der Ausgabeeffizienz. Andere konzentrieren sich auf die Auswahl des richtigen Modells für den Job:„Ich würde ein Framework lieben, in dem ich meine Eingabeaufforderungen auf alle verschiedenen Modelle anwenden und das beste und günstigste finden kann. Im Moment verwendet mein KI-Agent über 200 Eingabeaufforderungsvorlagen, und das Testen und erneute Testen aller Eingabeaufforderungen ist teuer.“ Letztendlich verursachen schnelles Engineering und Modellexperimente echte Kosten.

Auch Preismodelle der Anbieter (pro Token, pro Call etc.) spielen eine Rolle. Beispielsweise könnte die Verwendung von GPT-4 für alles übertrieben sein, aber die Verwendung eines günstigeren Modells könnte die Qualität beeinträchtigen. Teams müssen ein Gleichgewicht finden, um den ROI zu rechtfertigen. Darüber hinaus könnte das Management den Geschäftswert von Agentenprojekten in Frage stellen, wenn sie erhebliche laufende Ausgaben für Cloud-KI-Dienste oder spezielle Infrastruktur erfordern. Ohne klare Erfolge (sei es Umsatzsteigerungen oder Kosteneinsparungen durch Automatisierung) kann es schwierig sein, Investitionen zu verteidigen. Daher stehen die Optimierung der Kosten und der Nachweis des ROI im Vordergrund – Teams möchten mit KI-Agenten „das günstigste Preis-Leistungs-Verhältnis“ erzielen, indem sie Modelle kombinieren und gleichzeitig auf hochwertige Anwendungsfälle konzentrieren.

4. Bedenken hinsichtlich Governance, Sicherheit und Datenschutz

Organisationen müssen Sicherheits-, Compliance- und ethische Richtlinien für KI-Agenten durchsetzen, aber das ist leichter gesagt als getan. Datenschutz ist ein Hauptanliegen – viele Unternehmen verbieten oder beschränken Cloud-KI-Dienste, bis sie sicher sind, dass keine sensiblen Daten verloren gehen. Ein Entwickler teilte mit, dass sein Arbeitsplatz Tools wie ChatGPT aufgrund von Risiken für geistiges Eigentum verbietet:„Nein. Es wird als zu großes IP-Risiko angesehen, [aus Angst] es könnte unsere Geheimnisse preisgeben oder das Urheberrecht einer anderen Person verletzen.“ Bei der Verwendung von KI-APIs von Drittanbietern befürchten Praktiker, dass Kundendaten versehentlich an diese Dienste gesendet werden.

Sicherheit ist ein weiteres Problem:Autonome Agenten stellen ein Risiko dar, wenn sie nicht ordnungsgemäß in einer Sandbox untergebracht sind. Es gibt Berichte von Teams, die zusätzlich zu den Agentenplattformen zusätzliche Sicherheitsmaßnahmen einführen – zum Beispiel „mussten wir eine Sicherheitsschicht darüber hinzufügen … [und] Caching (Redis) zur Kostenoptimierung verwenden“, wenn wir einen Agenten zur Lead-Generierung einsetzen. Standardlösungen verfügen oft nicht über Sicherheitskontrollen oder Kostenmanagement auf Unternehmensniveau, und Unternehmen müssen ihre eigene Governance aufbauen. Darüber hinaus ist es schwierig sicherzustellen, dass Agenten die Vorschriften (DSGVO, HIPAA usw.) einhalten und die Unternehmensrichtlinien befolgen, wenn Agenten-Frameworks keine Kontrollmöglichkeiten bieten.

Diese Bedenken machen Stakeholder vorsichtig:Sie wollen, dass KI-Agenten leistungsstark, aber transparent und kontrolliert sind, „mit neutralen, allgemein akzeptierten Protokollen statt proprietären Systemen“, die verbergen, wie Daten verwendet werden. Kurz gesagt:Ohne robuste Governance-Funktionen (Überwachungsprotokolle, Berechtigungskontrollen, menschliche Übersteuerung usw.) stoßen viele Unternehmen bei der breiteren Agentenbereitstellung an Grenzen.

5. Schwierigkeiten bei der Bereitstellung und Skalierung

Der Übergang eines KI-Agenten vom Proof-of-Concept zur Produktion kann eine Vielzahl von Problemen mit sich bringen. Benutzer berichten, dass das, was in einer kontrollierten Demo funktioniert, oft Probleme mit der realen Größe, Lautstärke und Komplexität hat. Zu den häufigsten Bedenken zählen Latenz und Durchsatz (LLM-basierte Agenten können für Anwendungen mit hohem Datenverkehr oder Echtzeitanwendungen zu langsam sein) sowie der Betriebsaufwand für den zuverlässigen Betrieb des Systems. Wie Adrian Krebs, Mitbegründer und CEO von Kadoa, es ausdrückte:„Es spielt keine Rolle, ob Sie ein Orchestrierungs-Framework verwenden, wenn das zugrunde liegende Problem darin besteht, dass KI-Agenten zu langsam, zu teuer und zu unzuverlässig sind.“ Um die Leistungsanforderungen zu erfüllen, müssen Teams ihre Architektur häufig aus Gründen der Effizienz neu gestalten – durch Caching, den Austausch von Modellen oder die Vereinfachung der Agentenlogik.

Es besteht auch die Herausforderung, umgebungsübergreifend (Cloud, lokal, Edge-Geräte) bereitzustellen und dabei die Konsistenz aufrechtzuerhalten. In Unternehmensumgebungen werden nicht alle Abteilungen die gleichen Tools verwenden wollen, was eine standardisierte Bereitstellung schwieriger macht. Probleme der operativen Skalierung wie Überwachung, Protokollierung und Aktualisierung von Agenten vor Ort sind ebenfalls unterentwickelt. Ein Reddit-Benutzer bemerkte, dass selbst einfaches Debuggen „ein Albtraum sein kann … Fehlerprotokolle sind oft kryptisch und es gibt keinen klaren Leitfaden zur Fehlerbehebung.“ Dies wird nur dann schwieriger, wenn viele Agenten eingesetzt werden. All dies kann die Akzeptanz von Agenten verlangsamen. Sogar große Anbieter haben zugegeben, dass die Kunden „gerade erst anfangen“ und sich noch aussagekräftige Ergebnisse im großen Maßstab abzeichnen.

6. Komplexität der Multi-Agent-Orchestrierung

Der Aufbau von Systemen, bei denen mehrere KI-Agenten zusammenarbeiten, ist schwierig. Entwickler haben Schwierigkeiten, Agentenrollen zu koordinieren, den gemeinsamen Status zu verwalten und zu verhindern, dass Agenten in Schleifen stecken bleiben oder miteinander in Konflikt geraten. Selbst bei Orchestrierungs-Frameworks kann ein Fehltritt in der Ausgabe eines Agenten einen gesamten Workflow zum Scheitern bringen. Wie ein Entwickler behauptete:„Die Leute experimentieren nur. Die Unzuverlässigkeit ist immer noch ein großes Problem:Jede Entgleisung im Prozess der automatischen regressiven Generierung kann für einen Agenten fatal sein.“ Andere betonen die Schwierigkeit, selbstheilende oder belastbare Arbeitsabläufe zu erstellen – beispielsweise das Hinzufügen von Logik zum Wiederholen fehlgeschlagener Schritte oder menschlicher Eingriffe.

Diese Orchestrierungsherausforderungen führen dazu, dass Teams am Ende oft nur ein Problem beheben, bevor andere auftauchen:„Manchmal fühlt es sich sogar wie ein Schlag ins Gesicht an. Beheben Sie ein Problem mit etwas zeitnaher Technik und erstellen Sie dann drei weitere.“

7. Herausforderungen bei der Modellkompatibilität und -integration

Kein einzelner KI-Agent ist marktbeherrschend. Unternehmen könnten an einem Tag OpenAI nutzen, am nächsten auf ein Open-Source-Modell umsteigen und verschiedene Tools von Drittanbietern integrieren. Doch Kompatibilität und reibungslose Integration sind eine große Herausforderung. Für die Werkzeug- und Modellintegration sind häufig benutzerdefinierte Adapter oder Klebecode erforderlich. Beispielsweise kann die Anbindung eines Agenten an eine proprietäre Datenbank oder eine interne API einen erheblichen Aufwand erfordern, wenn das Framework nicht entsprechend konzipiert wurde. Entwickler argumentieren, dass viele Frameworks „schwer“ sind und Annahmen enthalten, die nicht für alle Anwendungsfälle passen:„Leider sind viele dieser Frameworks ziemlich schwer, wenn man nur die Grundlagen benötigt.“

Umgekehrt bedeutet eine „Framework-Agnostik“ oft, dass man viel Standardwerk von Grund auf neu schreiben muss. Benutzer möchten vermeiden, das Rad neu zu erfinden, ohne sich darauf festzulegen. Ein Entwickler beschrieb die Entscheidung für eine flexiblere Bibliothek, insbesondere um die Kompatibilität zu maximieren:„Ich habe viel versucht … Schließlich habe ich mich für die Verwendung von [Instructor] entschieden, weil ich schnell zwischen LLMs – sowohl lokalen/Betriebssystem- als auch proprietären – wechseln konnte und überall die gleiche strukturierte Ein-/Ausgabe haben konnte.“ Dies unterstreicht den Bedarf an Agenten, die einen einfachen Austausch von KI-Modellen oder -Diensten ermöglichen, um sich ändernden Anforderungen gerecht zu werden.

Ein weiterer häufiger Bedarf ist die Integration von Agenten in bestehende Software-Stacks und Arbeitsabläufe. Das Fehlen von Standardschnittstellen bedeutet, dass für jeden neuen Agent möglicherweise ein neuer Integrationsaufwand erforderlich ist. Wie bereits erwähnt, können fehlende Beispiele und eine erweiterte Einrichtung dies behindern. Darüber hinaus treten Kompatibilitätsprobleme auf, wenn ein Update einer Komponente (z. B. eine LLM-API-Änderung) die Logik des Agenten durchbricht – etwas, das Teams aktiv verwalten müssen. Kurz gesagt, Praktiker wünschen sich Plug-and-Play-Interoperabilität:KI-Agenten, die sich ohne umfangreiche kundenspezifische Entwicklung mit verschiedenen Modellen, Datenquellen und Systemen verbinden.

8. Anbieterabhängigkeit und Interoperabilitätsprobleme

KI-Modelle und -Frameworks ändern sich schnell. Viele Teams wollen das Beste ihrer Art und befürchten, dass die Entscheidung für die KI-Agent-Lösung eines einzigen Anbieters sie auf lange Sicht unflexibel machen könnte. Es gibt eine explosionsartige Entwicklung von Agent-Frameworks, jedes mit seinen eigenen APIs und Überlegungen. Ein Entwickler verglich es mit der Begeisterung für JavaScript-Frameworks:„In ein paar Monaten werden wir unsere Version der ‚TODO-App wahrscheinlich in 100 verschiedenen JS-Web-Frameworks‘ haben … Sie alle zu verstehen, ist eine riesige Aufgabe.“

Die Festlegung auf ein Ökosystem kann eine eingeschränkte Flexibilität bedeuten. Bestimmte Bibliotheken bevorzugen bestimmte Anbieter. Beispielsweise warnte ein frustrierter Benutzer, dass seine Wahl des Frameworks „hauptsächlich kaputt“ sei, und betonte, dass einige Tools Sie implizit an bestimmte Modelle oder Dienste binden. Das Risiko besteht darin, sich an der Vision eines Anbieters zu orientieren und sich später „festzuklammern – abhängig von dessen Aktualisierungen, Preisen und Richtlinien, ohne realisierbare Alternative“. Interoperabilität ist auch ein Problem bei der Integration von Agenten in bestehende Software-Stacks. Entwickler finden oft „keine klaren Beispiele“, um Agenten in Sprachen und Cloud-Dienste einzubinden, die sie bereits verwenden, was die Einführung dieser Tools in verschiedenen Teams erschwert.

Möglichkeiten mit Agenten-Orchestrierung

Viele dieser Herausforderungen deuten darauf hin, dass flexible, interoperable und menschenzentrierte Agenten-Orchestrierungslösungen erforderlich sind. Die Agenten-Orchestrierung verwaltet und weist Personen, Robotern und KI-Agenten je nach ihren Fähigkeiten effektiv Aufgaben und Verantwortlichkeiten zu und stellt so sicher, dass der Betrieb reibungslos und effizient abläuft und auf die strategischen Ergebnisse des Unternehmens abgestimmt ist.

Eine Orchestrierungsschicht, die zuverlässige KI-Agenten, deterministische Automatisierung und menschliche Eingaben effektiv integriert, bietet mehrere Vorteile:

Lesen Sie „The Definitive Guide to Agentic Orchestration“.

Zusammenfassend lässt sich sagen, dass eine bewährte und vertrauenswürdige Agenten-Orchestrierungsschicht viele Schwachstellen direkt angeht:

Durch das Lernen aus realen Schwierigkeiten – Wiederholbarkeitsprobleme, Integrationsprobleme, Sicherheitsbedenken, Kostenüberschreitungen – kann eine solche Lösung Praktiker in die Lage versetzen, KI-Agenten mit weitaus weniger Reibungsverlusten und Risiken einzusetzen. Das Ergebnis ist ein KI-Agenten-Ökosystem, das zuverlässiger, anpassungsfähiger und auf die Geschäftsanforderungen ausgerichtet ist und es den Teams ermöglicht, sich auf die Lösung von Problemen zu konzentrieren, anstatt die Infrastruktur zu bekämpfen.

Als nächstes:


Automatisierungssteuerung System

  1. Von der Hardware zur Software:Die digitale Reise der Automobilunternehmen
  2. Das Exoskelett von Comau erhält als „erstes“ die EAWS-Zertifizierung
  3. Simulieren ist Glauben
  4. Denken Sie einfach für ein effektives HMI-Design
  5. Wie UiPath Menschen für die Zukunft der Arbeit schult
  6. Automatisierung:Starker Vakuumgreifer für Cobots
  7. Snack Industry Shift Spurs New End‑of‑Line Automation Strategies
  8. Automatisierung:Vorkonfigurierte Robotermodule mit einfacher Einrichtung und Bedienung
  9. Mittelgroßer APC, gut geeignet für VMCs
  10. Spritzguss:Neuer Kommissionierer, Roboter und Kartonpacker