Um das volle Potenzial der Agent-Interoperabilität auszuschöpfen, informieren Sie sich über die bewährten Methoden.

Wichtig: Diese Funktion ist nicht allgemein verfügbar, sondern auf bestimmte Kunden beschränkt. Wenden Sie sich an Ihr Automation Anywhere Account-Team, um weitere Informationen zu erhalten.
  • Gestalten Sie die Systemaufforderung/Persona des Agents, um die Nutzung der Tools zu steuern:
    • Wenn Sie möchten, dass Ihr Agent vor der Verwendung eines Tools stets eine Benutzerbestätigung einholt, fügen Sie diesen Hinweis bei der Gestaltung des Agent-Systemprompts bzw. der Agent-Persona ein.
    • Wenn Sie möchten, dass Ihr Agent stets das Tool GetAutomationResult nach der Verwendung des Tools Run Automation oder anderer Automatisierungstools aufruft, fügen Sie diesen Hinweis beim Entwurf des Agent-Systemprompts bzw. der Agent-Persona hinzu.
  • Aktualisieren Sie die Tool-Beschreibungen bei der Erstellung von Agent-Verbindungen, um die Funktionalität dieser Tools zu optimieren:
    • Wenn Sie möchten, dass Ihr Agent vor oder nach der Nutzung eines Tools eine Aktion ausführt, können Sie die Tool-Beschreibungen dieser Tools entsprechend anpassen.
    • Wenn Sie möchten, dass Ihr Agent die Tool-Eingaben auf ein bestimmtes Format oder eine Begrenzung überprüft, können Sie die Tool-Beschreibungen für diese Tools aktualisieren.
  • Bevor Sie Ihrem Agent eine geschäftliche Aufgabe übertragen, bitten Sie ihn, die Automatisierung aufzulisten. Zum Beispiel: Gib mir die Liste der Automatisierungen.
  • Nachdem Sie Ihren MCP-Client eingerichtet haben, haben Sie Ihren Automation Anywhere MCP-Server konfiguriert. Achten Sie darauf, dass Sie auf alle drei Standard-Tools zugreifen können, die von Automation Anywhere bereitgestellt werden: DiscoverAutomation, RunAutomation und GetAutomationResult. Wenn Sie diese Tools sehen, bedeutet dies, dass Ihr Automation Anywhere MCP-Server erfolgreich konfiguriert wurde und Sie über diesen MCP-Client eine Verbindung herstellen können.
  • Die Automatisierungserkennung, -ausführung und -ergebnisauswertung hängen stark vom KI-Modell/LLM ab. Die Art und Weise, wie das LLM Prompts erstellt, ist entscheidend für das Entdecken, das Aufrufen von Automatisierungs-Tools und das Erzielen von Ergebnissen. Basierend auf unserer Erfahrung schneiden Cloud-Modelle besser ab als GPT-Modelle:
    • Empfohlene Modelle: Claude Sonnet 4.5 und Gemini 2.5 Pro
    • Modelle mit geringer Wirksamkeit/Zuverlässigkeit: GPT 4.1 oder früher