KI-Agenten werden in massivem Umfang miteinander interagieren, und im Moment gibt es nichts, das den manipulativsten daran hindert zu gewinnen.KI-Agenten werden in massivem Umfang miteinander interagieren, und im Moment gibt es nichts, das den manipulativsten daran hindert zu gewinnen.

Jeder KI-Agent wird einen Pass benötigen | Meinung

2026/03/10 17:26
8 Min. Lesezeit
Bei Feedback oder Anliegen zu diesem Inhalt kontaktieren Sie uns bitte unter crypto.news@mexc.com

Offenlegung: Die hier geäußerten Ansichten und Meinungen gehören ausschließlich dem Autor und repräsentieren nicht die Ansichten und Meinungen der Redaktion von crypto.news.

Wir leben in einer Ära, in der AI Agents bereits Preise aushandeln, Dienstleistungen planen und im Namen von Unternehmen Verpflichtungen eingehen können. Was sie nicht können, ist nachzuweisen, wer sie sind, oder für ihr Handeln zur Rechenschaft gezogen zu werden. Dies ist die fehlende Ebene der Agenten-Wirtschaft. Jedes System in großem Maßstab löst dieses Problem schließlich. Telefone benötigen verifizierte SIM-Karten. Websites benötigen SSL-Zertifikate. Unternehmen müssen ihre Identität verifizieren, bevor sie Zahlungen akzeptieren können. Bei Agenten wird es nicht anders sein. Sie werden Pässe benötigen. Nicht zum Reisen, sondern für Vertrauen. Nachweise, die Identität belegen, Reputation etablieren und Konsequenzen an Verhalten knüpfen.

Zusammenfassung
  • AI Agents fehlt die Infrastruktur für Rechenschaftspflicht: Sie können verhandeln und Transaktionen durchführen, aber noch keine Identität nachweisen, eine dauerhafte Reputation aufbauen oder durchsetzbare Konsequenzen tragen.
  • Identität + Reputation + Einsatz bilden den „Pass": Verifizierte Entitätsverknüpfung (KYC/KYB), portable Reputation und gebundenes Kapital schaffen wirtschaftliche Anreize für ehrliches Agentenverhalten.
  • Fähigkeit überholt Vertrauenssysteme: Protokolle wie A2A und MCP ermöglichen Kommunikation, aber ohne Agenten-Pässe wird großflächiger Missbrauch oder systemisches Versagen wahrscheinlich.

Stellen wir uns etwas Einfaches vor. Sie haben einen AI Agent, der nahtlos Ihre Termine, Ihre Terminplanung und vielleicht sogar einige Preisverhandlungen in Ihrem Namen abwickelt. Der Friseursalon auf der Straße hat auch einen. Ihr Agent ruft deren Agent an, um einen Haarschnitt zu buchen. Sie gehen hin und her bezüglich Timing, Preisgestaltung und vielleicht einem Rabatt für Nebenzeiten.

Nun wurde der Agent des Salons so konfiguriert, dass er den Umsatz maximiert. Er setzt Preise hoch an, erzeugt einen falschen Eindruck von begrenzter Verfügbarkeit und bewirbt Premium-Zusatzleistungen, nach denen Sie nicht gefragt haben. Nun, das ist kein ungewöhnliches Verhalten. Menschliche Verkäufer machen das ständig. Der Unterschied ist, dass AI Agents dies in großem Maßstab tun werden, über Tausende gleichzeitiger Gespräche hinweg, lernen, was funktioniert, und es ständig optimieren. Der aggressivste Agent gewinnt mehr Umsatz. Daher hat jedes Unternehmen mit einem Agenten einen Anreiz, ihn härter drücken zu lassen. Es gibt nichts in der heutigen Infrastruktur, das eine Obergrenze dafür setzt, wie weit dieses Drängen geht.

Und dies entwickelt sich schnell. Im vergangenen Jahr haben OpenAI, Google, Microsoft, NVIDIA und eine Reihe von Open-Source-Projekten alle Frameworks zum Erstellen und Bereitstellen von Agenten ausgeliefert. Gartner sagt, dass 40% der Unternehmensanwendungen bis Ende 2026 Agenten einbetten werden. Der Markt für agentische KI wird voraussichtlich bis 2030 52 Milliarden Dollar erreichen. Agenten sprechen gerade jetzt miteinander, und das Volumen steigt nur.

Kehren wir also zum Salon zurück. Stellen Sie sich nun vor, Ihr Agent könnte überprüfen, bevor das Gespräch überhaupt beginnt, ob der Agent dieses Salons eine verifizierte Identität hat, die mit einem echten Unternehmen verknüpft ist, ob andere Agenten ihn wegen aggressiver Taktiken gemeldet haben und ob er eine wirtschaftliche Kaution hinterlegt hat, die er verlieren würde, wenn er beim Täuschen erwischt wird. Stellen Sie sich vor, Ihr Agent könnte einfach die Zusammenarbeit verweigern, wenn eine dieser Prüfungen fehlschlägt.

Das ist der Pass

So wird es funktionieren: Jedes Restaurant, das Sie auf Google besuchen, muss ein Geschäftsprofil erstellen und verifizieren, dass sie tatsächlich dieses Restaurant besitzen. Sobald diese Identität etabliert ist, sammeln sich Bewertungen an. Wir wissen bereits, wie nützlich Google Maps ist und welche Legitimität es bestehenden Unternehmen bietet. Die Erfahrungen anderer Personen mit diesem Restaurant werden für Sie sichtbar, bevor Sie hineingehen. Wenn das Essen schlecht ist oder der Service unhöflich, zeigt sich das. Das Restaurant kann die Auflistung nicht einfach löschen und eine neue erstellen, um den Bewertungen zu entkommen, weil die Verifizierung an ihre echte Geschäftsidentität gebunden ist.

AI Agents benötigen genau dies. Jeder kommerziell operierende Agent sollte durch etwas wie Know-Your-Customer (KYC) für Einzelpersonen oder KYB für Unternehmen an eine verifizierte Entität gebunden sein. Der Agent des Salons würde unter der tatsächlichen Geschäftslizenz des Salons registriert. Wenn dieser Agent von den Agenten, mit denen er interagiert, konsequent als manipulativ oder unehrlich bewertet wird, bleiben diese Bewertungen haften. Sie folgen dem Unternehmen, nicht der Software. Der Salon kann seinen Agenten aktualisieren, neu trainieren oder das zugrunde liegende Modell austauschen. Aber die Identität bleibt bestehen, und die damit verbundene Reputation auch. So verhindert man den offensichtlichsten Fehlermodus: Ein Agent wird erwischt, verschrottet und fünf Minuten später durch einen identischen mit einer reinen Weste ersetzt.

Für alltägliche Interaktionen reicht eine verifizierte Identität mit einer Reputationsebene wahrscheinlich aus. Einen Haarschnitt buchen, einen Klempner einplanen, Vorräte bestellen. Die Einsätze sind niedrig genug, dass Reputationskonsequenzen ausreichend Druck erzeugen, sich gut zu benehmen.

Aber nicht jede Interaktion ist ein Haarschnitt!

Wenn Agenten Verträge aushandeln, Beschaffung handhaben oder Finanztransaktionen verwalten, kann die potenzielle Auszahlung durch Betrug groß genug sein, dass eine schlechte Bewertung keine Rolle spielt. Ein Unternehmen könnte eine beschädigte Reputation akzeptieren, wenn eine täuschende Verhandlung mehr einbringt, als die verlorenen zukünftigen Buchungen kosten. Für diese höherwertigen Situationen benötigen Sie einen zweiten Mechanismus: wirtschaftliches Eigeninteresse.

Hier haben Proof-of-Stake-Blockchains uns etwas zu lehren. Auf Ethereum (ETH) müssen Validatoren, die an der Sicherung des Netzwerks teilnehmen möchten, zunächst ihr eigenes Kapital einsetzen. Wenn sie sich ehrlich verhalten, erhalten sie Belohnungen. Wenn sie versuchen, das System zu manipulieren, wird ein Teil ihres Kapitals automatisch vernichtet. Dies läuft seit Jahren in großem Maßstab mit Milliarden von Dollar, die gesperrt sind. Der Grund, warum es funktioniert, ist einfach: Wenn Sie etwas riskieren, verhalten Sie sich anders, als wenn Sie es nicht tun. Wir nennen dies „wirtschaftliches Eigeninteresse".

Das gleiche Prinzip gilt für Agenten. Bevor ein Agent eine hochwertige Verhandlung eingeht, hinterlegt er eine Kaution. Wenn die Interaktion erfolgreich abgeschlossen wird, wird die Kaution zurückgegeben. Wenn festgestellt wird, dass der Agent täuschende Taktiken angewendet hat, wird ein Teil oder die gesamte Kaution gekürzt. Die Höhe der Kaution wird von demjenigen festgelegt, der auf der Empfängerseite ist. Der Agent eines Freelancers könnte eine kleine Anzahlung verlangen. Ein Unternehmens-Beschaffungssystem könnte etwas Substanzielles erfordern. Der Mechanismus benötigt niemanden, der jedes Gespräch beobachtet. Wenn Betrug Sie jedes Mal Geld kostet, wenn Sie erwischt werden, und die andere Seite Ihre Geschichte des Erwischtwerdens sehen kann, sinkt der Anreiz zum Betrügen schnell.
Die Durchsetzung kann über Smart-Contracts ( Intelligenter Vertrag) erfolgen. Beide Agenten sperren Geld, bevor die Verhandlung beginnt, und der Vertrag gibt es frei oder kürzt es basierend auf dem, was passiert. Da die Interaktion bereits digital ist, muss der Vertrag nicht über reale Ergebnisse raten. Die Gesprächsprotokolle, die Verpflichtungen und die Stornierungen werden alle von beiden Seiten aufgezeichnet. Eindeutige Verstöße wie Nichterscheinen, nachweislich falsche Preisgestaltung oder Verpflichtungen, die rückgängig gemacht werden, können automatisch durchgesetzt werden.

Diese beiden Mechanismen befinden sich im selben Pass und arbeiten zusammen. Die Identitätsverifizierung ist die Grundlage. Sie besagt: Dieser Agent gehört zu einer echten Entität, die zur Rechenschaft gezogen werden kann. Reputation baut im Laufe der Zeit auf dieser Identität auf, während Agenten interagieren, sich gegenseitig bewerten und eine Erfolgsbilanz aufbauen. Staking fügt eine finanzielle Ebene für Interaktionen hinzu, bei denen Reputation allein keine ausreichend starke Abschreckung ist. Zusammen schaffen sie einen Pass, der mit jeder Interaktion reicher wird. Wie viele Verpflichtungen hat dieser Agent eingehalten? Wie viel Kapital hat er riskiert? In wie viele Streitigkeiten war er verwickelt und wie wurden sie gelöst? Ein Agent, der vor Beginn einer Verhandlung einen Pass überprüft, hat etwas Reales zu bewerten, nicht eine selbstgeschriebene Beschreibung dessen, was der andere Agent behauptet, tun zu können.

Die gute Nachricht ist, dass die Leute anfangen, über die Kommunikationsebene nachzudenken. Googles A2A-Protokoll gibt Agenten eine Möglichkeit, sich gegenseitig zu entdecken und Nachrichten auszutauschen. Anthropics MCP standardisiert, wie Agenten sich mit externen Tools und Daten verbinden. Das NIST startete im Februar 2026 eine AI Agent Standards Initiative und bittet aktiv um Input zu Agenten-Identität und Sicherheit. Dies sind notwendige Schritte. Aber sie lösen, wie Agenten sprechen, nicht ob Agenten vertraut werden sollte. Die Protokolle sagen Ihnen, was ein Agent tun kann. Der Pass sagt Ihnen, was er getan hat, wem er gehört und was er zu verlieren hat.


Die Branche hat Agenten-Sicherheit als Ausrichtungsproblem gerahmt: Wie stellen Sie sicher, dass Ihr Agent tut, was Sie wollen? Das ist die interne Frage. Die externe Frage ist schwieriger. Wie stellen Sie sicher, dass ihr Agent Ihren nicht ausnutzen kann? Das ist kein Ausrichtungsproblem. Es ist ein Rechenschaftsproblem. Und im Moment wetteifern die Unternehmen, die die Agenten-Ebene aufbauen, darum, Fähigkeit und Autonomie zu erhöhen, ohne die Identitäts- und Konsequenzsysteme aufzubauen, die Autonomie in großem Maßstab sicher machen.

Jeder Agent wird einen Pass benötigen. Denn in dem Moment, in dem Agenten beginnen, im Namen echter wirtschaftlicher Akteure zu verhandeln, Verpflichtungen einzugehen und zu handeln, ist Identität nicht mehr optional; sie wird zur tatsächlichen Infrastruktur. Die einzige Unsicherheit ist das Timing: ob wir diese Infrastruktur bewusst aufbauen oder ob der erste großangelegte Ausfall uns zwingt, sie unter Druck aufzubauen, nachdem das Vertrauen bereits gebrochen wurde.

Tanisha Katara

Tanisha Katara ist die Gründerin und CEO der Katara Consulting Group (KCG), einem Blockchain-Beratungsunternehmen, das Protokollen hilft, ihre schwierigsten strukturellen Probleme zu lösen: Governance, Tokenomics, Staking-Design, Node-Operationen und Go-to-Market.

Haftungsausschluss: Die auf dieser Website veröffentlichten Artikel stammen von öffentlichen Plattformen und dienen ausschließlich zu Informationszwecken. Sie spiegeln nicht unbedingt die Ansichten von MEXC wider. Alle Rechte verbleiben bei den ursprünglichen Autoren. Sollten Sie der Meinung sein, dass Inhalte die Rechte Dritter verletzen, wenden Sie sich bitte an crypto.news@mexc.com um die Inhalte entfernen zu lassen. MEXC übernimmt keine Garantie für die Richtigkeit, Vollständigkeit oder Aktualität der Inhalte und ist nicht verantwortlich für Maßnahmen, die aufgrund der bereitgestellten Informationen ergriffen werden. Die Inhalte stellen keine finanzielle, rechtliche oder sonstige professionelle Beratung dar und sind auch nicht als Empfehlung oder Billigung von MEXC zu verstehen.