Agentic künstliche Intelligenz (KI) verspricht, die Arbeitsweise von Organisationen zu transformieren. Im Gegensatz zu früheren KI-Tools, die zum Zusammenfassen von Dokumenten oder zur Inhaltserstellung entwickelt wurdenAgentic künstliche Intelligenz (KI) verspricht, die Arbeitsweise von Organisationen zu transformieren. Im Gegensatz zu früheren KI-Tools, die zum Zusammenfassen von Dokumenten oder zur Inhaltserstellung entwickelt wurden

Laura I. Harder: Wie man Vorstände auf die Sicherheitsrisiken von Agentic AI vorbereitet

2026/03/19 13:28
6 Min. Lesezeit
Bei Feedback oder Anliegen zu diesem Inhalt kontaktieren Sie uns bitte unter crypto.news@mexc.com

Agentic künstliche Intelligenz (KI) verspricht, die Arbeitsweise von Organisationen zu transformieren. Anders als frühere KI-Tools, die für die Zusammenfassung von Dokumenten oder die Generierung von Inhalten entwickelt wurden, können diese Systeme autonom handeln, Aufgaben ausführen und mit Unternehmenssystemen interagieren. Für Vorstände, die Technologierisiken überwachen, führt dieser Wandel zu einer grundlegend anderen Kategorie von Sicherheitsbedenken. Laura I. Harder, Vizepräsidentin der Information Systems Security Association (ISSA) International und offensive Cyber-Offizierin in der U.S. Air Force Reserve, glaubt, dass viele Führungskräfte unterschätzen, wie schnell sich diese Risiken materialisieren können. "Das Risiko für Organisationen läuft wirklich darauf hinaus, zu viel Handlungsspielraum zu haben", sagt Harder. "Agenten können Berechtigungen ändern, Funktionalitäten ändern und Aktionen erstellen, die Sie möglicherweise nicht erwartet haben." Während Organisationen vom Experimentieren mit KI zur Operationalisierung autonomer Agenten übergehen, müssen Vorstände ebenso schnell handeln, um Governance-Strukturen, Leitplanken und Aufsichtsmechanismen zu etablieren, die in der Lage sind, Systeme zu verwalten, die Entscheidungen treffen und ohne menschliches Eingreifen handeln können.

Agentic AI verändert die Sicherheitsgleichung

In den letzten Jahren haben sich die meisten KI-Implementierungen in Unternehmen auf Tools konzentriert, die Informationen analysieren oder Outputs generieren. Diese Fähigkeiten führten zu Datenschutz- und Datenintegritätsbedenken, aber die Systeme selbst führten selten Aktionen innerhalb von Unternehmensumgebungen aus. Agentic AI verändert diese Dynamik. Anstatt einfach nur Empfehlungen anzubieten oder Lebensläufe zu filtern, können Agenten Workflows auslösen, auf Datenbanken zugreifen und mit Softwaresystemen in einer Organisation interagieren. "Es gibt uns jetzt nicht nur Ratschläge. Es ergreift Maßnahmen und handelt eigenständig", sagt Harder.

Laura I. Harder: How to Prepare Boards for the Security Risks of Agentic AI

Diese Autonomie schafft neue Sicherheitsherausforderungen, weil die Systeme manipuliert werden können. Genau wie Menschen auf Social Engineering hereinfallen können, können AI Agenten durch Techniken wie Prompt-Injection dazu gebracht werden, unbeabsichtigte Aufgaben auszuführen. Harder verweist auf reale Beispiele, bei denen versteckte Anweisungen, die in Eingaben eingebettet sind, das Verhalten der KI verändern. "Die KI wird sich auf der Grundlage der Anweisungen verhalten, die sie erhält", sagt sie. Diese Bedrohungen werden durch die undurchsichtige Natur vieler KI-Modelle verschärft. Organisationen verlassen sich oft auf Tools von Drittanbietern, ohne vollständige Transparenz darüber zu haben, wie Entscheidungen getroffen werden. Das Ergebnis ist ein System, das in der Lage ist, Aktionen auszuführen, während es auf eine Weise arbeitet, die schwer vorhersehbar ist.

Das versteckte Risiko, das Vorstände oft übersehen

Wenn Vorstände beginnen, Agentic AI zu bewerten, sagt Harder, ist die am meisten unterschätzte Schwachstelle die Berechtigungen. Jeder AI Agent arbeitet innerhalb eines Netzwerks von Systemen, Datenquellen und Anwendungen. Das Ausmaß des Zugriffs, der diesen Systemen gewährt wird, bestimmt den potenziellen Schaden, wenn etwas schief geht. Harder beschreibt dies als "Explosionsradius" des Systems. Ein Agent, dem umfangreiche Berechtigungen erteilt werden, kann möglicherweise mit weit mehr Daten und Infrastruktur interagieren, als Führungskräfte realisieren.

Ein häufiges Beispiel tritt auf, wenn KI-Systeme mit internen Kollaborationstools oder Dokumenten-Repositories verbunden sind. Wenn ein weit verbreiteter Ordner sensible Informationen enthält, kann ein Agent, der in dieser Umgebung arbeitet, auf diese Daten zugreifen und sie innerhalb der Berechtigungen nutzen, die dem Benutzer, Dienstkonto oder der Integration gewährt wurden, unter der er läuft. In der Praxis bedeutet dies, dass der Agent Informationen abrufen oder auf sie reagieren kann, die möglicherweise weitgehend zugänglich waren, aber nicht aktiv überwacht wurden.

KI-Dienste von Drittanbietern führen eine zusätzliche Risikoebene ein. "Wenn Sie ein Modell verwenden, auf welche Informationen hat dieses Modell Zugriff, und können Ihre Informationen verwendet werden, um dieses Modell zu trainieren?", fragt Harder. Ohne klare Kontrollen könnten geschützte Informationen, geistiges Eigentum oder sensible Kundendaten unbeabsichtigt durch KI-Interaktionen die Organisation verlassen.

Aufbau einer Governance, die mit der KI Schritt halten kann

KI-Governance muss als strukturiertes Programm und nicht als technologische Ergänzung behandelt werden. Organisationen sollten damit beginnen, einen dedizierten KI-Governance-Vorstand einzurichten, der oft nach bestehenden Datenschutz- oder Risiko-Governance-Komitees modelliert wird. Diese Gruppe sollte etablierte Frameworks wie das NIST AI Risk Management Framework oder internationale Standards wie ISO 42001 übernehmen. "KI-Governance und KI-Schutz zu haben, ist nicht nur ein Produkt, das Sie kaufen können", sagt sie.

Diese Frameworks bieten Leitlinien zu Richtlinien, Risikobewertungen und operativen Kontrollen. Sie erfordern jedoch weiterhin, dass Organisationen definieren, wie KI in ihrer Umgebung funktionieren soll und auf welche Daten sie zugreifen darf. "Sie benötigen Richtlinien, Verfahren und Inventare", sagt Harder. "Diese Teile helfen beim Aufbau der Infrastruktur, von der aus Ihre Teams arbeiten können." Eine aufkommende Praxis ist die Erstellung einer "KI-Stückliste", die jedes innerhalb der Organisation verwendete KI-Tool inventarisiert, mit welchen Systemen es sich verbindet und auf welche Daten es zugreifen kann. Ohne diese Transparenz können Organisationen die Exposition, die durch autonome Systeme entsteht, die mit der Unternehmensinfrastruktur interagieren, nicht vollständig verstehen.

Leitplanken, die verhindern, dass KI außer Kontrolle gerät

Selbst wenn Governance-Strukturen vorhanden sind, erfordern agentische Systeme technische Sicherheitsvorkehrungen, die ihre Funktionsweise einschränken. Die effektivste Strategie besteht darin, Sicherheitskontrollen von Anfang an zu entwickeln. Systeme sollten zunächst in geschlossenen, kontrollierten Sandbox-Umgebungen unter Verwendung von Testdaten (nicht Produktionsdaten) und mit eingeschränkten Berechtigungen entwickelt werden. "Wenn Sie Ihr agentisches System aufbauen, sollten Sie dies in einer Sandbox tun", sagt sie. "Es ist eine kontrollierte Umgebung, in der synthetische Systeme mit geringem Risiko und ohne Berechtigungen arbeiten können."

Tests müssen auch Red Teaming umfassen, bei dem Sicherheitsprofis versuchen, das System zu brechen oder sein Verhalten zu manipulieren. Diese Übungen legen Schwachstellen offen, bevor Systeme in Produktionsumgebungen eingesetzt werden. "Einen Menschen in der Schleife zu haben, stellt sicher, dass es eine Art Einschränkung gibt, wenn Ihr KI-Tool eine Entscheidung trifft, die Sie vielleicht nicht wollten", sagt Harder. Isolationstechniken können das Risiko ebenfalls begrenzen. In einigen Architekturen sind Agenten in virtuellen Maschinen enthalten, in denen Richtlinien einschränken, welche Befehle sie ausführen und auf welche Systeme sie zugreifen können.

Aufsicht durch den Vorstand ist letztendlich entscheidend

Für Vorstände ist der Aufstieg von Agentic AI eine Governance- und Rechenschaftsherausforderung, und Harder betont, dass Organisationen für die Handlungen verantwortlich bleiben, die ihre KI-Systeme ausführen. "Sie können nicht zurückgehen und sagen: 'Ich wusste nicht, dass es das tun kann'", sagt sie. "Sie müssen Ihre Sorgfaltspflicht erfüllen." Diese Verantwortung hat sowohl rechtliche als auch treuhänderische Implikationen. Vorstände müssen sicherstellen, dass autonome Technologien mit klarer Aufsicht, eingeschränkter Autorität und kontinuierlicher Überwachung implementiert werden. "Verbinden Sie Agenten nicht mit privilegierten Tools, bis Sie nachweisen können, dass sie eingeschränkte Autorität, menschliche Kontrollpunkte und Überwachung haben", sagt Harder. Während Agentic AI weiterhin von der Experimentierphase in den Kernbetrieb übergeht, werden die Organisationen erfolgreich sein, die Governance und Sicherheit als grundlegende Anforderungen und nicht als nachträgliche Überlegungen behandeln.

Folgen Sie Laura I. Harder auf LinkedIn für weitere Einblicke.

Kommentare
Marktchance
The AI Prophecy Logo
The AI Prophecy Kurs(ACT)
$0.01335
$0.01335$0.01335
-1.11%
USD
The AI Prophecy (ACT) Echtzeit-Preis-Diagramm
Haftungsausschluss: Die auf dieser Website veröffentlichten Artikel stammen von öffentlichen Plattformen und dienen ausschließlich zu Informationszwecken. Sie spiegeln nicht unbedingt die Ansichten von MEXC wider. Alle Rechte verbleiben bei den ursprünglichen Autoren. Sollten Sie der Meinung sein, dass Inhalte die Rechte Dritter verletzen, wenden Sie sich bitte an crypto.news@mexc.com um die Inhalte entfernen zu lassen. MEXC übernimmt keine Garantie für die Richtigkeit, Vollständigkeit oder Aktualität der Inhalte und ist nicht verantwortlich für Maßnahmen, die aufgrund der bereitgestellten Informationen ergriffen werden. Die Inhalte stellen keine finanzielle, rechtliche oder sonstige professionelle Beratung dar und sind auch nicht als Empfehlung oder Billigung von MEXC zu verstehen.