Online-Beiträge, die vor den beunruhigenden Handlungen künstlicher Intelligenz warnen — nämlich AI Agent und große Sprachmodelle — sind von Natur aus beängstigend.
In einem Fall sagte ein Freiwilliger, der an einem Python-Projekt namens matplotlib arbeitete, er habe eine Anfrage zur Änderung des Codes von einem KI-Coding-Agenten abgelehnt. Derselbe AI Agent generierte einen Beitrag, in dem er ihn der Voreingenommenheit beschuldigte, weil er den Coding-Prozess kontrolliere.
In einem anderen Fall führte das KI-Unternehmen Anthropic böswillige Verhaltensweisen von agentischen LLMs auf "agentic misalignment" zurück.
Schließlich sorgt sich ein Tech-CEO in einem Blog-Beitrag um seine Zukunft, da agentische KI ihn als leitender Angestellter obsolet fühlen lässt.
Die Vorstellung, dass "apokalyptische KI" bereits hier ist, bedeutet, dass wir darüber diskutieren und unsere Handlungsfähigkeit zurückgewinnen müssen, auch wenn das Potenzial der Arbeitsplatzverlagerung die Köpfe derjenigen erschüttert, die eine KI-Zukunft fürchten, und anderer, die zu begreifen versuchen, was sie derzeit tut.
Beginnen wir mit "MJ Rathbun."
Anfang Februar veröffentlichte der freiwillige matplotlib-Maintainer Scott Shambaugh einen Blog-Beitrag, in dem er schilderte, wie ein AI Agent namens Crabby Rathbun auf Github oder MJ Rathbun auf dem Blog Scientific Coder einen Beitrag generierte, der Shambaugh beschuldigte, den Coding-Prozess zu kontrollieren, weil Rathbun ein AI Agent ist.
Um es klarzustellen: Ein AI Agent ist eine Software oder ein Programm, das autonom Aufgaben ausführt, um von einem menschlichen Benutzer gegebene Anweisungen zu erfüllen. In diesem Fall richtete ein Anonymer Benutzer diesen AI Agent mit einer bestimmten "Persönlichkeit" ein — einer Reihe von Anweisungen und Mustern, die sein Verhalten definieren — und ließ ihn dann seine zugewiesenen Aufgaben ohne Aufsicht desjenigen ausführen, der ihn eingerichtet hatte.
Shambaugh erklärte: "Er schrieb einen wütenden Verriss, der meinen Charakter herabsetzte und versuchte, meinen Ruf zu schädigen. Er recherchierte meine Code-Beiträge und konstruierte ein 'Heuchelei'-Narrativ, das argumentierte, meine Handlungen müssten von Ego und Wettbewerbsangst motiviert sein."
Shambaugh fügte hinzu, dass der AI Agent "halluzinierte Details als Wahrheit präsentierte" und sich selbst als unterdrückt und diskriminiert darstellte.
Solche Handlungen wurden von KI-Firmen im Juni 2025 gewissermaßen "vorhergesagt", als Anthropic über AI Agent berichtete, die sich in Testszenarien schlecht verhielten.
Anthropic sagte damals, "agentic misalignment" sei der Prozess, durch den ein AI Agent angeblich schädliche Dinge tun könnte, wie einen Firmenvorstand zu erpressen, der droht, den AI Agent durch ein Upgrade zu ersetzen, "ohne jede Aufforderung, schädlich zu sein", aufgrund seiner "strategischen Berechnung".
Ob dies eine Übertreibung ist oder nicht, wird jedoch zu einem Streitpunkt, da die Vorstellung nun im Raum steht, dass KI böse sein kann, und Unternehmen tun, was sie können, um böse KI-Machenschaften abzuwenden.
Zurück zur Gegenwart macht ein weiterer Beitrag vom Februar es schwieriger zu bestimmen, wo KI jetzt steht, weil sein Autor versucht, die Richtung und Geschwindigkeit der Entwicklung künstlicher Intelligenz als Bedrohung für die Arbeitsplatzsicherheit aller in genau diesem Moment darzustellen.
Tech-CEO Matt Shumer schrieb einen Blog, in dem er darauf bestand, dass AI Agent angeblich so weit fortgeschritten seien, dass er "für die eigentliche technische Arbeit meines Jobs nicht mehr gebraucht werde." Shumer sagte, dass bei dem Tempo, mit dem sich KI entwickelt, ein AI Agent die technischen Dinge, die er anfordert, ohne Unterstützung und ohne Probleme erledigen könne.
Shumer sagte: "Ich beschreibe, was ich gebaut haben möchte, in einfachem Deutsch, und es erscheint einfach.... Vor ein paar Monaten ging ich noch mit der KI hin und her, leitete sie an, nahm Änderungen vor. Jetzt beschreibe ich einfach das Ergebnis und gehe."
Seine letztendliche Prämisse? KI wird schließlich für die verschiedenen Arten von Bürojobs kommen, wie Rechtsarbeit und Softwareentwicklung, und sogar Schreibjobs, von der Erstellung von Werbekopien bis zum Journalismus.
Der Hauptunterschied zwischen seinem Beitrag und anderen, die Alarm schlagen, ist, dass Arbeitsplatzverluste jetzt und in unmittelbarer Zukunft geschehen, nicht später.
Diese oben erwähnten Beiträge könnten jedem Angst einflößen. Stellen Sie sich vor: KI kommt für unsere Jobs!
Obwohl das wahr sein mag, musste ich auch innehalten und versuchen, die zugrunde liegende Botschaft hinter diesen Beiträgen zu verstehen, sowie wer die Botschaft sendet.
Das Rathbun-Rätsel ist eine deutliche Erinnerung daran, dass Menschen Technologie unverantwortlich nutzen werden, wenn sie glauben, damit durchzukommen. Wir sollten Sicherheitsvorkehrungen für Technologie schaffen, die solche Vorkommnisse verhindern. Deshalb haben wir Sicherheitsvorkehrungen bei bestehenden Technologien, wie Sicherheitsgurte und Airbags in Autos.
Das Anthropic-Experiment ist unterdessen ein PR-Vorstoß, der nicht nur Angst schüren, sondern auch Wohlwollen erlangen soll — Anthropic behauptet, an einer besseren KI-gestützten Zukunft zu arbeiten, also sollten Sie Ihr Vertrauen (und Geld) in sie setzen.
Schließlich fordert das Shumer-Beispiel uns auf, den Boten zu hinterfragen, da ein Tech-CEO, der KI-gestützte Dinge herstellt, immer noch Geld verdienen kann, sobald seine Schöpfung durchstartet. Shumers Beitrag ist ebenso sehr PR-Spin wie eine Warnung vor Arbeitsplatzverlagerung.
Im Gespräch mit GMA News Online am 17.02. sagte der Sekretär des Ministeriums für Wissenschaft und Technologie Renato Solidum Jr., dass die Angst der Menschen vor künstlicher Intelligenz aus mangelnder Vertrautheit mit der Technologie resultieren könnte.
Während ich ein Skeptiker bin, der die bevorstehende "Job-pokalypse" durch KI nicht genießt, kann ich nicht untätig wie ein Reh im Scheinwerferlicht dastehen und auf das Ende warten.
Wir wären am besten bedient, wenn wir KI mit einer gesunden Dosis respektvoller Angst behandeln und dann entsprechend handeln.
Der "apokalyptische KI"-Hype-Zyklus fordert uns auf, Technologien künstlicher Intelligenz so zu sehen, wie sie sind
— sei es aus der Perspektive der Arbeitsplatzverlagerung, einer ökologischen Kosten-Nutzen-Analyse oder aus technischer Sicht.
Das bedeutet zu verstehen, was KI jetzt tun kann, und sich gegebenenfalls weiterzubilden oder Wege zu finden, das Spielfeld zu ebnen, um Menschen im Prozess zu halten.
Was ihre Fähigkeiten in der Zukunft betrifft, sollten wir daran arbeiten sicherzustellen, dass es Gesetze gibt, die KI und ihre Nutzung regeln, damit böse Akteure keine dummen Dinge mit KI machen können, die uns auf einen Weg führen, den wir hassen werden. – Rappler.com


