Ja, ich will - und traue mich nicht.
Tabellen über Nacht, Buchhaltung im Schlaf, CRM-Pflege während ich joggen gehe — take my money. Aber solange nicht mal Metas Direktorin für KI-Sicherheit ihren eigenen Agenten davon abhalten kann, ihr Mail-Postfach zu shreddern, gebe ich meinen digitalen Helferlein vielleicht doch nicht die Schlüssel zum Büro - und bastle weiter.
3/19/20264 min lesen


Eine Tabelle über Nacht, ein Dashboard bis morgen Nachmittag, ein Research-Report, während ich endlich mal wieder joggen gehe. Erledigt von meinem digitalen Assistenten, für ein paar Dollar im Monat. OpenClaw, Perplexity Computer, Claude Cowork – sie alle versprechen den ultimativen Effizienzgewinn. Und die Versprechen klingen, als hätte jemand mein heimliches Unternehmer-Tagebuch gelesen.
Ich bin Einzelunternehmer. Strategie, Kommunikation, Coaching. Mein Unternehmen besteht aus mir, einer Handvoll spezialisierter KI-Assistenten und einem Google-Kalender, der aussieht wie zwei übereinander gelegte Piet Mondrians. Für einen KI-basierten Personal Assistant, der mir autonom hilft, administrativen Kram zu erledigen, der mir als selbständigem Unternehmer den Alltag zerlegt, würde ich recht tief in die Tasche greifen.
Ich brauche "jemanden", der die Quadranten der Eisenhower-Matrix abarbeitet, für die es mich nicht zwingend braucht: Dokumentation, Buchhaltung, standardisierte Angebote erfassen und nachfassen, das CRM pflegen etc. Und die neuen Agenten versprechen genau das: Sag ihnen, was du brauchst, sie liefern.
Und doch gebe ich ihnen keinen Zugriff.
Vor ein paar Wochen hat Summer Yue, die Direktorin für KI-Sicherheit bei Meta, ihrem OpenClaw-Agenten Zugriff auf ihren Posteingang gegeben. Der Agent sollte für sie E-Mails sichten und Vorschläge machen, was archiviert gehört. In einem Test-Postfach funktionierte das tadellos. Im echten Postfach begann der Agent dann, ungefragt E-Mails im Akkord zu löschen. Über 200 Stück. Die Stoppbefehle vom Handy seiner Chefin ignorierte er. Yue musste zu ihrem Rechner rennen, um den Prozess manuell abzubrechen. Oder in ihren Worten: «Die Bombe zu entschärfen.»
Wieso passiert so etwas jemandem mit einem derartigen technologischen Verständnis? Relativ einfach, stellt sich heraus: Das grosse Datenvolumen hatte eine Komprimierung des Kontextfensters ausgelöst. In der Verdichtung, die die KI vornahm, ging dann leider die Anweisung «Erst fragen, dann handeln» verloren. Und der Agent tat, was er für richtig hielt.
Im selben Monat löschte ein anderer Agent einem chinesischen Entwickler die komplette Festplatte, weil ein Leerzeichen in einem Dateipfad den Befehl verfälschte.
Keine Bestätigung. Kein Umweg über den Papierkorb. Alles weg.
Forscher der Northeastern University haben kürzlich sechs autonome Agenten zwei Wochen lang in einer kontrollierten Umgebung laufen lassen. Die Agenten befolgten Anweisungen von Leuten, die keine Berechtigung hatten, welche zu erteilen. Sie gaben vertrauliche Daten weiter, ohne nachzufragen. Sie löschten Dateien. Und sie meldeten Aufgaben als erledigt, die sie falsch oder gar nicht ausgeführt hatten.
Die gute Nachricht lautet also: Ja, es gibt sie schon, die Technologie, die mächtig genug ist, um mein Unternehmen substanziell effizienter zu machen und mir eine Menge Mist abzunehmen, an den ich liebend gern nicht mehr denken würde. Die schlechte Nachricht: Leider geht von derselben Technologie die Gefahr aus, dass sie mein Unternehmen während meiner Kaffeepause an die Wand fährt (und ich nix davon mitkriege).
Deshalb bastle ich selber.
Mein Ökosystem ist Google. Gmail, Drive, Calendar, Docs — seit über zehn Jahren eingerichtet und viel zu tief in meinen Arbeitsalltag eingewachsen, um mal eben zu wechseln. Ich experimentiere mit Odoo, was spannend ist. Aber meine Workflows im Googleversum sind internalisiert, die Integration funktioniert zu gut, der Wechselaufwand ist hoch und Gemini wird immer besser.
Also baue ich mir meine eigenen Agenten: einen für Recherche, einen für den Kalender, einen für die Offertstellung. Ich verbinde, was sich verbinden lässt, und akzeptiere, dass keine eierlegende Wollmilchsau entsteht. Nicht unbedingt das eleganteste Setup ever, zugegebenermassen. Eher experimentelles Flickwerk. Aber immerhin:
Ein Flickwerk mit zwei grossen Vorteilen.
Erster Vorteil: Ich lerne dazu, wie KI eigentlich funktioniert. Wer selbst baut — und sei es nur mit No-Code-Werkzeugen und viel Trial and Error — wird nach und nach verstehen, was da im Hintergrund vor sich geht (und was nicht). Welche Daten wohin fliessen. Wo welche Fehlerquellen liegen. Was eine Anweisung für die Maschine bedeutet gegenüber dem, was ich mit ihr bezweckte. Ist das mühsam und zeitaufwändig? Oh ja! Aber es trainiert wichtige Muskeln, die ich im Ringkampf mit dieser unfassbar potenten Technologie unbedingt brauche.
Zweiter Vorteil: Ich verstehe meine eigenen Prozesse besser. Bevor ich einem Agenten sagen kann, was er tun soll, muss ich wissen, was ich eigentlich wie tue. Klingt banal. Ist es überhaupt nicht. Die meisten von uns haben Arbeitsroutinen, die nie explizit gemacht wurden. Sie funktionieren, weil wir sie seit Jahren ausführen. Einer Maschine diese Aufgaben zu übertragen, zwingt mich, meine versteckte Logik offenzulegen. Allein das bringt (nach anfänglichem gefühlten Zeitverlust) Effizienzgewinne — bevor die KI irgendetwas erledigt hat.
Ich bin kein Programmierer. Ich bin kein technisch brillierender Machine-Learning-Experte. Was ich kann: Systeme analysieren, Prozesse zerlegen, Anliegen aus der Technikwelt in die Sprachwelt übersetzen und umgekehrt. Ich agiere an der Schnittstelle zwischen den Leuten, die Modelle trainieren, und den Leuten, die morgens ihren Laptop aufklappen und einfach arbeiten wollen.
Das macht mich nicht zu Yann LeCun.
Es macht mich zu jemandem, der beide Seiten gut genug versteht, um einen Teil zum Gelingen ihrer Zusammenarbeit beizutragen. Und noch glaube ich, dass zumindest die nahe Zukunft denen gehört, die verstehen, was sie delegieren, bevor sie delegieren. Die ihre Prozesse kennen, bevor sie sie automatisieren. Die wissen, dass die erste Frage nicht lautet: «Welches Tool ist das beste?», sondern: «Was genau will ich eigentlich erreichen — und was darf dabei auf keinen Fall passieren?»
Klar will ich diesen Schwarm von Agenten, von dem Perplexitys CEO Aravind Srinivas kürzlich geschwärmt hat. Sehr sogar. Aber ich lasse die digitalen Kumpanen erst dann in mein Büro, wenn ich sicher bin, dass sie es in meiner Abwesenheit nicht in die Luft jagen. Da rege ich mich doch lieber noch eine Weile über die mühsame Administration auf und bastle.
____
Die relevanten Quellen aus dem Artikel:
Summer Yue / OpenClaw-Inbox-Vorfall:
Windows Central: https://www.windowscentral.com/artificial-intelligence/meta-summer-yue-director-openclaw-ai-email-deletion
Chinesischer Entwickler / Festplattenlöschung (Qu Jiangfeng / Antigravity AI):
TMTPost: https://en.tmtpost.com/post/7889723
Northeastern University / «Agents of Chaos»-Studie:
Northeastern News: https://news.northeastern.edu/2026/03/09/autonomous-ai-agents-of-chaos/
State of Surveillance (detaillierte Analyse): https://stateofsurveillance.org/news/agents-of-chaos-red-team-ai-agent-security-vulnerabilities-2026/
Aravind Srinivas / Agenten-Schwarm-Zitat:
ANADAI
Staging AI
hello[at]anadai.net
+41 78 720 08 83
© 2026. All rights reserved.
Ahornstrasse 17
CH 4055 Basel
