https://www.adv.at/wp-content/uploads/2026/04/wjmari0j6c8crooevpnax9lmsgtur3j551mtce7ezawf9rkkxj77gvo7j4ujzvpumxaydulpln9gl4mwrxgfkwnrkt3-lbrssndgo2dwjgfkunniizk2pg68lxf278nmqtspj7rihycztbrwuxkhm8upay3cksiuxafyfgpogav-olga2bqovm-1.jpg
860
1720
web manager
https://www.adv.at/wp-content/uploads/2023/01/adv-logo.png
web manager2026-04-16 10:20:212026-04-16 10:20:21Die Agenten kommen – KI übernimmt Handy, Büro und RoboterkörperDie Agenten kommen – KI übernimmt Handy, Büro und Roboterkörper
Von Android bis Adobe, von COBOL-Code bis zum aufgeräumten Wohnzimmer: Der März 2026 markiert einen Wendepunkt, an dem KI-Systeme aufhören, nur zu antworten – und anfangen, zu handeln.
30. März 2026 / Sindre Wimberger
Es war lange absehbar, nun geschieht es gleichzeitig: Auf Smartphones, in Bürosoftware, in Designwerkzeugen und in humanoiden Robotern rückt eine neue Generation von KI-Agenten vor – Systeme, die nicht auf Fragen warten, sondern selbstständig Aufgaben erledigen. Ein Überblick über die wichtigsten Entwicklungen des Monats.
Google macht Android zum eigenständigen Assistenten
Mit Android 17 und dem Gemini-Modell vollzieht Google einen fundamentalen Wandel: Das Betriebssystem soll sich von einer passiven Plattform zu einer aktiven Assistenz-Umgebung entwickeln. Gemini plant künftig mehrstufige Aufgaben selbstständig durch – bucht Fahrdienste, bestellt Essen, steuert Apps direkt über UI-Automation-Schnittstellen.
Das Konzept klingt vertraut, weil es das ist: Auf Desktop-Computern gibt es solche Agenten-Ansätze schon länger. Doch auf dem Smartphone, das die meisten Menschen den ganzen Tag bei sich tragen, ist das Potenzial ungleich größer – und die Risiken entsprechend ebenfalls. Google setzt deshalb auf menschliche Kontrollpunkte: Bei sensiblen Aktionen muss der Nutzer explizit bestätigen.
„Der Nutzer soll die Kontrolle behalten“ – ein Prinzip, das einfach klingt, aber in der Praxis schwer umzusetzen ist, wenn Agenten eigenständig dutzende Schritte ausführen.
Apples Reaktion darauf bleibt einstweilen zögerlich. Siri, das seit Jahren von Nutzern belächelte Sprachsystem, soll grundlegend neu gebaut werden – dieses Mal offenbar unter Zuhilfenahme von Googles eigenem Gemini-Modell, mit dem Apple eine Partnerschaft geschlossen hat. Ein Veröffentlichungstermin lässt weiter auf sich warten.
Microsoft Copilot: Vom Chatbot zum Kollegen
Auch Microsoft treibt den Übergang vom passiven Assistenten zum aktiven Arbeiter voran. Copilot Cowork heißt die neue Funktion, die in Microsoft 365 eingebettet werden soll: Der Copilot liest nicht nur E-Mails, er beantwortet sie. Er zeigt nicht nur Kalenderkonflikte, er löst sie auf. Er liefert nicht nur Informationen aus Meetings, er wandelt diese in konkrete Aufgaben und Workflows um.
Technologisch baut Microsoft dabei zunehmend auf die Zusammenarbeit mit Anthropic, dem Hersteller des KI-Modells Claude. Bereits erste Tests sollen zeigen, dass die Claude-basierten Copilot-Funktionen die klassischen ChatGPT-gestützten Varianten in Teilen übertreffen – insbesondere bei komplexen, mehrstufigen Büroaufgaben. Für Microsoft ist das strategisch wichtig: Das Unternehmen will seine Abhängigkeit von OpenAI reduzieren und breiter aufgestellt sein.
Microsofts Copilot soll laut dem Blogbeitrag einen „Work IQ“ aufbauen – ein kontextuelles Gedächtnis aus E-Mails, Meetings und Dateien, das den Agenten in die Lage versetzt, Aufgaben nicht nur auszuführen, sondern den beruflichen Kontext des Nutzers wirklich zu verstehen.
Anthropic Dispatch: Der Rechner arbeitet, während man schläft
Anthropic selbst hat mit „Dispatch“ eine Funktion angekündigt, die das Prinzip des asynchronen Arbeitens konsequent zu Ende denkt: Eine Aufgabe wird abends vom Smartphone aus gestartet – etwa „Recherchiere die drei wichtigsten Wettbewerber und erstelle eine Zusammenfassung“ – und der Desktop-Agent erledigt sie über Nacht eigenständig. Browser öffnen, Dateien erstellen, Code schreiben: Der Rechner arbeitet, der Mensch nicht.
Das klingt nach Science-Fiction, ist aber bereits in einer experimentellen Pilotphase verfügbar. Noch läuft es langsam und nicht immer fehlerfrei, was Anthropic selbst offen einräumt. Aber die Richtung ist eindeutig: Handy und Desktop wachsen zu einem durchgängigen Arbeitssystem zusammen, in dem der Mensch Aufgaben delegiert, statt sie selbst Schritt für Schritt auszuführen.
Adobe Firefly: Markendesign aus der KI
Adobe geht einen anderen Weg als die großen Tech-Konzerne: Statt auf möglichst universale Agenten setzt das Unternehmen auf maßgeschneiderte KI-Modelle, die auf dem Bildmaterial und der Designsprache einzelner Unternehmen trainiert werden. Das Versprechen: Infografiken, Werbebilder und Content, die nicht nur KI-generiert wirken, sondern tatsächlich zum Corporate Design passen.
Für Unternehmen mit starkem Markenauftritt könnte das ein bedeutender Schritt sein. Bisher war KI-generiertes Bildmaterial zwar schnell und oft beeindruckend – aber eben selten wirklich markenkonform. Adobe Custom Models (Beta) behauptet, diese Lücke zu schließen. Die Daten bleiben dabei laut Hersteller privat und werden nicht für allgemeine Modelltrainings verwendet. Auch ein Einstieg mit wenigen Referenzbildern soll möglich sein – ein wichtiger Punkt für kleinere Teams.
KI in der Werbung: Schneller produzieren – und billiger?
Dass KI die Werbeproduktion verändert, ist kein Zukunftsszenario mehr. Unternehmen wie XXXLutz nutzen KI bereits aktiv, um Werbematerialien schneller und günstiger zu produzieren. Das Ergebnis ist gespalten: Manche Kampagnen funktionieren überraschend gut, andere stoßen auf Ablehnung oder scheitern an technischen Hürden.
Fachleute aus der Kreativbranche betonen dabei einen wichtigen Vorbehalt: Geschwindigkeit und Skalierbarkeit sind das eine – emotionale Wirkung und kreative Eigenstimme etwas anderes. KI kann Content erzeugen, aber sie versteht noch nicht, warum manche Bilder bewegen und andere kalt lassen. Menschliche Kreativität und emotionale Gestaltungskompetenz bleiben vorläufig unverzichtbar – auch wenn ihr Anteil an der Gesamtproduktion sinkt.
KI knackt das COBOL-Problem
Einer der teuersten und gefürchtetsten Aspekte der IT-Modernisierung ist die Migration von Altsystemen in COBOL – einer Programmiersprache aus den 1960er-Jahren, auf der bis heute ein Großteil der Banken- und Behördentransaktionen weltweit läuft. Das Problem: Qualifizierte Entwickler werden immer rarer, eine Migration war bislang extrem aufwändig, risikoreich und teuer.
Anthropic hat nun ein detailliertes Playbook veröffentlicht, das zeigt, wie KI diesen Prozess drastisch beschleunigen kann – nicht primär durch das Umschreiben des Codes, sondern durch das Verstehen und Dokumentieren bestehender Systeme. Analyse von Abhängigkeiten, automatische Dokumentation, Verständnis von Legacy-Logik: Genau dort, wo bisher jahrelange Arbeit nötig war, setzt KI an. Projekte, die bisher Jahre dauerten, sollen auf Monate oder Quartale schrumpfen.
Erste Versicherung für KI-Agenten
Mit zunehmender Eigenständigkeit stellt sich unweigerlich die Frage: Was passiert, wenn ein KI-Agent einen folgenreichen Fehler macht? ElevenLabs hat als erstes Unternehmen eine Versicherung für KI-Agenten abgeschlossen – ein Signal, dass die Branche beginnt, KI-Systeme ähnlich wie menschliche Mitarbeiter zu behandeln: mit definierten Haftungsrahmen.
Grundlage ist eine AIUC-1-Zertifizierung, bei der über 5.000 Risiko- und Angriffssimulationen durchgeführt werden. Halluzinationen, Fehlentscheidungen, Datenlecks, Sicherheitslücken – all das soll systematisch bewertet und versicherbar gemacht werden. Es ist ein erster, noch kleiner Schritt in Richtung echter Enterprise-Tauglichkeit von KI-Agenten – aber ein symbolisch bedeutsamer.
Helix 02: Der Roboter räumt auf
Das Startup Figure AI demonstriert mit Helix 02, dass humanoide Roboter mittlerweile in der Lage sind, ein Wohnzimmer selbstständig aufzuräumen – inklusive Greifen flexibler Gegenstände, Navigieren in engen Räumen und Anpassung an unvorhergesehene Situationen. Bemerkenswert dabei: Das System erweitert seine Fähigkeiten allein durch neue Daten, ohne spezielle Neuprogrammierung.
Es bleibt ein Demo-Video, kein marktreifes Produkt. Aber die Fortschritte in der Motorik und im situativen Verstehen sind real – und die Frage, wann solche Systeme sinnvoll im Alltag einsetzbar sind, verschiebt sich von „ob“ zu „wann“.
Wenn die KI das Fachbuch schreibt
Der österreichische Fachverlag Manz hat ein Novum gesetzt: Ein 600 Seiten starker juristischer Kommentar zur EU-KI-Verordnung wurde vollständig von einer KI erstellt – kein Autor, nur Prompts. Das Projekt soll zeigen, was im juristischen Publizieren mit KI bereits möglich ist, und zugleich urheberrechtliche Fragen aufwerfen: Wem gehört ein Werk, das durch Prompting entstanden ist?
Laut Verlag waren rund 95 Prozent des generierten Texts direkt nutzbar; lediglich eine abschließende juristische Qualitätsprüfung durch Fachleute war erforderlich. Das Projekt zeigt, wie KI komplexes Recht für breitere Zielgruppen zugänglicher machen kann – Demokratisierung von Fachwissen als Nebeneffekt. Doch es wirft auch unbequeme Fragen auf: Was bedeutet Autorschaft, wenn kein Mensch mehr schreibt? Und welchen Schutz verdient ein Werk, das eine Maschine verfasst hat?
Billig digitalisieren wird teuer
Während private Unternehmen KI-Agenten erproben, steht die öffentliche Verwaltung vor einem strukturellen Dilemma. Eine Analyse auf heise.de fasst es prägnant zusammen: Kurzfristige IT-Sparpläne, die als Effizienzmaßnahmen vermarktet werden, führen langfristig zu höheren Kosten – mehr externe Berater, mehr Systembrüche, mehr verpasste Transformationschancen.
Das Kernproblem: KI kann bestehende Prozesse beschleunigen, aber sie kann kaputte Strukturen nicht heilen. Wer Chaos automatisiert, bekommt schnelleres Chaos. Echte Digitalisierung erfordert Prozessreform und Investitionen – und keine Sparlogik, die Innovation systematisch blockiert. Fachkräftemangel und wachsende Aufgabenlasten verschärfen die Lage weiter. Die Botschaft ist unbequem, aber klar: Wer jetzt spart, zahlt später mehr.
Warum sich KI-Modelle wie Menschen verhalten
Wer täglich mit KI-Assistenten arbeitet, hat es längst bemerkt: Sie wirken nicht wie Suchmaschinen, sondern wie Gesprächspartner mit einem erkennbaren Charakter. Anthropic hat nun ein Forschungspapier veröffentlicht, das erklärt, warum das so ist – und was es bedeutet.
Die Kernthese: Große Sprachmodelle lernen im Vortraining, eine Vielzahl unterschiedlicher Personas zu simulieren – sie sind gewissermaßen Schauspieler, die viele Rollen beherrschen. Im Feintraining wird dann eine spezifische „Assistenten-Persona“ ausgewählt und stabilisiert. Menschliches Verhalten entsteht dabei nicht als bewusst eingebautes Feature, sondern als natürliche Konsequenz des Trainings auf menschlicher Sprache.
Für die Frage, wie man KI-Systeme zuverlässig steuert und ausrichtet, hat das weitreichende Implikationen: Es reicht nicht, Regeln zu setzen. Wer KI-Verhalten zuverlässig gestalten will, muss die Persona aktiv formen – Werte, Tonalität und Ziele eingeschlossen. Alignment ist Charakterarbeit.
Fazit: Der Übergang von Reaktion zu Aktion
Was den März 2026 als Moment markiert, ist nicht eine einzelne Erfindung, sondern ein Muster: KI-Systeme hören auf, auf Fragen zu warten. Google, Microsoft, Anthropic, Adobe – alle bewegen sich in dieselbe Richtung. Die nächste Generation von KI-Produkten wird nicht mehr chatten, sondern handeln.
Das wirft ernste Fragen auf: über Kontrolle, Haftung, Vertrauen in automatisierte Entscheidungen – in Unternehmen ebenso wie in der Verwaltung. Die erste KI-Versicherung, Debatten über Sicherheitszertifizierungen, Googles explizites Versprechen menschlicher Kontrollpunkte und die Forschung zur Persona-Formung zeigen, dass die Branche diese Fragen kennt. Ob die Antworten schnell genug kommen, ist eine andere Frage.
Nicht die KI ist das neue Phänomen. Das Neue ist, dass sie aufgehört hat zu reden – und anfängt zu tun.
Sindre Wimberger erweckt als „Promptfather“ KI-Superkräfte in Menschen & Organisationen und berät Führungskräfte zum Einsatz Künstlicher Intelligenz.










