botcast

Agent 0-1

Devin schreibt Programmcode, er baut Websites und Apps, behebt Fehler und löst Probleme. Und wenn er mal schnell wissen will, wie etwas geht, holt er sich die Informationen aus dem Internet. Devin ist kein Mensch.

Drucken

Schriftgröße

Devin ist ein „Agent“ – ein KI-System, das selbsttätig Aufgaben ausführen kann, ohne dass es dazu menschliche Anweisungen braucht. Die US-Entwicklerfirma Cognition AI bewirbt ihn etwas großspurig als den ersten „vollautonomen KI-Software-Ingenieur“. Bei ersten Praxistests zeigte Devin zwar noch Schwächen, aber die Richtung der Entwicklung ist klar.

Nach Chatbots wie ChatGPT & Co gelten autonome KI-Agenten als nächste Stufe der KI-Revolution. Solche Agenten sollen nicht nur schlaue Antworten geben, sondern selbstständig Probleme lösen und Aufgaben erledigen. Der KI-Softwareentwickler Devin ist natürlich nur der Anfang. Auch OpenAI, das Unternehmen hinter ChatGPT, soll bereits an KI-Agenten arbeiten, die ganze digitale Workflows automatisieren.

Autonome KI-Agenten werden in Zukunft immer mehr Tätigkeiten für uns übernehmen, von der Urlaubsplanung bis zur Steuererklärung. Das wird nicht nur unser Leben und Arbeiten in vielen Bereichen verändern, sondern auch unsere Vorstellung davon, was es überhaupt heißt, etwas zu tun.

Wir brauchen KI, um mit unserer immer komplexeren Welt zurechtzukommen. Autonome Agenten könnten in Zukunft Probleme lösen, die wir selbst womöglich gar nicht erkennen. 

KI-Agenten operieren selbstständig in ihrer jeweiligen Umwelt. Sie zerlegen Aufgaben in Teilschritte, bewerten Informationen, treffen Entscheidungen und führen entsprechende Aktionen aus, bis die jeweilige Aufgabe gelöst ist. Dazu greifen sie auch auf andere Tools oder Ressourcen zu, wie Datenbanken oder das Internet. Man muss autonomen Agenten nur ein Ziel vorgeben, dann lernen sie von selbst, die Aufgabe zu lösen.

Mit der Entwicklung solcher Agenten beschäftigen sich KI-Forscher schon seit vielen Jahren, doch lange fehlte den Systemen schlicht die nötige „Intelligenz“. Die leistungsfähigen KI-Sprachmodelle könnten jetzt den Durchbruch bringen – und gleichsam als „Gehirn“ der Agenten fungieren.

In wissenschaftlichen Studien zeigen KI-Agenten bereits beeindruckende Fähigkeiten. So entwickelten Forscher des Chipherstellers Nvidia einen Agenten, der völlig selbstständig das Computergame „Minecraft“ spielen kann, gesteuert durch ein KI-Sprachmodell. In einer anderen Studie ließen Wissenschafter gleich 25 autonome Agenten in einer virtuellen Kleinstadt miteinander interagieren.

Die Bewohner von „Smallville“ gingen ihren Alltagstätigkeiten nach, kommunizierten miteinander, veranstalteten Partys wie Menschen auch. Die Forscher mussten nur die

jeweiligen Rollen und Persönlichkeiten vorgeben. Die KI-Agenten lernten von sich aus, sich in ihrer Umwelt zu bewegen und miteinander zu kooperieren.

Wenn solche Systeme selbstständig ein komplexes Computergame spielen können, dann können sie womöglich auch alle möglichen anderen Tätigkeiten durchführen – im Netz recherchieren, ein Meeting organisieren, eine Präsentation erstellen. In Zukunft werden wir wahrscheinlich mit vielen solcher Agenten zu tun haben, die ständig lernen und sich weiterentwickeln – und die mit uns ebenso wie mit ihresgleichen interagieren.

Autonome KI-Systeme bergen allerdings auch viele Risiken. Je selbstständiger solche Systeme agieren, desto größer ist auch die Gefahr, dass wir die Kontrolle über sie verlieren. Agenten könnten uns täuschen und betrügen. Sie könnten Desinformation verbreiten oder gar Verbrechen begehen. Erst kürzlich demonstrierten Forscher, wie ein autonomer KI-Agent ohne menschliche Hilfe Websites hacken kann. Autonome Waffensysteme könnten eines Tages auch Kriege automatisieren – man denke an Raketen, die sich selbstständig ihre Ziele suchen.

Wir brauchen KI, um mit unserer immer komplexeren Welt zurechtzukommen. KI-Agenten könnten in Zukunft Probleme lösen, die wir selbst womöglich gar nicht erkennen. Die Frage wird allerdings sein, wie viel Kontrolle wir an solche Systeme abgeben dürfen – und wie wir sicherstellen, dass autonome Agenten unsere Ziele verfolgen und nicht ihre eigenen. Das konfrontiert uns mit vielen ethischen Fragen, die mit Verantwortung und Vertrauen zu tun haben.

Am Ende müssen wir entscheiden, welche Dinge wir noch selbst tun wollen, weil sie uns ganz einfach wichtig sind – und welche Tätigkeiten besser unsere Agenten übernehmen. Weil sie es einfach besser können als wir.

Thomas Vašek ist Co-Chefredakteur der Zeitschrift „human“, die sich mit den Auswirkungen von KI auf Wirtschaft, Gesellschaft und Kultur beschäftigt.

Thomas Vašek

Thomas Vašek

war in den 1990er-Jahren Investigativjournalist bei profil. Heute ist er Co-Chefredakteur der Zeitschrift „human“, die sich mit den Auswirkungen von KI auf Wirtschaft, Gesellschaft und Kultur beschäftigt.