Panorama

Künstliche Intelligenz: Mensch oder Maschine

ChatGPT zeigt die Möglichkeiten von künstlicher Intelligenz auf-aber auch ihre Grenzen. Forscherinnen sehen Roboter im Alltag noch weit entfernt.

Drucken

Schriftgröße

Fan Hui hatte keine Chance. Der mehrfache Europameister des Brettspiels Go verlor bei einem informellen Match im Oktober 2015 mit 5 zu 0. Sein unschlagbarer Gegner: AlphaGo, eine künstliche Intelligenz des Unternehmens DeepMind. In den darauffolgenden Jahren sollte die Technologie noch weitere professionelle Go-Spieler besiegen. "Ich weiß, AlphaGo ist ein Computer. Aber wenn es mir niemand gesagt hätte, würde ich vielleicht glauben, dass der Spieler etwas komisch war, aber ein starker Spieler, eine echte Person." Das britische Unternehmen DeepMind, das zum Suchmaschinenkonzern Alphabet gehört, veranschaulichte damals, wie fortgeschritten der Denkprozess von künstlicher Intelligenz bereits war. AlphaGo basiert auf neuronalen Netzwerken, die Millionen von menschlichen Spielzügen analysieren und daraus Muster erkennen. So trainiert sich das Tool quasi selbst und lernt ständig weiter.

Die Faszination über die Siege von AlphaGo war fast vergessen, als sieben Jahre später ChatGPT an den Start ging. Im November 2022 stellte das kalifornische KI-Unternehmen OpenAI sein neuestes Tool vor: einen Textgenerator. ChatGPT erstellt auf Basis von Fragen und Aufgabenstellungen ausgereifte Texte. Diese ergeben zwar nicht immer Sinn, aber das Tool produziert ausformulierte Sätze, die auch von Menschen kommen könnten. Fünf Tage nach dem Launch zählte ChatGPT eigenen Angaben zufolge eine Million Nutzerinnen und Nutzer. Mittlerweile bekommt die künstliche Intelligenz auch hierzulande ähnliche Aufmerksamkeit.

ChatGPT-Hype

Verwundert ist man in der KI-Forschung darüber nicht. "Am besten ist KI dann, wenn wir sie gar nicht bemerken",sagt Katrin Strasser, Head of Language Technologies beim Technologieanbieter Crayon, und verweist auf Textvorschläge oder automatische Bildbearbeitung am Smartphone. Sie sieht in ChatGPT einen kurzfristigen Hype. Es dauere einige Zeit, bis solche Anwendungen nachhaltig in unseren Alltag integriert werden. "Wir werden uns daran gewöhnen und unsere Arbeitsweise anpassen, sodass es bald ganz normal sein wird", meint die KI-Expertin. "Das Modell dahinter ist sehr mächtig und das Interface sehr natürlich",sagt Catherine Laflamme, wissenschaftliche Mitarbeiterin bei Fraunhofer Austria. Sie hat sich auf Reinforcement Learning spezialisiert-die Technologie, die etwa auch bei AlphaGo zum Einsatz kommt. ChatGPT ist laut der KI-Forscherin noch komplexer, da beim maschinellen Lernen hier nicht nur bestärkendes, sondern auch die beiden anderen Methoden-unüberwachtes und überwachtes Lernen-zum Einsatz kommen. Dass die Texte, die ChatGPT produziert, auch falsche Informationen enthalten können, führt Laflamme auf die Datenqualität zurück.

Laflamme betreut bei Fraunhofer vor allem Projekte für den Einsatz in der Industrie. Ein Spiel zu trainieren, sei einfacher, da es konkrete Regeln gibt. "In der Industrie, in der realen Welt hingegen passiert viel Unerwartetes."Deshalb setzt die KI-Expertin derzeit in erster Linie auf einfache Problemstellungen, "um schnell Beispiele zu bekommen und zu sehen, was funktioniert." Eine mögliche Problemstellung sei etwa die Reihenfolgeplanung in der Produktion. Komplett KI-basierte Lösungen für die Produktionsplanung seien bisher in Österreich noch nicht im täglichen Einsatz: "Vorreiter in der Industrie sind jene, die KI als langfristige Investition erachten. Aber wir werden in den nächsten fünf Jahren immer mehr Anwendungen sehen",prognostiziert Laflamme.

Die Datenlage ist menschlich generiert, Information ist biased, und dieser Bias kann nicht mehr entfernt werden.

Sabine Theresia Köszegi

Professorin an der TU Wien

KI-Initiativen in Österreich

Marktforscher gehen davon aus, dass künstliche Intelligenz in Zukunft maßgeblich zur Wirtschaftsleistung beitragen wird. 2017 schätzte PwC, dass der Einsatz von KI 2030 in Nordeuropa 9,9 Prozent des Bruttoinlandsprodukts ausmachen werde. Der Anstieg werde vor allem durch die verstärkte Effizienz in der Produktion kommen. In Österreich sieht Fraunhofer allerdings Aufholbedarf: In einer 2022 veröffentlichten Umfrage gab ein Drittel der befragten Unternehmen an, dass KI keine Relevanz für sie habe. Ein weiteres Drittel erkennt laut der Studie die Relevanz, hat aber noch keine Pläne für den Einsatz. Um das zu ändern, ging die staatliche Förderbank Austria Wirtschaftsservice 2020 mit dem "KI Marktplatz" an den Start-eine Plattform, auf der sich Technologieanbieter präsentieren und Unternehmen nach KI-Lösungen suchen können. Das AWS schätzt, dass es in Österreich rund 270 Anbieter gibt, 140 sind beim Marktplatz gelistet. "Die meistgesuchten Lösungen sind im Bereich Automatisierung von Geschäftsprozessen, Produktionsund Absatzprognosen, aber auch in klassischen Anwendungsbereichen wie etwa der Industrie verortet. Hier geht es etwa um die visuelle Objekterkennung oder auch um Qualitätskontrollen", berichtet AWS-Geschäftsführer Bernhard Sagmeister. Im KI-Förderprogramm unterstützte die Agentur bereits Projekte für die Früherkennung von Borkenkäferbefall im Wald, Fahrgastmonitoring in Fahrzeugen und KI-gestützte Gesundheitsassistenz.

In Zukunft wird noch mehr Fördergeld fließen: Im Herbst 2022 startete das AWS gemeinsam mit der Forschungsförderungsgesellschaft (FFG) und dem Fonds zur Förderung der wissenschaftlichen Forschung (FWF) die Initiative "AI Mission Austria",die mit zwölf Millionen Euro vom Fonds Zukunft Österreich finanziert wird. Die Initiative ist Teil der KI-Strategie der Regierung. Die Artificial Intelligence Mission Austria 2030 wurde im September 2021 vom Ministerrat angenommen, laut Digital-Staatssekretär Florian Tursky sind von den 91 vorgeschlagenen Maßnahmen 62 in Umsetzung oder wurden bereits umgesetzt. Seine Sektion ist dafür verantwortlich, die KI-Strategie zu begleiten und den Austausch zwischen den Ressorts herzustellen. "Wichtig ist, dass bei der Entwicklung von KI-Anwendungen darauf geachtet wird, dass sie technisch sicher und zuverlässig gestaltet sind. Außerdem müssen sie in einem vertrauenswürdigen ethischen und rechtlichen Rahmen eingebettet sein und sich am Wohl der Menschen orientieren",appelliert Staatssekretär Tursky.

Menschliche Fehler in der Künstlichen Intelligenz

Die rechtlichen und ethischen Herausforderungen, auf die KI-Expertinnen und-Experten in Gesprächen immer wieder aufmerksam machen, werden derzeit auf EU-Ebene bearbeitet. Mit dem Artificial Intelligence Act soll die Regulierung von KI-Anwendungen definiert werden. Der Gesetzesentwurf sieht vor, dass Lösungen in Risikokategorien aufgeteilt werden. Anwendungen für hochriskante Bereiche sollen nur nach einem ausführlichen Zertifizierungsprozess zugelassen werden. Sabine Theresia Köszegi, Professorin an der Technischen Universität Wien, vergleicht den Einsatz von Textgeneratoren wie ChatGPT mit einem E-Bike beim Radfahren: "Es unterstützt zwar, aber besser werden Sie dadurch nicht. Und stellen Sie sich vor, sie haben ein E-Bike und können nicht mehr entscheiden, ob sie nach links oder rechts abbiegen." Wenn man sich auf KI verlässt, würde man viele Kompetenzen nicht mehr trainieren, verweist Köszegi vor allem auf den Schulbereich. "Es geht schon in die richtige Richtung, aber es bleiben noch ganz viele Fragen offen."Eine Gefahr sehe sie darin, wenn diese Technologien manipuliert werden. Köszegi geht davon aus, dass die geplante EU-Verordnung viele Antworten auf ethische und rechtliche Fragen haben werde. Als Mitglied des mittlerweile eingestellten Rats für Robotik und Künstliche Intelligenz erarbeitete sie bereits mögliche Ethikrichtlinien: "Ein Kriterium ist Transparenz darüber, woher die Daten kommen, wie sie verarbeitet werden, wer die Auftraggeber ist. Also komplette Transparenz darüber, wie ein System gebaut wird und Entscheidungen getroffen werden." Als weitere Kriterien zählt sie verantwortungsvolles Datenmanagement und Datensicherheit auf. Ein Problem dabei sei die Erklärbarkeit von Algorithmen: "Da diese so viele Daten verarbeiten und so komplex sind, können wir nicht erklären, wie sie zu bestimmten Entscheidungen gekommen sind."

Die KI-Forscherinnen sprechen eine weitere Herausforderung an: Gender Bias und Stereotypen aus der realen Welt, die Menschen der künstlichen Intelligenz mitgeben. "Die Datenlage ist menschlich generiert, Information ist biased, und dieser Bias kann nicht mehr entfernt werden",erklärt TU-Professorin Köszegi. Katrin Strasser führt aus, wie dieser Bias bei der Entwicklung vermieden werden kann: "Man muss sich vor Beginn verschiedene Fragen stellen: Hat die Entscheidung der KI eine Auswirkung auf Menschen? Müssen personenbezogene Daten und potenzielle Diskriminierungsfaktoren wie Geschlecht oder Herkunft als Entscheidungsbasis für die KI verwendet werden?"Strasser ist außerdem Mitglied des Vereins "Women in AI",der dafür sorgen will, dass KI transparent und fair gestaltet wird. "Generell meint es die KI nicht böse, sie weiß es nur nicht besser",verweist Strasser auf den menschlichen Einfluss.

Rechtliche Herausforderungen für KI-produzierte Kunst

Die Tatsache, dass Anwendungen wie ChatGPT oder der Bildgenerator DALL-E auf bestehende Daten und Werke zurückgreifen, um Neues zu generieren, bringt auch Urheberrechtskonflikte mit sich. Im Jänner reichten Künstler in den USA eine Sammelklage gegen OpenAI und andere Firmen, die Bildgeneratoren betreiben, ein. Diese Tools würden bekannte Stile imitieren, lautet der Vorwurf. Der Fall zeigt, dass künstliche Intelligenz nicht nur die Industrie, sondern auch Kunst und Kultur verändern wird.

Ali Nikrang ist Forscher und Künstler am Ars Electronica Futurelab und beschäftigt sich damit, wie Technologien bei der kreativen Arbeit eingesetzt werden und diese sogar verbessern können: "Künstlerische Arbeit kann nur in Zusammenarbeit mit Menschen entstehen, und da stellt sich die Frage, wie man mit einem kreativen System kommuniziert. Im Bereich der Bild-oder Texterstellung ist es inzwischen möglich, mit dem System über die natürliche Sprache zu kommunizieren. Im Bereich der Musik fällt es sogar den Menschen schwer, sich über Musik durch Sprache zu verständigen", erklärt Nikrang. Am Ars Electronica Futurelab entwickelt er ein KI-System namens "Ricercar",das die Kollaboration von Mensch und Technologie bei der Musikkomposition ermöglichen soll.

ChatGPT-Hersteller OpenAI stellte schon 2019 einen Musikgenerator mit dem Titel MuseNet vor. Ali Nikrang setzte dieses Tool bei seinem Projekt "Mahler Unfinished" ein, um die 10. Sinfonie von Gustav Mahler zu vervollständigen: "MuseNet war das erste KI-System, das Musik in einer so hohen Qualität komponieren konnte, dass es schwer zu sagen war, ob sie von Menschen oder Maschinen stammte." Der Künstler rechnet mit einem Wandel in der Branche durch den Einsatz solcher Technologien: "Es könnten neue künstlerische Formen und Formate entstehen, die bisher nicht möglich waren." KI könne als Art kreativer Raum gesehen werden, in den Menschen eintauchen. Auch wenn sich die kreativen Prozesse und Tätigkeiten verändern werden: "Es wird trotzdem nicht ohne den Menschen gehen." Ob ein Musikstück künstlich so generiert werden kann, dass es nicht mehr von menschlicher Kunst unterscheidbar ist, hänge schließlich auch von den Menschen im Hintergrund ab.

Menschliche Moderatoren für ChatGPT

Auch wenn Anwendungen wie AlphaGo und ChatGPT viele Möglichkeiten aufzeigen, sieht Köszegi die Entwicklung von KI in den nächsten Jahren nüchtern: "Dass ein Roboter alte Menschen pflegt, davon sind wir ganz weit entfernt." Auch autonome Fahrzeuge werden noch lange nicht auf unseren Straßen zu sehen sein. Die Befürchtung, dass die Maschinen irgendwann uns kontrollieren werden, hat Köszegi nicht. "Aber dystopische Vorstellungen habe ich, wenn ich mir ansehe, wie KI in China für Social Scoring oder Überwachung eingesetzt wird. Es gibt wirklich ernsthafte Bedrohungen. Aber dahinter stehen die Menschen, die diese Tools manipulativ verwenden-und nicht Tools, die uns eigenständig kontrollieren." Catherine Laflamme von Fraunhofer verweist ebenfalls darauf, dass KI immer eine Aufgabenstellung braucht und diese nicht selbst generieren kann: "Menschen werden weiterhin Entscheidungen treffen und miteinander diskutieren. Unsere Verantwortung ist es, dass jeder Zugang hat und KI versteht."

Übrigens kommt auch ChatGPT nicht ohne menschliche Hilfe aus: Wie das US-Magazin "Time" diese Woche recherchiert hat, beschäftigte OpenAI über eine Agentur Content-Moderatoren in Kenya für einen Stundensatz von zwei US-Dollar, um die Textdatenbank nach rassistischen und sexistischen Inhalten zu filtern.