Kolumne

Heimliche Mitarbeiterin: KI

Es wird Zeit, dass wir endlich eine Etikette für künstliche Intelligenz entwickeln – sonst passieren peinliche Fauxpas.

Drucken

Schriftgröße

Was für eine Blamage: Die US-Zeitschrift „Sports Illustrated“ fiel zuletzt mit eigenartigen Bildern und Texten auf. Manche ihrer Online-Artikel wurden von Autoren und Autorinnen verfasst, die sich als reale Person nicht ausfindig machen lassen. Einer dieser Autoren heißt „Drew Ortiz“. Nur findet man von diesem Herrn Ortiz weder Social-Media-Profile noch irgendwelche anderen journalistischen Texte. Schließlich stellte sich heraus: Sein Autorenfoto ist in Wirklichkeit von einer künstlichen Intelligenz erstellt worden. Man kann das Foto des Mannes auf einer Site kaufen, die darauf spezialisiert ist, Porträtbilder mittels KI zu produzieren. Aufgedeckt hat dies das Online-Medium „Futurism“. Die Sportzeitschrift streitet übrigens ab, dass sie künstliche Intelligenz genutzt habe, um Autor:innen-Profile zu erstellen und Texte schreiben zu lassen. Der Medienkonzern hinter „Sports Illustrated“ erklärte, man habe bloß eine externe Agentur beauftragt, Produktrezensionen zu verfassen, und manche der Mitwirkenden wären lieber anonym geblieben. Es bleibt also ein Streitfall, wie ungeschickt oder unfair das Vorgehen der Zeitschrift im Detail war. Nur eines ist eindeutig: Drew Ortiz, dieser adrette Mann mit braunen Haaren und blauen Augen, ist die Erfindung einer KI. Das bringt uns zu einem wichtigen Punkt: Wie viel Ehrlichkeit und Aufsicht braucht es in Zeiten der künstlichen Intelligenz – speziell im Berufsleben?

Viel wurde schon darüber diskutiert, dass KI eine Herausforderung für Schulen und Universitäten darstellt, weil manche Studierenden Aufgaben womöglich lieber an die KI auslagern. Das kommt allerdings auch im Berufsalltag vor. Die „Sports Illustrated“ fiel nicht als Erste negativ auf. Im Mai sorgte ein Rechtsanwalt für Gelächter: Er hatte für seinen Mandanten die Fluglinie Avianca geklagt und in seinen Unterlagen Gerichtsurteile zitiert – nur gibt es diese Urteile gar nicht. Der Anwalt, hatte ChatGPT zur Recherche genutzt und das unhinterfragt übernommen. Aus diesen Beispielen lassen sich schon zwei absolute Minimalanforderungen ableiten, wenn man künstliche Intelligenz nutzen, aber redlich vorgehen will:

Erstens: Bleiben Sie kritisch! Die Fußnoten, Statistiken oder Gerichtsurteile, die ein Chatbot wie ChatGPT anführt, können auch Humbug sein. Die Gefahr ist, dass „Large Language Models“ wie dieses, die mit riesigen Datenmengen trainiert werden, zwar den Stil vieler Textgattungen imitieren können – weil sie Muster nachahmen, die in Gerichtsdokumenten oder journalistischen Artikeln oft vorkommen. Aber solche Modelle fallen auch immer wieder damit auf, Angaben einfach zu erfinden. Wenn die KI falsche Angaben macht, nennt sich das „Halluzinieren“. Das Cambridge Dictionary hat „hallucinating“ sogar zum Wort des Jahres 2023 ernannt. Ich selbst finde es in vielen Fällen praktisch und hilfreich, sich Inspiration oder Denkanstöße von der KI zu holen, nur sollte man jede Tatsachenbehauptung der KI kritisch betrachten: Stimmt das wirklich oder klingt es nur so, als ob es stimmen könnte?

Zweitens: Seien Sie transparent! Sogenannte generative KI, die zum Beispiel Texte, Bilder oder auch Musik erstellt, liefert oft beeindruckendes Material – aber natürlich stellt sich die Frage, inwieweit man das ausschildern muss oder sich sonst mit fremden Federn schmückt. Forscher des Oxford Internet Institute haben die internen Regelwerke von 52 Medien weltweit analysiert – darunter der „Spiegel“, das „Svenska Dagbladet“ oder die „Financial Times“. Die allermeisten Dokumente fordern eine Offenlegung ein, sobald künstliche Intelligenz im Journalismus genutzt wird. Nur lassen einige Regelwerke offen, in welcher Weise Redaktionen den Einsatz von KI offenlegen sollen (wird das zum Beispiel innerhalb des Beitrags gesagt, klein gedruckt darunter oder in anderer Form?). Meines Erachtens besteht hier auch in professionellen Einrichtungen Klärungsbedarf, welche Transparenz angemessen ist. Solche Fragen beschäftigen viele Branchen – von Kanzleien bis PR-Firmen. Entscheidend erscheint mir die Überlegung: Was würde ich selbst fair finden, wenn ich nicht Verfasser oder Verfasserin des Dokuments bin, sondern Zielpublikum?

Mit diesen zwei Mindestauflagen lassen sich bereits einige peinliche Momente im Berufsleben vermeiden. Es gibt aber noch andere hilfreiche Überlegungen. Etwa: Verletze ich Urheberrecht? Wenn man zum Beispiel fremde Bilder oder Texte mit KI adaptiert, kann es sein, dass man das Urheberrecht anderer verletzt, was teuer werden kann. Auch stellt sich die Frage: Gibt es bei Anwendung der künstlichen Intelligenz eine unerwünschte Schlagseite? Zum Beispiel besteht die Gefahr, dass Bild-KIs eher weiße Menschen abbilden, wenn sie Personen in gut bezahlten Jobs darstellen sollen – Schwarze werden womöglich häufiger in Bildern dargestellt, die schlechter bezahlte Jobs zeigen. Diese Tendenz beobachtete das Medium „Bloomberg“ beim Test der Software Stable Diffusion. In solchen Fällen können Bilder-KIs gesellschaftliche Ungleichheiten und Vorurteile einzementieren. Ich halte es für unrealistisch, pauschal den Einsatz von generativer KI im Berufsleben abzulehnen: Sie ist oft wirklich hilfreich – aber umso mehr müssen wir darüber reden, ab wann der Einsatz unfair oder unprofessionell wird.

Ingrid   Brodnig

Ingrid Brodnig

ist Kolumnistin des Nachrichtenmagazin profil. Ihr Schwerpunkt ist die Digitalisierung und wie sich diese auf uns alle auswirkt.