Künstliche Intelligenz

ChatGPT, erstell mir ein Wahlprogramm

Comic-Pamphlete, Wahlplakate, Instagram-Postings: Wo die KI für Österreichs Parteien arbeitet und ab wann das zum Problem wird.
Eva  Sager

Von Eva Sager

Drucken

Schriftgröße

Man hätte es ahnen können, aber das mit der Künstlichen Intelligenz ist doch nicht so einfach. Natürlich, am Anfang war sie erst einmal lustig. Der Papst im weißen Balenciaga-Daunenmantel, Hausaufgaben via ChatGPT, „Garnelen-Jesus“ (KI-geneiertes Bild von Jesus, er besteht aus Meeresfrüchten, beliebt bei mittelalten Damen auf Facebook). Aber seit eine Desinformationswelle nach der anderen Social Media überflutet und so manche mittelalte Dame den „Garnelen-Jesus“ plötzlich für echt hält, blickt man etwas besorgter auf den neuen digitalen Helfer. Die große Frage: Könnte uns das alles in einem Wahlkampfjahr nicht um die Ohren fliegen? Oder gehört die KI in der politischen Kommunikation schon längst zur Grundausstattung?

Österreichs Parteien haben bereits erste Gehversuche mit der neuen Technologie unternommen: Die Sozialdemokratie agitierte kürzlich mit einem von ChatGPT erstellten Märchenbuch gegen die Industriellenvereinigung (IV). „Knills Märchen“: Es handelt vom unfähigen „König Karl“, dessen Untertanen völlig verarmen und die er auf Ratschlag des bösen „Zauberers Knill“ einfach noch länger arbeiten lässt. Bundeskanzler Karl Nehammer, IV-Präsident Georg Knill, 41-Stunden-Woche? „Abrakadabra simsalabim – ich mach die Wirtschaft und den Österrreicher hin“? Sie verstehen. 

In der Löwelstraße wurde man also kreativ – beziehungsweise ChatGPT wurde es. Dass Text und Bilder des Märchens KI-generiert sind, wird übrigens auf der letzten Seite des Comics ausgeschildert. Richtigerweise, wie die SPÖ-Bundespartei findet: „Wir sind prinzipiell für eine Kennzeichnungspflicht für KI-generierte Inhalte, natürlich auch im Wahlkampf.“ Abseits von diesem Beispiel nutze man die KI noch nicht institutionalisiert, sondern „punktuell und vorwiegend intern“. Stichwort Zusammenfassungen. Ähnlich ist das bei den Neos, dort heißt es: „Wir nutzen manchmal KI, um Inhalte zu checken oder vorhandene Texte zu komprimieren, aber wir verwenden keine KI-generierten Bilder.“ Man folge klaren Richtlinien, oberstes Gebot sei es, alle Inhalte final von Menschen freizugeben. FPÖ und Grüne halten sich in Sachen KI noch zurück, während die FPÖ auf profil-Nachfrage sagt, „grundsätzlich nur mit natürlicher Intelligenz“ zu arbeiten, verwenden die Grünen ausschließlich Grafikprogramme mit integrierten KI-Tools. Die ÖVP wollte sich zu ihrer KI-Nutzung nicht äußern, profil erhielt bis zum Redaktionsschluss keine Antwort.

KI-generiertes Wahlplakat der freiheitlichen Arbeitnehmer.

Dabei sind König Karl und Zauberer Knill nur ein Beispiel. Während der steirischen Arbeiterkammer-Wahlen bewarben die Freiheitlichen Arbeitnehmer ihren Spitzenkandidaten Harald Korschelt als „Blue Harry“ im Blaumann, KI-Bearbeitung inklusive. „Beim Köper wurde etwas nachgeholfen”, sagt Korschelt heute. Der Wiener SPÖ-Gemeinderatsklub verwendet in Instagram-Postings teilweise KI-generierte Bilder, offengelegt wird die KI-Nutzung allerdings nicht. Die Differenz der Wiener Vorgehensweise zur bundesweit geforderten Kennzeichnungspflicht erklärt man auf profil-Anfrage so: „Wir möchten klarstellen, dass der SPÖ Rathausklub nicht Teil der (Bundes)Partei ist“ und man betont, „dass derzeit keine gesetzliche Kennzeichnungspflicht für KI-generierte Inhalte besteht.“

KI-generiertes Bildposting des SPÖ-Gemeinderatklubs.

Nun ist der Einsatz von Künstlicher Intelligenz in der politischen Kommunikation per se nicht unmoralisch. Jakob-Moritz Eberl, Wahlforscher am Institut für Publizistik- und Kommunikationswissenschaft an der Universität Wien, sagt: „KI kann genutzt werden, um effizient komplexe politische Inhalte anschaulicher und zugänglicher zu machen. Mit KI-erstellten oder -bearbeiteten Bildern können Botschaften visuell ansprechend vermittelt werden. Mit Hilfe von KI können gerade visuelle Inhalte auch leichter personalisiert werden – also im Sinne von personalisierten Inhalten für bestimmte potenzielle Wähler:innengruppen.“

KI würde dann zum Problem, wenn man sie für problematische Zwecke nutze. Beispiel: Die Verstärkung von Stereotypen, das Schüren von Ängsten mittels emotionaler Bilder. „Das heißt, es geht um den Anwender, nicht die Sache an sich“, sagt Eberl. „Ein weiteres Risiko besteht darin, dass KI für die Erstellung und Verbreitung von Desinformation genutzt wird. Manipulierte Bilder und Texte können schnell und effektiv verbreitet werden und sind echten Bildern und Texten oftmals zum Verwechseln ähnlich, was es schwierig macht, Wahrheit von Fiktion zu unterscheiden.“

„Fake News“ und Stereotype lassen sich allerdings auch ohne KI verbreiten. „Ich würde sogar sagen, dass sich der Aufwand weiterhin nicht unbedingt lohnt. Zumindest, was die problematischen Anwendungen von KI betrifft. Spricht man mit Fakterchecker:innen, versichern sie einem, dass dekontextualisierte Aussagen oder Bilder, weiterhin der häufigste Bestandteil von Desinformation im Netz bleiben“, sagt Eberl. Laut ihm spielen KI-Inhalte mit expliziter Täuschungsabsicht in österreichischen Wahlkämpfen momentan noch eine untergeordnete Rolle. „Ein verantwortungsvoller Umgang mit KI-Technologien im Wahlkampf ist aber sicherlich wichtig. Die Aufforderung richtet sich dabei insbesondere – aber nicht ausschließlich – an jene politischen Parteien, die auch ohne KI eher dazu bereit sind, Falschinformation zu verbreiten und Ängste zu schüren“, sagt er.

KI-generiertes Instagramposting der AFD.

In der Slowakei und Polen wurden während des Wahlkampfs durch Künstliche Intelligenz gefälschte Audiodateien in Umlauf gebracht. In Deutschland wirbt die teilweise rechtsextremistische Alternative für Deutschland“ regelmäßig mit hetzerischen KI-Bildern. Noch kann man das alles recht gut erkennen, aber die KI lernt dazu. Wie gesagt, das mit der Künstlichen Intelligenz ist doch nicht so einfach.

Eva  Sager

Eva Sager

seit November 2023 im Digitalteam. Schreibt über Gesellschaft und Gegenwart.