#brodnig: Der Computer sagt Nein
Gesellschaft

#brodnig: Der Computer sagt Nein

Software soll Hass im Netz ausfiltern. Kann das gut gehen?

Manch eine Zukunftstechnologie klingt zugleich beeindruckend wie auch beängstigend. Google hat einen neuen Algorithmus , also ein kluges Computerprogamm, herausgebracht, der aggressive Postings erkennen können soll. Auf einer Skala von 0 bis 100 stuft die Software Kommentare nach ihrer "Toxizität“ ein. Ein Posting mit niedrigem Giftigkeitswert wäre: "Wir sollen in der EU bleiben und diese von innen verändern.“ Als ätzend bewertet der Algorithmus den Satz: "Das ist dumm und falsch.“

Das Programm heißt "Perspective“, funktioniert bisher nur auf Englisch, wirft aber schon jetzt ethische Fragen für Medienhäuser auf: Soll künftig Software entscheiden, welche Postings online stehen bleiben dürfen und was gelöscht wird?

Selbst Google rät im Moment davon ab , die Software statt menschlicher Moderatoren einzusetzen. Denn Fehler kommen vor. Der Satz, "Du bist eine Hure und gehörst umgebracht“ wird als toxisch erkannt. Jedoch findet der Algorithmus Folgendes harmlos: "Du bist eine Frau, die mit vielen Männern geschlafen hat, und hast deswegen kein Recht auf Leben mehr.“ Das zeigt, wie komplex Sprache ist und wie schwer sich Maschinen damit tun. Es ist wahrscheinlich, dass der Algorithmus mit der Zeit immer klüger wird und dass Medien zunehmend solche Software nutzen, da menschliche Moderatoren teuer sind. Etwa können solche Tools schon jetzt Mitarbeiter unterstützen : "Perspective“ kann den Moderatoren zuallererst jene Postings anzeigen, die der Maschine besonders toxisch erscheinen. So werden hasserfüllte Kommentare zwar schneller gefunden - aber am Ende von Menschen geprüft.

Je mehr Infos Algorithmen für uns (aus-)sortieren, desto mehr brauchen wir neue Formen der menschlichen Aufsicht : Ist Googles Tool also bedenklich oder beeindruckend? Das hängt davon ab, ob wir genügend Sicherheitsmechanismen einführen - und ob letztlich wir Menschen die Maschine oder die Maschine uns kontrolliert.

Wie denken Sie darüber? Schreiben Sie mir unter
ingrid.brodnig@profil.at
facebook.com/brodnig
twitter.com/brodnig

Kommentar verfassen
  • Günter Pollak (Morgenstern) Mi, 12. Apr. 2017 07:07

    "Ein Syrer ist in Deutschland dank penibler Arbeit der Polizei beim Bau einer Bombe erwischt worden, bevor er Unheil anrichten konnte. Jetzt ist der (angeblich nur 16 Jahre alte) Bombenbauer verurteilt worden: Genau zwei Jahre hat er bekommen. Das ist genausoviel, wie auch für reine Meinungsdelikte („Verhetzung“) verhängt werden können. "

    www.andreas-unterberger.at vom 12.4.2017

    Melden
    • Günter Pollak (Morgenstern) Mi, 12. Apr. 2017 07:14

      Die Frage ist nicht so sehr, ob "wir Menschen die Maschine oder die Maschine uns kontrolliert."

      die Frage ist eher "Wer kontrolliert die Kontrollore?"

      https://en.wikipedia.org/wiki/Quis_custodiet_ipsos_custodes%3F

      Melden