Cyberama: Keine Angst vor künstlicher Intelligenz!

Warum wir uns vor künstlicher Intelligenz nicht fürchten sollten.

Drucken

Schriftgröße

Eine hochentwickelte künstliche Intelligenz könnte das Ende des Menschen bedeuten, prophezeit der Physiker Stephen Hawking. Der Silicon-Valley-Unternehmer Elon Musk hält Artificial Intelligence (AI) gar für die größte existenzielle Bedrohung der Menschheit. Und auch Microsoft-Gründer Bill Gates fürchtet, dass intelligente Maschinen eines Tages unserer Kontrolle entgleiten könnten. Die drei Leitfiguren der wissenschaftlich-technischen Welt haben mit ihren Äußerungen eine neue AI-Debatte entfacht. Ihre apokalyptischen Warnungen sind allerdings ebenso überzogen wie der Optimismus von Hightech-Euphorikern, die den Moment herbeisehnen, in dem Superintelligenzen endlich das Mängelwesen Mensch überflügeln. Tatsächlich glauben die meisten AI-Experten, dass wir von Maschinen, die den menschlichen Geist simulieren können, Lichtjahre entfernt sind. Der Technologiekritiker Jaron Lanier hält den "Mythos der künstlichen Intelligenz" sogar für gefährlicher als die Algorithmen selbst.

Kein Programm ist so schlau wie wir.

Das wahre Problem sind nicht autonome Superintelligenzen. Es sind eher geistlose Programme, die den Eindruck erwecken, als wären sie so schlau wie wir. Sogenannte "Deep-Learning"-Algorithmen werten gigantische Datenmengen aus, um daraus selbstständig Regeln abzuleiten, etwa für Mustererkennung oder Übersetzung. Mit menschlicher Intelligenz hat das wenig zu tun. Problematisch wird es erst, wenn wir Computerprogramme für intelligent im menschlichen Sinn halten. Die Gefahr liegt nicht darin, dass künstliche Intelligenzen eines Tages beschließen könnten, die Menschheit auszulöschen. Die Gefahr ist vielmehr, dass wir selbst die Algorithmen in die Lage versetzen, uns ernsthaft zu schaden, indem wir ihnen Fähigkeiten zutrauen, die sie gar nicht besitzen. Wie denken Sie darüber?

Bitte schreiben Sie mir unter