Information: Gedankenübertragung

Ein kalifornisches Unternehmen hat eine Hightech-Kopfhaube entwickelt, die es erstmals schafft, Gedanken und Gestik drahtlos auf Computer zu übertragen. Hirnforscher rätseln, wie dem Start-up-Unternehmen dieser Coup gelungen ist.

Lässt sich ein Videogame nur mit Gedanken und ohne jeden Joystick spielen, wie das kalifornische Unternehmen Emotiv Systems behauptet? Das will der Reporter genau wissen. In einem Designerloft im Industrieviertel von San Francisco sitzt er auf einer Ledercouch und verfolgt auf einem Flachbildschirm angespannt das Videospiel „Harry Potter und der Feuerkelch“. Auf dem Kopf trägt er eine Hightech-Haube, die an einen minimalistischen Fahrradhelm erinnert.

Harry Potter und seine Freunde Hermione und Ron sind auf der Flucht. Sie schlagen sich wacker durch eine gotisch-düstere Landschaft. Plötzlich versperren ihnen herabgestürzte Felsbrocken den Weg. Der Held versucht es mit dem Zauberspruch „Wingardium Leviosa!“. Doch trotz der Magie rührt sich das Geröll nicht vom Fleck. Harry ist bereits mehreren Todessern entkommen, hat Sumpfkrattler abgewehrt und sich an den blauen Bertie-Botts-Bohnen gestärkt – da sollte der Wald-und-Wiesen-Brocken doch keine unüberwindliche Hürde darstellen. „Konzentrieren!“, ertönt es aus dem Hintergrund. „Nimm die Hände zu Hilfe.“ Der Reporter streckt die Arme nach vorne und stellt sich vor, den Stein in die Lüfte zu hieven. Die beiden anderen Jungmagier eilen ihm zu Hilfe, die Beschwörungsformel „Wingardium Leviosa!“ dringt erneut aus den Lautsprechern – und das Hindernis schwebt wundersam zur Seite.

Ohne Joystick, kabellos, nur über die Hightech-Haube von Gedanken gesteuert.

Mit derartiger Hightech-Magie will Emotiv bald den Markt für Videospiele aufrollen. Woran andere Forscher seit Jahren mühsam tüfteln, nämlich Gehirn und Maschine miteinander zu verschmelzen, das haben die australischen Jungunternehmer Tan Le und Nam Do nun scheinbar im Handumdrehen gelöst. Die erste öffentliche Vorführung ihrer Wunderhaube fand im März bei der Spielemesse Game Developers Conference in San Francisco statt. Le und Do verblüfften dort Anwender und Forscher gleichermaßen.

Die wundersame Haube erkennt zwölf unterschiedliche Handlungen und reagiert auf Stimmungen und Mimik vom Stirnrunzeln bis hin zum Augenrollen. „Die Bedienung von Computern soll natürlicher werden. Sie soll eine nahtlose Erweiterung unseres Willens werden“, erklärt Do, ein junger Mann in weißer Lederjacke und Jeans, die Unternehmensphilosophie. „Der Mensch denkt sich etwas aus, die Haube erfasst seine Absicht, und die Maschine führt sie aus.“

Noch hütet sich das Unternehmen aus Konkurrenzgründen, die genaue Funktionsweise der Kappe zu entlarven. Einen Hinweis auf deren Technik gibt jedoch der Umstand, dass der wissenschaftliche Kopf von Emotiv Systems Allan Snyder ist, einer der weltweit führenden Hirnforscher. Er leitet ein Zentrum für Bewusstseinsforschung an der australischen Universität von Sydney. Der Physikprofessor war bislang vor allem bekannt dafür, mittels Magnetstimulation durch die Schädeldecke die Aktivität einzelner Hirnregionen kurzzeitig zu reduzieren und so im Menschen zuvor schlummernde Kreativität freizusetzen (siehe Kasten rechts).

Die Entwicklung kommt nicht aus heiterem Himmel. Der Grazer TU-Professor Gert Pfurtscheller, einer der Pioniere des Fachs, begann schon in den frühen neunziger Jahren, mit Gedankenübertragung an einen Computer zu experimentieren. Ihm gelang es, eine Armprothese allein durch Gedanken zu bewegen, allerdings noch nicht drahtlos. Auch andere Unternehmen arbeiten längst an verwandten Projekten. So können etwa Forscher des Softwarekonzerns Microsoft aufgrund systematischer Analysen der Gehirnströme von Computernutzern sagen, ob eine Person sich ausruht, sich mit einem Computerspiel beschäftigt oder Rechenaufgaben löst. Das Unternehmen NeuroSky im kalifornischen San Jose entwickelt zudem einen Sensor, der die Gedankenkraft bündelt und Befehle sendet. Unauffällig am Kopf getragen, können Nutzer damit Computerspiele steuern, sagt Firmenchef Stanley Yang. Beim Autofahren könne der Sensor einen übermüdeten Lenker warnen. Angeschlossen an einen MP3-Player, könnte das Gerät bei anhaltend depressiver Stimmung penetrant aufmunternde Melodien spielen. Schließlich arbeiten seit Jahren auch Grundlagenforscher – Informatiker, Ingenieure und Neurologen – in weltweit mehr als 300 Labors an der Klärung der Frage, wie sich die Intentionen einer Person in Steuerungsbefehle übersetzen lassen.

Sie alle nutzen die Tatsache, dass Gedanken auf der Hirnrinde von einem elektrischen Gewitter begleitet werden. Dessen Echo auf der Kopfhaut erfasst ein Elektroenzephalogramm (EEG), das von dutzenden an einer Art altmodischen Badekappe befestigten und über Kabel mit einem Rechner verbundenen Sensoren aufgenommen wird. In ein „Brain Computer Interface“, wie man die Schnittstelle auch nennt, verwandelt sich das EEG, indem intelligente Software in dem Datenrauschen nach markanten Mustern von so genannten neuronalen Bereitschaftspotenzialen sucht, die als Kommandos deutlich entschlüsselbar sind. Das weckt nicht nur in der Videospielbranche Erwartungen. Behinderten gibt es Hoffnung, eines Tages Prothesen und Rollstühle zu steuern – oder mit einem Cursor schriftlich zu kommunizieren, sollten ihnen andere Möglichkeiten verwehrt sein.

Hohe Kunst. Doch das Chaos der Nervenimpulse zu entwirren, die uns ständig durch die Großhirnrinde schießen, ist eine hohe Kunst. „Das ist etwa so, als ob Sie bei einer Cocktailparty eine unter vielen Stimmen verständlich herausfiltern wollten“, erklärt Klaus Robert Müller, Spezialist für Datenanalyse am Berliner Fraunhofer-Institut für Rechnerarchitektur und Softwaretechnik. Wird es detaillierter gewünscht, müsste man die Elektrodrähte schon direkt in die Großhirnrinde einsetzen. Das wagte vor einigen Jahren Miguel Nicolelis von der Duke University in North Carolina bei einem Makaken – er pflanzte dem Tier 320 Elektroden ins Gehirn, die dort motorische Neuronensignale analysierten. Zunächst steuerte der Affe einen Roboterarm nur mithilfe eines Joysticks. Doch dann, von einem Augenblick auf den anderen, ließ der Affe den Steuerhebel los – und lenkte den Arm nur mithilfe seiner Gedanken. „Das war der Wendepunkt meines Lebens“, erklärte Nicolelis später. „Es hat unser Forschungsfeld völlig revolutioniert: Denn die Affendame Aurora hat sich vom Körper frei gemacht und nutzte nur das, was sie ständig produzierte: elektrische Impulse in ihrem Gehirn.“

Für Menschen birgt diese Prozedur große Risiken. Doch es gibt einen, der es freiwillig auf sich genommen hat, diese Technologie zu testen: der heute 27-jährige Amerikaner Matthew Nagle. Seit ihm ein Widersacher vor sechs Jahren bei einer nächtlichen Schlägerei ein Messer ins Rückgrat stieß, ist Nagle vom Hals abwärts querschnittsgelähmt. Heute ist der einst passionierte Football-Spieler der erste Cybermensch der Welt. Der Neurotechnologe John Donoghue von der Brown University im US-Bundesstaat Rhode Island hat Nagle einen winzigen Chip direkt auf die motorischen Areale seiner Hirnrinde gesetzt, wo sie den Steuersignalen lauschen.

Diese sind jedoch nicht einfach zu lesen: Hunderttausende Nervenzellen „feuern“, wie Neurologen sagen, in dem Hände und Arme steuernden Motorkortex. Die „Braingate“ genannte Technik registriert mithilfe von 100 winzigen Messfühlern all die Gehirnsignale, aus denen intelligente Software nach einem Lernprozess die Kommandos herausfiltert. Das gelingt trotz des Wirrwarrs nicht zuletzt, weil die Neuronen gemeinsam feuern, wenn ein Mensch beabsichtigt, den Arm zu heben. Diesen Umstand machen sich die Forscher zunutze – es genügt, einige wenige Nervenzellen zu belauschen, denn wenn ein Neuron feuert, kann man davon ausgehen, dass die anderen ebenfalls aktiv sind. Aber natürlich passt auch Nagle seine Hirnkommandos gedanklich an – zunächst stellte er sich etwa nur vor, eine Computermaus zu bewegen. Später erfasste er jedoch, wie er den Cursor direkt über den Bildschirm steuern konnte. So kann er inzwischen auch E-Mails öffnen, sich mit dem Computerspielklassiker „Pong“ am Bildschirm die Zeit vertreiben, den Fernsehkanal wechseln – und mit einem Roboterarm sogar Gegenstände aufheben.

Nagle wird auf absehbare Zeit die Ausnahme bleiben. Der Rest der Wissenschaft hofft darauf, das verrauschte Echo der Hirnmaschinerie auf der Kopfhaut zu entschlüsseln. Stellt man sich vor, den linken Arm zu heben oder einen Schritt nach vorne zu gehen, sind die Daten nach einer Testphase meist gut entschlüsselbar. Gewiss, das EEG-System ist noch etwas umständlich – und nicht so handlich wie die schicke Kopfapparatur von Emotiv. Es braucht auch einige Zeit, bis der Rechner erkennt, welche Gehirnströme bei einer Person „rechts“, „oben“ oder „unten“ bedeuten. Die Hirnwellen jedes Menschen tragen eben eine individuelle Signatur. Müller zeigt sich daher über Emotivs technischen Fortschritt durchaus überrascht: „Mir ist nicht klar, wie die das schaffen.“

Patent. Hakt man nach, wie die Wunderkappe funktioniert, geben sich die Emotiv-Chefs Do und Le zunächst zugeknöpft – man könne nichts sagen, der Patentantrag sei noch nicht genehmigt. Einen Hinweis will Le dann aber doch geben. Das wissenschaftliche Gehirn des Start-up-Unternehmens, Snyder, Direktor des Centre for the Mind von der University of Sydney, ist bekannt dafür, mittels transkranieller Magnetstimulation die Aktivität einzelner Hirnregionen kurzfristig drastisch zu reduzieren. Auf diesem Wege, legt Le nahe, konnte er motorische Areale im EEG-Experiment isoliert betrachten und ihren Fingerabdruck inmitten des Spannungsgewirrs besser erkennen. Veröffentlicht hat Le allerdings noch nichts zu diesem Thema. „Das wäre immerhin denkbar“, meint vorsichtig Günter Edlinger vom Grazer Unternehmen Guger Technologies, das für Forschungszwecke Gehirn-Computer-Schnittstellen baut (siehe Interview).

Dass die Prototypen funktionieren, daran gibt es jedoch keinen Zweifel. An Emotivs Messestand in San Francisco führten geduldige Mitarbeiter dem sich um die Sensation drängenden Publikum immer wieder die Vielseitigkeit des Wunderhelms vor. So bewehrt, wedelten sie bei Vorführungen rege mit ihren Armen, wenn sie mittels der Kappe ein Videospiel steuerten. Um einen Stein zu stemmen, hoben sie ihre Hände in die Höhe. Wollten sie den Bildausschnitt drehen, zeichneten sie mit dem Zeigefinger Kreise in die Luft. Wenn sie einen Gegenstand auf dem Bildschirm in den Hintergrund schoben, simulierten sie mit ihrem Körper genau diese Bewegung. Müller vermutet deshalb, dass die Kappe auch Muskelsignale verarbeitet, denn diese seien „bis zu 100-mal stärker“.

Noch sind diese Fragen offen. Wenn Emotiv, wie angekündigt, im kommenden Jahr den ersten Steuerhelm auf den Markt bringt, reihen sich zweifellos auch Wissenschafter unter die ersten Kunden ein. Dem Spaß am Videospiel „Harry Potter und der Feuerkelch“ tut ein wenig rhythmische Körperbegleitung jedenfalls keinen Abbruch. Im Gegenteil: Nachdem der Fels den Pfad nicht mehr blockierte, mussten sich Harry und seine Kumpane weiterer Sumpfkrattler erwehren und einen umgestürzten Baum beseitigen. Ein wenig Hand-, viel Gedankenkraft und die telekinetische Zauberformel „Carpe Retractum“ erledigten das. Kinderleicht.

Von Hubertus Breuer