'Wolfram Alpha' lehrt das Internet denken

Operation Superhirn: Mit der Suchmaschine 'Wolfram Alpha' lernt das Internet denken

Digitale Revolution oder luftleerer Hype?

Drucken

Schriftgröße

Von Tina Goebel und Sebastian Hofer

Am vergangenen Freitag, gegen sieben Uhr abends, legte sich eine Wolke der Anspannung über die amerikanische Kleinstadt Champaign, Illinois. In einem schmucklosen Bürogebäude am südlichen Stadtrand wurde in aller Bescheidenheit eine Art Weltrevolution vorbereitet. Nervöse Computertechniker gingen noch einmal ihre Checklisten durch, testeten noch ein letztes Mal, was sie in den Wochen davor schon hunderte Male getestet hatten. In fünf verschiedenen Rechenzentren liefen 10.000 Prozessoren gleichzeitig an, die Algorithmen mit mehreren Millionen Codezeichen und Daten im Umfang etlicher Nationalbibliotheken verwalteten. Ein paar der beteiligten Computertechniker filmten das Ereignis mit Webcams und ließen die Welt daran teilhaben. Immerhin machten sie gerade Geschichte: Freitag, 15. Mai 2009, gegen sieben Uhr abends: Wolfram Alpha geht online.

Vertraut man den üblichen Netz-Auguren, markiert dieses Datum eine Zeitenwende. Zieht man den branchentypischen Euphorieüberschuss ab, bleibt die Sache immer noch ziemlich beeindruckend: Wolfram Alpha sieht zwar aus wie eine ganz gewöhnliche Suchmaschine, kann aber, und das ist schon nicht mehr so ganz gewöhnlich, selbstständig denken – oder zumindest selbstständig rechnen. Anstelle endloser Listen mit weitgehend x-beliebigen Textdokumenten, wie sie zum Beispiel Google ausspuckt, liefert Wolfram Alpha auf simple Anfragen echte, passende Antworten. Stellt selbstständig Verbindungen und Kontexte her. Assoziiert. Denkt. Verständlich, dass die ersten Reaktionen enthusiastisch ausfallen. Manche sprechen bereits von der nächsten Generation des Internets, Web 3.0 sozusagen.

Nun wird davon aber schon etwas länger gesprochen. Seit dem Jahr 2001, um genau zu sein, als der Erfinder des World Wide Web, Tim Berners-Lee, in einem viel diskutierten Aufsatz in der Zeitschrift „Scientific American“ seine Vision eines zukünftigen, intelligenten Netzwerks vorstellte. Seither mangelt es nicht an vermeintlichen Durchbrüchen, hin zur künstlichen Intelligenz, zum sinnvoll mitdenkenden Netz. Von kleineren Zwischenerfolgen abgesehen, stießen alle diese Durchbrüche irgendwann auf Beton. Dass es diesmal anders sein soll, erklären die Optimisten vor allem mit einer Person: Stephen Wolfram, Physiker, Mathematiker und Entwickler von Wolfram Alpha. An seiner Genialität herrscht kaum ein Zweifel: Mit 16 Jahren veröffentlichte der gebürtige Londoner seinen ersten teilchenphysikalischen Aufsatz, mit 17 begann er sein Studium in Oxford, mit 20 promovierte er am California Institute of Technology. Schon 1979 begann Wolfram mit der Entwicklung mathematischer Computersoftware. Das von ihm 1988 erstmals veröffentlichte Softwarepaket Mathematica ist bis heute Standard für mathematische Computeranwendungen (und machte Wolfram zu einem wohlhabenden Mann).

Am 5. März dieses Jahres erinnerte Wolfram in einem Beitrag auf seinem persönlichen Weblog an jene prähistorische Ära, Ende der fünfziger Jahre, als Computer noch unheimlich und raumfüllend waren: „Die Menschen glaubten, dass es bald möglich sein werde, einem Computer eine bestimmte Frage zu stellen und ihn die Antwort einfach berechnen zu lassen. Die Sache hat sich leider etwas anders entwickelt.“ Das ging dem Mathematikgenie Wolfram, der das Universum gern als große Rechenmaschine beschreibt, verständlicherweise gegen den Strich. Umso verbissener arbeitet er an der Verwirklichung seiner eigenen „Antwortmaschine“.

Konkurrenzlos. Tatsächlich ähnelt Wolfram Alpha nur oberflächlich einer handelsüblichen Suchmaschine à la Google. Conrad Wolfram, Bruder von Stephen und Leiter der Abteilung für strategische Entwicklung in Wolframs Unternehmen, betont diesen Unterschied im profil-Interview noch einmal ganz dezidiert: „Wir sind keine Konkurrenz zu Google, sondern eine Ergänzung. Wolfram Alpha ist keine Suchmaschine, sondern eine Wissensmaschine.“ Tatsächlich unterscheiden sich die beiden Systeme schon im Ansatz: Google vergleicht seine Datenbank mit den abgefragten Wörtern und liefert eine Liste mit Dokumenten, in denen diese vorkommen. Damit findet Google allerdings nur, was schon vorhanden ist (und vertraut sehr erfolgreich darauf, dass im Netz ohnehin ­alles vorhanden ist). Wolfram Alpha erstellt seine Antworten dagegen selbst – mit einem ausgeklügelten Algorithmus, der Fakten aus anderen Fakten berechenbar macht. Ein Beispiel: Wer die Nachkriegs-Wirtschaftswunder in Deutschland und Österreich vergleichen will, muss sich via Google die entsprechenden Wirtschaftsdaten selbst zusammensuchen. Auf Wolfram Alpha gibt er „gross domestic product austria germany 1945–1970“ ein und ­erhält eine anschauliche Grafik mit zwei übereinandergelegten Verlaufskurven. In gewisser Weise ist Wolfram Alpha das Missing Link zwischen Google, Wikipedia und einem (englischsprachigen) Mathematikprofessor: eine allwissende Rechenmaschine, die nicht nur Mathematik beherrscht. Sondern zum Beispiel auch Geografie, Sport, das Wetter und Poker.

Der amerikanische Computerpionier Douglas Lenat hat einmal ein schönes Bild über die Intelligenz von Google geprägt: Es reagiere auf Anfragen wie ein treues Schoßhündchen, das die Morgenzeitung von der Matte holt, ohne jeden Schimmer, was es da apportiert. Wolfram Alpha dagegen kann, um bei der Metapher zu bleiben, selbst in die Trafik gehen und genau die Zeitschrift suchen, die das Herrl gerade braucht.

Überforderung. Ein Tratschheft wird allerdings nur in Ausnahmefällen dabei sein. Wolfram Alpha beschränkt sich (vorläufig) auf lexikalisches Wissen und interessiert sich kaum für den banalen Alltag. Eine Suche mit Wolfram Alpha gleicht ein wenig einem Gespräch mit einem hoch spezialisierten Mathematikprofessor, der Pi bis zur vierhundertsten Stelle herunterbeten kann, aber noch nie etwas von Britney Spears gehört hat. So kann Wolfram Alpha zwar in Sekundenbruchteilen den Winkel berechnen, in dem die Sonne am 23. April 1979 gegen 11.08 Uhr über Wien stand, hat aber keine Ahnung, wer zu diesem Zeitpunkt die österreichische Hitparade anführte (Blondie mit „Heart of Glass“). Auch mit anderen üblichen Google-Anfragen wie „bester Friseur in Wien“ oder „Fotos von Gertis Geburtstag“ ist Stephen Wolframs Wissensmaschine überfordert.

Tatsächlich hat Wolfram Alphas Datenbank ihre Grenzen und Lücken. Das soll sich zwar schrittweise ändern: „Wir stehen erst am Anfang eines sehr langfristig angelegten Projekts“, sagt Conrad Wolfram. Andererseits ist die Beschränkung aber auch Programm: Während Google laufend das komplette Datenvolumen des weltweiten Netzes in seine Datenspeicher füttert, werden bei Wolfram Alpha Fakten buchstäblich per Hand verlesen. Über hundert Mitarbeiter waren in den vergangenen Jahren ausschließlich damit beschäftigt, aus bestehenden Datenbanken, Bibliotheken und Formelsammlungen das lexikalische Wissen der Menschheit einzulesen. Anders als bei Wikipedia verließ man sich dabei nicht auf die viel ­beschworene „Weisheit der vielen“. Wolfram Alpha ist (zumindest vorläufig) ein Expertenprojekt. Das schränkt seine Wirkung naturgemäß ein. Aber es birgt auch eine ungleich größere Hoffnung: Vielleicht kann die Technologie von Wolfram Alpha dazu beitragen, den Geburtsfehler des Internets zu beheben.

Am 13. März 2009, eine Woche nach Stephen Wolframs erster öffentlicher Ankündigung seiner „Antwortmaschine“, wurde am CERN in Genf der Geburtstag des World Wide Web gefeiert. 20 Jahre zuvor hatte der junge britische Physiker Tim Berners-Lee seinem damaligen Vorgesetzten einen Plan für ein neuartiges Informationsmanagementsystem präsentiert: die Keimzelle dessen, was heute WWW heißt. Bei der informellen Geburtstagsgala erinnert sich Berners-Lee an die ersten Monate des Datennetzwerks: Wenn er damals seine Arbeit auswärts präsentierte, nahm er das Web einfach mit – auf einer (damals) handelsüblichen Floppy-Diskette, Speicherkapazität: 1,44 Megabyte. Was er damals nicht ahnen konnte: In den folgenden Jahren ist das Netz nicht ganz unbeträchtlich gewachsen. Im Jahr 2012 wird das gesamte Datenvolumen im Internet laut einer Hochrechnung der Europäischen Kommission ungefähr 0,5 Zettabyte betragen, also 500 Milliarden Gigabyte. In Disketten umgerechnet: knapp 350 Billionen Stück. Nicht nur die Kommission sieht dieses exponentielle Wachstum mit Sorge. Irgendwann, eher früher als später, werden diese Datenmengen auch die potentesten Suchmaschinen überfordern. Der digitale Heuhaufen wächst immer rasanter Richtung Pluto.

Semantische Netzwerke. Auch aus diesem Grund gab Berners-Lee schon im Jahr 2001 die Marschrichtung vor: Das Internet müsse semantisch denken, sprich Zusammenhänge erkennen und Relevantes von Irrelevantem unterscheiden lernen. Gelingt das nicht, werden auch die primitivsten Suchanfragen ins Nirvana führen. Noch fehlt dazu freilich eine massentaugliche Technologie. Semantische Netzwerke funktionieren bis dato nur unter Laborbedingungen, etwa am Semantic Technology Institute (STI) der Universität Innsbruck. Elena Simperl, STI-­Vizerektorin, gibt sich zwar optimistisch, dass die Programmiersprache, die an ihrem Institut derzeit entwickelt wird, bald auch in der ganz alltäglichen Praxis angewendet werden kann: „Wir versuchen, praxisorientiert zu arbeiten und eine Nutzung der vorhandenen Daten zu ermöglichen.“ Dem akuten Wildwuchs des World Wide Web sind die bestehenden Systeme aber noch nicht gewachsen, zu groß sind derweil noch die benötigten Rechen- und Speicherkapazitäten. Allenfalls eine Hand voll Internet-Giganten verfügt im Moment über die notwendige Infrastruktur. Nicht umsonst meint der Softwareentwickler Tim O’Reilly, der einst den Begriff vom Web 2.0 prägte: „Google wird das nächste Google.“

Tatsächlich verfügt Google schon jetzt über ein gewisses Maß an semantischem Netzwerkwissen und sucht längst nicht mehr nur stur nach Schlagworten und Phrasen. Schon jetzt versteht es die Suchmaschine, die Anfragen ihrer Benutzer zu interpretieren – meist aufgrund vorhergehender Suchanfragen. So vermutet Google beispielsweise ganz richtig, dass ich wohl einen Popsänger meine, wenn ich „Bryan Ferry“ eintippe, und eher keine Fährverbindung nach Bryan Island, Florida. Ein dortiger Anrainer wird unter Umständen die umgekehrte Erfahrung machen. Davon abgesehen, ist im Grunde schon die Unterscheidung zwischen „wichtig“ und „unwichtig“, die der Google-Algorithmus vornimmt und nach der die Such­ergebnisse geordnet werden, eine Art von Semantik. ­Allerdings nicht in dem Ausmaß, den sich avancierte Websemantiker wünschen. Ihnen schwebt eher ein System vor, das sämtliche relevanten Daten zu einem Antwortpaket verschnürt: Wer derzeit von Wien nach Florida reisen will, muss Flugtickets, Hotelzimmer und Fährverbindungen noch jeweils extra suchen und einzeln buchen. In ­einem funktionierenden semantischen Netzwerk könnten alle notwendigen Einzelmodule nach nur einer Anfrage in einer Rundumantwort präsentiert werden – weil das Netz selbstständig kapiert, was der Benutzer brauchen wird.

Dazu müssten freilich sämtliche Webseiten semantisch strukturiert, also mit Informationen über ihren Kontext und ihre Bedeutung versehen werden, idealerweise nach einem einheitlichen System. An dieser Hürde scheitern bis dato alle einschlägigen Experimente. Wolfgang ­Wahlster, Direktor des Deutschen Forschungszentrums für Künstliche Intelligenz, geht davon aus, dass derzeit nur rund zwei Prozent des Web semantisch ­beschrieben sind.

Die Welt als Formel. Vielleicht hilft die Vision Stephen Wolframs der digitalen Welt aus diesem fundamentalen Dilemma. Schließlich besteht die Stärke seiner Wissensmaschine genau darin, die ganze Welt wie eine mathematische Formel zu begreifen. Sie braucht keine vorgegebene Semantik, sie berechnet diese ganz einfach: Hier sind meine Variablen, hier eine Unbekannte, und mit diesem Rechenschritt komme ich zu einem Ergebnis. Damit muss Wolfram Alpha auch nicht das komplette Weltwissen ­abgespeichert haben – weil es zumindest dessen berechenbaren Teil selbst herstellen kann. Genau darin besteht die Genialität von Wolframs Mathematik: Im Grunde basiert sie auf sehr simplen Funktionen, die im Bedarfsfall selbstständig zur notwendigen Komplexität anwachsen.
Die Euphorie, die den Start von Wolfram Alpha begleitet, ist trotzdem verfrüht. Erst in den nächsten Monaten wird sich zeigen, ob Wolframs Wundermaschine ihre selbst gesteckten Ziele erfüllen wird können – und ob die Mehrheit der Internet-User etwas mit ihren Funktionen anfangen kann. Schahram Dustdar, Professor an der Fakultät für Informatik der TU Wien, ist vorsichtig optimistisch, will aber noch nicht voreilig jubeln: „Ob Wolfram Alpha Erfolg hat, wird sich schnell zeigen. Entwicklungen im Netz boomen entweder sofort – oder sie funktionieren gar nicht.“ Auch der kalifornische Semantic-Web-Guru Nova Spivack, der Wolfram Alpha schon vor Wochen bescheinigte, es könne „so wichtig werden wie Google“, beharrt auf einer Einschränkung: „Wolfram Alpha wurde von und für Menschen mit einem Intelligenzquotienten in der Höhe eines Stephen Wolfram konstruiert. Man wird noch einige Arbeit darin investieren müssen, es ein paar hundert IQ-Punkte dümmer zu machen, damit es den Durchschnittskonsumenten nicht überwältigt.“ Der Mensch ist schließlich keine Wissensmaschine.