Essay

Die weltweite Datenmenge ist überwältigend: Doch hilft sie, Konflikte vorauszusagen?

Könnte ein Computer einen Ausbruch von Gewalt voraussagen, liesse sich viel Leid vermeiden.

Könnte ein Computer einen Ausbruch von Gewalt voraussagen, liesse sich viel Leid vermeiden.

Auch «God» half nicht beim «Fiasko»: Im Roman von Stanislaw Lem zeigt auch der «allerhöchste elektronische Verstand» Schwächen.

Stanislaw Lem, der Altmeister der intelligenteren Science Fiction, schrieb 1986 ein nicht sehr optimistisches Buch mit dem Titel «Fiasko». Die Menschen wollen einen weit entfernten Planeten aufsuchen, auf dem intelligentes Leben vermutet wird. Wie die Expedition endet, beschreibt der Titel. Deshalb wird das Buch aber hier nicht erwähnt. Sondern weil das Raumschiff mit Supercomputern ausgerüstet ist, die «GOD» (General Operational Device) heissen. «Nicht alle hielten den Zufall für den Urheber dieser Abkürzung.» Lem hatte auch Humor.

Es ist klar: Allein darf sich der Mensch nicht in die Wüsten des Universums wagen. Er bedarf der übernatürlichen Hilfe (Sollen wir sie «Intelligenz» nennen?). Ohne GOD läuft in der Tat nicht viel. Aber auch GOD weiss nicht immer eine Antwort. «Ich weiss nicht, was ich sagen soll.» Auch GOD ist ratlos. Manchmal. Wenn es darum geht, das Schiff durchs Universum zu navigieren, ist er ziemlich gut. Das hat er im Griff. Denn das sind Probleme, auf die es eine und in aller Regel nur eine klare und richtige Antwort gibt. Verlangt man aber von GOD eine Entscheidung in einer Situation, die nicht so eindeutig ist, ist auch er überfordert.

Worin sind uns intelligente Maschinen zweifellos überlegen und können uns deshalb helfen? In der brutalen Informationsverwaltung und -beschaffung auf jeden Fall. Dort gilt auch noch die Antwort, die man gern gibt, auf die Frage, ob es eine Superintelligenz gibt, also eine Intelligenz, die der menschlichen überlegen ist: «Nein, das kann es nicht geben, denn wir haben sie gemacht.» Wobei nicht ganz klar ist, was «machen» hier heisst.

Das Muster und die Regel

Sagen wir mal: Computer sind sicher besser als wir, wenn es darum geht, mit grossen Datenmengen umzugehen. Das liefert ihnen beim Entscheiden einen Ressourcenvorsprung. Sie können Alternativen erwägen, die uns nicht in den Sinn kommen. Unser Gehirn ist gut darin, in Daten Muster zu entdecken - oder zu erahnen. «Im Geist ein Muster sehen», das ist - wenn es ums Handeln geht - funktional einigermassen identisch mit «eine Regel entdecken». Folgt man der Regel, wird auch eine einigermassen sichere Handlungsanweisung herauskommen.

Kann das eine Maschine auch? Ja, aber man muss es ihr beibringen. Die Methode heisst «SML - Supervised Machine Learning». Wie das funktioniert, lässt sich gut am Beispiel der Medizin zeigen. Der Doktor listet die Symptome des Patienten auf und kommt dann irgendwann zu einer Diagnose: Kopfweh plus erhöhte Temperatur plus Schüttelfrost = Grippe.

Solche «Regeln» zu finden, die zur Diagnose führen, kann man einer Maschine beibringen. Sie durchforstet ihre Datenbanken auf Relationen von Symptomen. Was ist und wie häufig zusammen beim gleichen Patienten aufgetreten? Und dort, wo sich die Relationen häufen und auch diejenigen dabei sind, die immer zu einem gewissen Krankheitsbild gehören, liegt die Diagnose. Dabei wird die Maschine bald erfolgreicher sein als der Mensch. Weil sie einfach den besseren Überblick hat.

«Big-Data-Enthusiasten» greifen oft zur Formel: «Lasst einfach die Daten sprechen!» Sie meinen damit, dass die Maschine dem Menschen meist überlegen ist, vor allem dann, wenn die Datenbasis nur gross genug ist. Und wir kriegen immer mehr Daten. Das ist unbestritten. Was in der Medizin «die Diagnose» ist, ist in der gesunden Welt «die Prognose». Die Daten sollen uns helfen, bessere Prognosen zu erhalten. Und wie in der Medizin die beste Therapie, soll dann in der realen Welt die richtige Art und Weise gefunden werden, wie bei einer gewissen Prognose - und das heisst: bei einer Änderung des Weltzustandes - richtig reagiert werden soll.

Das Wissenschaftsmagazin «Science» hat dem Thema «Prediction» in der aktuellen Nummer, die heute herauskommt, einen Schwerpunkt gewidmet. Welche Möglichkeiten - vor allem für die Politik - ergeben sich mit dem Einsatz von SML-trainierten Maschinen?

Wo bricht Gewalt aus?

Einer der wichtigsten Punkte wäre die Vorhersagbarkeit von Gewalt. Sagt uns die Maschine mittels einer Analyse der vorliegenden Daten, wo man mit einer rechtzeitigen Intervention den Ausbruch von Gewalt vermeiden oder wenigstens eindämmen kann? Lars-Erik Cederman von der ETH Zürich und Nils B. Weidmann von der Universität Konstanz haben einen Essay zu diesem Thema beigesteuert. Wenn «Big Data» uns helfen kann, einen passenden Partner zu finden oder ein Hotelzimmer zu buchen, kann es uns dann auch helfen einen Gewaltausbruch zu vermeiden? Oder anders: Ist eine Art «Frühwarnsystem» denkbar, das anzeigt, wo und wann ein Gewaltausbruch droht? Die Analogie zum Erdbeben ist offensichtlich und nicht ganz von der Hand zu weisen.

Viel hängt davon ab, ob es überhaupt ein Modell gibt, das den Ausbruch von Gewalt zuverlässig beschreibt. Welche Faktoren muss man berücksichtigen? Und wie spielen sie zusammen? Es ist das alte wohlbekannte Grundproblem einer Newton-Welt. Dort gilt: Sind die Ausgangsbedingungen bekannt und die geltenden Gesetze, lassen sich alle Entwicklungen exakt vorhersagen. Was aber Konflikte von Planetenbahnen und ähnlichem Zeug unterscheidet, ist ziemlich klar. Nicht nur die Komplexität der Situation (Kann man alle relevanten Ausgangsbedingungen überhaupt aufzählen?) ist es, sondern auch der Umstand, dass sich die Ausgangsbedingungen (die Daten) dauernd ändern. Jugoslawien während des Kalten Kriegs war etwas anderes als danach.

Das zeigt auch den entscheidenden Unterschied zwischen einer kausalen Erklärung eines Gewaltausbruchs in der Vergangenheit und der Vorhersagbarkeit eines zukünftigen. Und die schwierigste Frage ist noch gar nicht gestellt: Welche Auswirkungen hätte unsere Intervention und wie müsste sie überhaupt ausgeführt werden?

Schaffen das die Maschinen?

Vor welchen Herausforderungen steht das maschinelle Lernen, wenn es menschliches Verhalten erfolgreicher als bisher voraussagen will? V.S. Subrahmanian und Srijan Kumar von der Universität Maryland haben einen Grundsatz-Essay beigesteuert. Vier Herausforderungen seien zu meistern, schreiben sie. Zwei davon sind besonders bemerkenswert: Aufpassen bei der Folgerung «je mehr Daten, desto besser». Es gibt immer auch «Lärm» in den Daten; Inkonsistenzen, die stören. Und was man eigentlich brauchen würde, wäre auch eine Prognose über das Prognose-Modell, weil menschliches Handeln ja dynamisch verstanden werden muss. Es verändert sich und passt sich immer wieder an. Das klingt jetzt schon verdächtig nach infinitem Regress oder gibt es eine «Ordnung aller Ordnungen?»

Meistgesehen

Artboard 1