Superintelligenz
Überleben wir Menschen die Roboter, die wir für uns geschaffen haben?

Der Philosoph Nick Bostrom ist überzeugt, dass die Maschinen bald intelligenter sind als wir. Für ihn ist es nicht nur eine Frage, ob sie uns dann noch weiter bedienen, sondern eine existenzielle: Es könnte sein, dass wir das nicht überleben werden.

Christoph Bopp
Merken
Drucken
Teilen
Überleben wir Menschen die Roboter, die wir für uns geschaffen haben?

Überleben wir Menschen die Roboter, die wir für uns geschaffen haben?

Keystone

Unser Zeitalter ist eines, das von Technologie geprägt ist. Der Kern von Technologie ist «machen». Denker, die es etwas genauer nehmen, sprechen von «bauen». Technè, so sah es schon Aristoteles, kann einerseits Dinge aus der Natur nachbauen; aber andererseits aus dem Material, das die Natur bietet, auch neue Dinge herstellen. Manchmal sind das Werkzeuge, sodass dieser technische Prozess des Herstellens, des Bauens, etwas an sich hat, das sich selbst beschleunigt.

Das hatte Aristoteles allerdings noch nicht so im Blick. Werkzeuge waren dem Prozess des Herstellens noch untergeordnet. Sie waren Mittel zum Zweck, etwas Bestimmtes besser oder leichter herstellen zu können. Die Töpferscheibe diente dazu, schönere Gefässe herzustellen, der Hobel verhalf zu glatteren Brettern und Hammer und Amboss halt zu besseren Pflugscharen, aber auch zu schärferen Schwertern. Alles war aber noch in der Hand des Handwerkers, ihren «Sinn» entfalteten die Werkzeuge nur durch das Geschick, die Kunstfertigkeit des Handwerkers.

Intelligenz ist mehr als Einsicht

Als der Handwerker in der Renaissance Wissenschafter wurde, änderte sich alles. Die moderne Wissenschaft begnügte sich nicht mit der «Einsicht» in die Natur (wie sie geordnet und wo der richtige Platz für alles, was es gibt, ist), sondern «Intelligenz» wurde jetzt zur «Nach-Bildung» von Prozessen. Oder anders gesagt: Ihre Modellierung. Modelle funktionieren mit einer «Wenn-dann-Logik», sie berechnen aus einem Input einen gewissen Output und in der Anwendung ergibt sich dann das «Zweck-Mittel-Schema».

Intelligenz wurde zum Programm, das auf Silizium ebenso gut ablaufen kann wie auf Kohlenstoff. Ein Computer kann es ebenso gut wie ein Gehirn. Oder besser. Denn das biologische Gehirn leidet an gewissen Kapazitätsproblemen, ist ingenieursmässig nicht erstklassig, sondern von der Evolution zusammengepfuscht. Dass Computer uns in vielem voraus sind, ist unbestritten. Sie schlagen uns in den meisten Spielen, sie haben das grössere Allgemeinwissen (Jeopardy!) und sie bewältigen Steuerungs- und ähnliche Probleme in Grössenordnungen, die uns rettungslos überfordern würden.

Computer waren nie «dumm»

Die – wenigstens bis jüngst – gängige Sprachregelung war: «Computer sind dumm, sie machen nur, was wir ihnen sagen.» Das hat nie gestimmt. Sie haben ihr Programm abgewickelt. Was sie dabei taten, wissen wir ebenso wenig, wie wir nicht wissen, was in unseren Gehirnen vor sich geht, wenn Neuronen feuern. Auch in unseren Gehirnen läuft ein Programm. Wir wissen ein bisschen etwas über die Software, wie das Programm läuft, tasten uns ein bisschen daran heran, wie die Hardware funktioniert; aber was wir sehen, ist nur und vor allem, dass die Maschinen die wir gebaut haben, das viel schneller und viel zuverlässiger tun.

Wir müssen uns mit dem Gedanken anfreunden, sagt der Philosoph Nick Bostrom, dass wir dran sind, Maschinen zu bauen, die besser sind als unser Gehirn: Superintelligenz. Man muss sich das so vorstellen: Der Mensch kann kognitiv viele Aufgaben lösen, die nichtmenschliche Tiere nicht lösen können, obwohl sie ökologisch hervorragend angepasst sind. Die Superintelligenz übertrifft die menschliche ebenso, wie die menschliche die Intelligenz von Affen oder Elefanten oder Delfinen übertrifft. Es gibt mögliche kognitive Fähigkeiten, die der Mensch hat, der Elefant aber nicht. Und demzufolge gibt es auch kognitive Möglichkeiten, die der Mensch nicht kennt, weil er sie nicht hat.

Lieber nicht von «denken» reden

Superintelligenz – das klingt nach Science Fiction. Und es ist auch ein – zugegeben sehr intelligenter – SciFi-Autor, der uns helfen kann, genauer zu verstehen, was Superintelligenz ist. Lem schrieb ein Buch mit dem Titel «Also sprach Golem». Darin hält ein übermenschlicher Computer eine Vorlesung an die Menschen. Was die Menschen zu Menschen macht, höhnt er, also die Vernunft oder die Intelligenz, sei «ein Loch». «Eine Lücke», welche die Evolution schuf, indem sie den Menschen all das selbst tun liess, was bei den Tieren vorgegeben ist, was bei ihnen automatisch abläuft. Die Intelligenz füllt dieses Loch.

Auch eine Superintelligenz steht vor dieser Herausforderung: Sie muss Probleme lösen, aus sich selbst, die sich andere Wesen (zum Beispiel Menschen) gar nicht vorstellen können. Eine Superintelligenz wird mit der Zweck-Mittel-Relation umgehen wie wir – einfach viel besser. Das heisst: Auf eine Weise, die wir uns vielleicht nicht vorstellen können. Das Verb «denken» verdunkelt diesen einfachen Sachverhalt so sehr, dass wir uns gar vorgaukeln, die Krone der Schöpfung oder so etwas zu sein. Dies ist Schwachsinn, auch wenn wir es ausdrücklich nicht-theologisch verstehen. Wir sind vielleicht etwas komplexer als andere biologische Wesen, etwa Würmer. Aber der Unterschied liegt allenfalls darin, dass wir für viel Routine, die bei anderen Tieren fest verdrahtet ist, Programme «schreiben» müssen.

Die Superintelligenz kommt

Dass wir IT-mässig auf die Superintelligenz zusteuern, ist eine Tatsache. Nick Bostrom diskutiert in seinem Buch, wie dieser Prozess vonstattengehen wird und was die Folgen sein werden oder sein könnten. Es ist eher zu vermuten, dass der Schritt einer Maschinenintelligenz auf humanem oder knapp subhumanem Niveau zur Superintelligenz plötzlich ablaufen wird: in Form einer Intelligenzexplosion. Für uns heisst das, dass es da nicht viel zu kontrollieren gibt. Es wird einfach ablaufen. Wenn wir die Kontrolle behalten wollen, müssen wir vorsehen.

Was eine Superintelligenz «tun» wird, wissen wir nicht. Sie wird nicht per se «freundlich» zu uns sein. Das zeigt Nick Bostrom nachvollziehbar. Der Standard-Einwand: «Was wir gebaut haben, kann uns nicht gefährlich werden!», zieht nicht. Denn man muss davon ausgehen, dass die letzten Schritte, welche die Differenz machen, nicht mehr von menschlichen Programmierern vorgegeben werden, sondern von den Maschinen oder den Programmen selbst vollzogen werden.

Jetzt das Kontrollproblem lösen

Das Kontrollproblem stellt sich also weit früher, eigentlich jetzt schon. Wir müssen es lösen, bevor die Intelligenzexplosion stattfinden wird. Dass man eine Superintelligenz einfach «abschalten» kann, können wir vergessen. Denn diese Möglichkeit wird sie natürlich vorhergesehen haben. Wir können sie «einsperren», dann stellt sich das Problem, wie sie uns noch etwas nützen kann. Auch Vorsichtsmassnahmen, dass wir sie praktisch nur als «Orakel» benutzen, greifen nicht. Wer sagt uns, dass uns die Superintelligenz nicht mit ihren Antworten manipuliert? Auch Tests, wie intelligent die Maschine schon ist, können wir nicht trauen.

In der SciFi-Literatur gib es bereits Vorschläge, wie Roboter «moralisch» konditioniert werden könnten. Asimovs berühmte Robotergesetze («Kein Roboter darf einem Menschen schaden zufügen» etc.) scheinen zwar klar, führen aber zu Paradoxien. Die Roboter könnten die Macht übernehmen, um die Menschen vor sich selbst zu schützen. Superintelligenzen «Werte» einzuprogrammieren, scheint ebenso schwierig: Wie sollten wir die formulieren? Bostrom diskutiert das sehr weitläufig. Gar nicht hilfreich ist, dass sich die Philosophen völlig uneinig sind, welche Moraltheorie überhaupt richtig ist. Am meisten Erfolg scheint «indirekte Normativität» zu versprechen. «Handle so, wie unsere besten Gründe es von einer überlegenen Intelligenz verlangen würden!» Ob das eine Formulierung ist, die weiterhilft?

Bostrom hält die Herausforderung der Superintelligenz für die grösste, die sich bisher der Menschheit gestellt hat. Und es könnte auch die letzte sein, wenn wir sie nicht packen.

Nick Bostrom: Superintelligenz. Szenarien einer kommenden Revolution. Suhrkamp, Berlin 2014. 480 S., Fr. 41.90.