Künstliche Intelligenz

Ein Takeover der Mikrochips?

von Rolf Dobelli / 30.06.2016

Immer weiter dringt künstliche Intelligenz in unsere Arbeits- und Lebenswelt ein. Wird sie irgendwann den Menschen ausmanövrieren? Rolf DobelliRolf Dobelli ist Unternehmer sowie Gründer und Kurator von Zurich.Minds, einer Community führender Persönlichkeiten aus Wissenschaft, Kultur und Wirtschaft. Daneben tritt er als Kolumnist, Romancier und Sachbuchautor hervor. Zuletzt erschien bei Diogenes „Fragen an das Leben“. Aus dem Englischen von as. kalkuliert die Wahrscheinlichkeit einer solchen Zukunft.

Es gibt zwei grundsätzliche Richtungen, in die sich künstliche Intelligenz (KI) entwickeln kann: entweder im Sinne einer Extension menschlichen Denkens oder aber als radikal neue Denkform. Nennen wir die erste Variante „humanoides Denken“ (oder „humanoide KI“) und die zweite „fremdes Denken“ (oder „fremde KI“).

Verlässliche Sklaven

Gegenwärtig entspricht fast alle künstliche Intelligenz humanoidem Denken. Wir nutzen KI, um Probleme zu lösen, die für das menschliche Gehirn zu schwierig, zu zeitintensiv oder zu langweilig sind: etwa für das Lastmanagement in Stromnetzen, für computergenerierte Empfehlungsdienste, selbstfahrende Autos, Programme zur Gesichtserkennung, automatisierten Börsenhandel und Ähnliches. Solche künstliche Agenten operieren in engen Bereichen und mit klaren Zielsetzungen, die von menschlichen Entwicklern vorgegeben worden sind. KI von dieser Art soll Ähnliches leisten wie ein Mensch – aber oft besser: mit weniger kognitiven Fehlern, ohne Zerstreutheit oder Wutanfälle und mit einem größeren Leistungsvermögen. In einigen Jahrzehnten könnten künstliche Intelligenzen als virtuelle Versicherungsagenten, Ärzte oder Psychotherapeuten dienen, vielleicht sogar als virtuelle Ehepartner und Kinder.

Vieles hiervon liegt im Bereich unserer Möglichkeiten, aber solche KI-Agenten werden unsere Sklaven sein und über kein Selbstbewusstsein verfügen. Sie werden brav die Funktionen ausführen, für die wir sie programmiert haben. Wenn dabei etwas schiefgeht – weil beispielsweise ein Bug in der Software sitzt oder weil wir uns zu sehr auf das Funktionieren des Systems verlassen haben –, dann wird der Fehler bei uns liegen (Daniel C. Dennets These). Kein KI-Programm wird erfolgreich den Zuständigkeitsbereich verlassen, den wir ihm abgesteckt haben. Die Navigationssoftware für ein selbstfahrendes Auto wird als Navigationssoftware für Flugzeuge kläglich scheitern. Gewiss, auch humanoide KI könnte uns dann und wann überraschen, indem sie von selbst auf neue Lösungen für spezifische Optimierungsprobleme kommt. Aber in der Regel sind neue Lösungen so ungefähr das Letzte, was wir uns von künstlicher Intelligenz wünschen (oder hat jemand Lust darauf, dass die Navigationssoftware nuklearer Raketen eigene Initiative entwickelt?).

Unter dem Strich werden also die Lösungsvorschläge, die von humanoider KI zu erwarten sind, immer auf eine kleine Domäne beschränkt sein. Die Lösungen werden verständlich bleiben, weil wir entweder begreifen, wozu sie dienen, oder weil wir ihren inneren Ablauf nachvollziehen können. Manchmal wird ein Code, weil er sich ständig selbst korrigiert, so umfangreich und chaotisch werden, dass ein einzelner Mensch ihn nicht mehr zu überschauen vermag. Aber das ist schon heute so bei Megasoftware wie z.B. MS Windows. In solchen Fällen könnten wir den Code liquidieren und eine neue, schlankere Version programmieren. Humanoide KI wird uns dem alten Traum ein Stück näher bringen, dass Roboter die drögen Arbeiten ausführen und uns damit mehr Freiraum für Kreativität schenken – oder dafür, uns zu Tode zu amüsieren.

Fremdes Denken ist radikal anders. Fremdes Denken könnte möglicherweise eine Gefahr für das humanoide Denken werden: Es könnte die Macht über den Planeten an sich reißen, klüger und schneller werden als wir selbst, uns versklaven – und wir würden nicht einmal realisieren, was da passiert. Welcher Art wird dieses fremde Denken sein? Dies zu sagen, ist per definitionem unmöglich. Es wird Funktionen aufweisen, die sich unserem Verständnis gänzlich entziehen. Wird es ein Bewusstsein haben? Höchstwahrscheinlich, aber das ist nicht unbedingt nötig. Wird es Gefühle entwickeln? Wird es Bestseller schreiben? Und wenn ja: Bestseller für menschliche Leser oder für seinen eigenen Geschmack und seine eigene Spezies? Werden kognitive Irrtümer sein Denken trüben? Wird sein Wesen sozial sein? Wird es Witze machen, Klatsch in Umlauf bringen, Imagepflege betreiben, sich einer gemeinsamen Sache verschreiben? Wird es seine eigene Variante von künstlicher Intelligenz – KI-KI – entwickeln? Wir können es nicht wissen.

Eine zweite Evolution

Wir wissen aber zumindest, dass Menschen kein wirklich fremdes Denken konstruieren können. Was immer wir erschaffen, wird unsere Zielsetzungen und Werte reflektieren und sich somit nicht allzu weit vom menschlichen Denken entfernen. Es bedürfte einer echten Evolution, und nicht nur evolutionärer Algorithmen, um ein fremdes Denken mit eigenem Bewusstsein entstehen zu lassen. Und der Weg dieser Evolution müsste sich radikal von demjenigen unterscheiden, der zur menschlichen Intelligenz und zur humanoiden KI führte.

Aber wie kommt eine echte Evolution in Gang? Durch Replikatoren, Variation und Selektion. Wenn sich diese drei Komponenten berühren, ist Evolution unvermeidbar. Aber wie wahrscheinlich ist es, dass ein fremdes Denken sich entwickelt? Hier ein sozusagen auf die Papierserviette gekritzeltes Szenario.

Überlegen wir uns zunächst einmal, wie viel es gebraucht hat, damit sich aus den wunderbar komplexen eukaryotischen Zellen, aus denen alle höher entwickelten Organismen bestehen, menschliches Denken entwickeln konnte. Für diesen Prozess bedurfte es eines stattlichen Anteils der Biomasse unseres Planeten (ungefähr 500 Milliarden Tonnen eukaryotisch gebundenen Kohlenstoffs) und einer Zeitspanne von etwa zwei Milliarden Jahren. Das ist ein zünftiger Brocken evolutionäre Arbeit. Abermilliarden von Abermilliarden von Experimenten auf der Ebene von Molekül und Zelle waren dazu nötig. Gewiss, die Stufe menschlichen Denkens hätte vielleicht auch in der Hälfte, mit einer saftigen Portion Glück sogar in zehn Prozent dieser Zeit erreicht werden können – das wären allemal 200 Millionen Jahre –, aber eine noch kürzere Dauer ist unwahrscheinlich. Wir müssen bedenken, dass die Evolution komplexer Verhaltensweisen nicht nur enorm viel Zeit in Anspruch nimmt; es braucht auch eine Petrischale von der Größe des Planeten Erde als Nährboden für ein derartiges Experiment.

Gehen wir davon aus, dass fremdes Denken, wie derzeit alle künstliche Intelligenz, Silizium-basiert sein wird. Eine eukaryotische Zelle ist um ein Vielfaches komplexer als beispielsweise der neueste i7-CPU-Chip von Intel, und zwar bezüglich der Hard- wie auch der Software. Nehmen wir weiterhin an, dass wir den CPU-Chip auf die Größe einer eukaryotischen Zelle reduzieren könnten – und blenden wir dabei erst einmal die Quanteneffekte aus, die ein zuverlässiges Funktionieren der Transistoren verunmöglichten. Blenden wir auch die Frage der Energiezufuhr aus. Man müsste den Erdball mit 10 hoch 30 (eine Zehn mit dreißig Nullen) mikroskopisch kleinen CPU pflastern und diese zwei Milliarden Jahre lang interagieren und miteinander kämpfen lassen, bis sich echtes Denken entwickelte.

Natürlich, CPU-Chips haben einerseits eine größere Verarbeitungsgeschwindigkeit als biologische Zellen, weil Elektronen leichter zu bewegen sind als Atome. Anderseits können Eukaryoten zahlreiche Prozesse parallel ablaufen lassen, während der i7 von Intel nur über vier parallel funktionierende Hauptprozessorkerne verfügt. Wollte die künstliche Intelligenz wirklich die Welt beherrschen, dann kämen ihre Elektronen nach einiger Zeit auch nicht mehr darum herum, Atome zu bewegen, um Software und Daten in immer zahlreicheren physischen Speichern abzulegen. Diese Notwendigkeit würde ihre Entwicklung drastisch bremsen. Es ist schwierig, zu sagen, ob die Silizium-basierte Evolution unter dem Strich schneller wäre als die biologische. Wir wissen nicht genug darüber. Meines Erachtens verliefe sie im besten Fall um zwei, drei Zehnerpotenzen schneller als die biologische Evolution; bis eine fremde KI mit eigenem Bewusstsein entstünde, dauerte es also allemal eine Million Jahre.

Aber was, wenn die humanoide KI so clever würde, dass sie in der Lage wäre, eine fremde KI sozusagen top-down zu entwickeln? Da tritt Orgels zweites Gesetz in Kraft: „Die Evolution ist stets klüger als du.“ Sie ist klüger als menschliches Denken. Sie ist sogar klüger als humanoides Denken. Aber sie ist, wie gesagt, langsam.

Die Gefahr liegt in uns

Wir tendieren dazu, schlaflose Nächte aus falschen Gründen zu haben. Die Unterwerfung der Menschheit durch künstliche Intelligenz gehört zu diesem Repertoire falscher Ängste. Die Gefahr der künstlichen Intelligenz liegt nicht in ihr selbst, sondern in der Tatsache, dass wir uns zu sehr auf sie verlassen. Ein legitimer Grund für schlaflose Nächte hingegen ist die Sorge, dass mich ein selbstfahrendes Auto wegen eines Programmierfehlers oder weil es gehackt wurde, eines Tages umfährt.

Nein, wir werden es nicht erleben, dass künstliches Denken ein Selbstbewusstsein entwickelt. Wir könnten tausend Jahre warten, und es wäre noch immer nicht so weit. Natürlich kann ich mich irren. Denn dieses Serviettenszenario wendet klassisches menschliches Denken auf fremde KI an – die wir ja per definitionem nicht verstehen. Aber mehr können wir zu diesem Zeitpunkt nicht tun.

Ende der 1930er Jahre notierte Samuel Beckett in sein Tagebuch: „Wir fühlen mit schrecklicher Resignation, dass die Vernunft keine übermenschliche Gabe ist … dass sich die Vernunft zu dem entwickelt hat, was sie ist, aber dass sie sich genauso gut in eine andere Richtung hätte entwickeln können.“ Ersetzen Sie „Vernunft“ durch „künstliche Intelligenz“, und Sie sehen, was ich meine.