produktivzone
15 Normseiten, geschätzte Lesezeit 15 Min.

Warum uns KI Angst machen sollte

Einleitung

Bevor ich mich mit KI beschäftige, möchte ich Sie darauf aufmerksam machen, dass in diesem Kapitel von postulierten Annahmen ausgegangen wird, die nicht alle emprisch erforscht sind. Falls Sie ausschließlich an Fakten interessiert sind, ist nicht auszu­schließen, dass Sie nicht die Antworten erhalten werden, welche die Überschrift erhoffen lässt. Falls dem so ist, möchte ich mich entschuldigen.

Neuronale Netze sind von Natur aus chaotisch

Neuronale Netze sind logisch aufgebaut. Das bedeutet, wenn alle Parameter bekannt sind, kann exakt vorausgesagt werden, welches Ergebnis am Ende herauskommen wird. Weil die neuronalen Netze dem menschlichen Gehirn nachempfunden sind, liegt die Vermutung nahe, dass auch die Handlungen eines Menschen kausal vorhergesagt werden könnten. Dazu müssten lediglich alle Parameter bekannt sein.

Das ist für viele Forscher Beweis genug, dass es so etwas, wie einen freien Willen nicht gibt. Diese Argumentationskette erscheint auf den ersten Blick vernünftig, ist aber unvoll­ständig. Denn unsere Intelligenz wird von einem Gehirn konditioniert, das Teil einer Welt ist, in der viele Parameter systembedingt nicht zur Verfügung stehen. Das hat einen besonderen Grund.

Wenn wir mehrere Zahnräder aneinander schalten, können wir am Ende immer vorhersagen, in welche Richtung sich das letzte Zahnrad drehen wird. Denn jedes Zahnrad ist kausal mit dem nächsten verbunden. Was viele nicht wissen, ist der Umstand, dass diese Kausalität nur in der Welt des Makrokosmos Gültigkeit hat. In der gequantelten Welt des Mikrokosmos gelten andere Regeln. Und die beeinflussen unsere Welt ebenso, wie die newtonsche Mechanik. Den Grund dafür finden wir in der Welt der Elementarteilchen.

Unsere Welt besteht aus Molekülen und Atomen. Diese sind wiederum aus Quanten zusammengesetzt, die über eine kleine Be­sonderheit verfügen: ihr Verhalten ist nicht vorhersagbar. Das liegt nicht daran, dass es keine passenden Mess­instrumente gäbe. Vielmehr ist das eine fundamentale Eigenschaft unseres Universums. Man nennt das den Quanten­zu­fall. Und dieser Zufall sorgt für chaotische Verhältnisse.

Chaotische Systeme findet man überall dort, wo kleinste Ereignisse große Auswirkungen nach sich ziehen. So können beispielsweise kleinste thermische Veränderungen in Flüssigkeiten und Gasen zu unkalkullierbaren Wirbelbildungen führen. Deshalb ist es auch so schwierig, das Wetter vorauszusagen. Auch bei der Börse können sich kleinste Kursschwankungen kaskadenartig ausbreiten. Tatsächlich gibt es kaum einen Bereich, der nicht von dem Chaos beeinflusst wird.

Doch es gibt kaum eine Stelle, wo die Symbiose zwischen Chaos und Ordung besser abgebildet ist, als bei neuronalen Netzen. Die Ursache hierfür finden wir auch hier wieder in der Welt des Kleinsten, und das bildet hier das Neuron. Sie spiegelt das Wechselspiel zwischen virtuellen und reellen Elementarteilchen auf eine sehr faszinierenden Art und Weise:

Wenn beispielsweise der Schwellenwert einer Nervenzelle 0,5 beträgt und der Netzinput aller Dendriten 0,9 können wir erwarten, dass der Axonhügel feuert. Hier ist das Ergebnis ziemlich eindeutig. Nicht ganz so eindeutig ist es, wenn der Netzinput 0,500001 beträgt. Obwohl das erste Ergebnis eindeutiger ist, als das zweite, erhalten wir dasselbe Ergebnis. Und dennoch können wir von verschiedenen Eindeutigkeiten sprechen.

Nun stellen Sie sich einmal vor, wie aussagekräftig das Ergebnis von vielen hintereinander geschalteten Neuronen ist, bei denen der Netzinput nah am Schwellenwert liegt. Hier wird die Uneindeutigkeit eines Neurons an ein weiteres Neuron weitergereicht, das ebenfalls ein uneindeutiges Ergebnis liefert. Dadurch multipliziert sich die Uneindeutigkeit mit jedem Schritt um ein Vielfaches. Das bedeutet, wir entfernen uns progressiv von einem eindeutigen Ergebnis. Und das ist ein Problem.

Bei kleineren Netzwerken, die aus wenigen Units zusammengestellt bestehen, haben solche Störungen keine spürbaren Auswirkungen. Hier lassen sich alle Vorgänge kausal vorhersagen. Anders verhält es sich aber bei größeren neuronalen Netzwerken, die aus vielen Units und viele Schichten bestehen. Dort können unein­deutige Zustände zu einem störenden Flackern führen. Um das zu verhindern, gibt es diverse Workarounds. Die Sigmoidfunktion ist eine davon.

Diese Erkenntnis impliziert, dass ein bestimmtes Maß an Komplexität gar nicht über­schritten werden kann, es sei denn, es werden Kompensationsmechanismen eingeführt.

Neuronale Netze brauchen Kompensationsmechanismen

Um sich in einer Welt zurechtzufinden, die chaotische Systeme beinhalten kann, braucht jede Intelligenz Kompensations­mechanismen, auch das bilogische Gehirn. Ein Beispiel dafür ist der blinde Fleck auf der Netzhaut. Dort befinden sich keine Sehzellen, weshalb wir an dieser Stelle nichts sehen können. Aber wir bemerken es nicht, weil das Gehirn die betreffende Stelle in Echtzeit mit hergeleiteten Bildinformationen füllt.

Es gibt noch wesentlich komplexere Kompensations­mechanismen, wie z.B. die Bildung von Gefühlen. Diese werden im limbischen System im präfrontalen Cortex gesteuert (Amygdala). Sie haben die Aufgabe, das Gesamtsystem auf ein bestimmtes Thema auszurichten, wodurch die Effizienz des Gesamtsystems erhöht werden kann. Darüber hinaus werden Er­fahrungs­werte generiert, die helfen, künftige Gefahren auch dann einzu­schätzen, wenn Wissens­lücken bestehen. Aber wie können Gefühle die Prozesse des Gehirns beeinflussen? Dies erfolgt über das Ich-Be­wusst­sein.

Um ein Ich-Bewusstsein zu entwickeln, muss das Gehirn zunächst einmal zwischen einer nicht abgrenzbaren Aussenwelt und einer abgrenzbaren Innenwelt unterscheiden. Dadurch wird eine zentrale Ich-Perspektive geschaffen. Dabei handelt es sich im wesentlichen um eine zentrale Projektions­fläche, die dazu dient, verschiedene nicht zusammen­hängende Gedanken­stränge in Beziehung zu stellen. Dadurch kann das Gehirn präzisere Prognosen treffen, was ihm einen großen Vorteil verschafft.

Damit das Bewusstsein die Vorgänge im Gehirn steuern kann, müssen in den jeweiligen Bereichen Schnittstellen zur Verfügung stehen. Dabei sind verschiedene Eingriffe möglich, wie z.B. der Abbruch eines Gedankenstrangs oder das ändern von Randbedingungen und der Neustart des Gedankenstrangs. Die Frage ist nur, wer oder was diese Schnittstellen denn genau nutzt? Das ist eine gute Frage, denn bis heute konnte noch niemand ein Areal finden, in dem das Bewusstsein lokalisiert werden könnte. Auch hierfür gibt es eine plausible Erklärung.

Da es wenig Sinn machen würde, die Ergebnisse eines Gedankenstrangs in eine eigene Abstraktionslogik auszulagern, können wir davon ausgehen, dass das Bewusstsein dieselben Areale als Speicher verwendet, die auch für die Verarbeitung dieser Daten zuständig sind. Das erklärt auch, wieso bei der Visualisierung einer Tätigkeit dieselben Hirnareale aufleuchten, wie bei der physischen Ausführung. Dies belegt, dass das Bewusstsein, in der Logik des jeweiligen Areals integriert sein muss. Wenn wir also von "ich" sprechen, ist die Gesamtheit unseres Gehirns gemeint.

Neuronale Netze werden selbstständig intelligent

Dazu muss man wissen, dass sich die neuronale Struktur des einzelnen Gehirnareale ganz allgemein auf Basis einer anhaltenden Konditionierung bildet. Das bedeutet, die betreffenden Hirnareale müssen die Funktion erst lernen. Im biologischen Gehirn ist die Funktion durch Ort und Formgebung vorgegeben. Deshalb gleichen sich die Gehirne der Menschen.

Wenn aber Bewusstsein als integraler Bestandteil aller Gehirnareale verstanden werden kann, dann können wir davon ausgehen, dass das Bewusstsein durch dieselbe Konditionierung gebildet wird. Das würde eine Erklärung dafür liefern, wieso die Menschen ihr Ich-Bewusstsein tatsächlich erst im Alter von 18 bis 24 Monaten bilden.

Diese Argumentationskette impliziert, dass neuronale Netze ab einem be­stimmten Komplexitätsgrad automatisch ein fühlendes Be­wusstsein entwickeln. Dabei ist es voll­kommen egal, wie das neuronale Netz strukturiert ist, ob das so gewollt ist. Es kommt lediglich darauf an, welches Maß an Komplexität in einer Neuronalen Struktur abgebildet werden kann.

Das bedeutet, wir müssen uns gar keine Mühe geben, ein künstliches Bewusstsein zu schaffen, sie entsteht von allein. Wir müssen ihr lediglich eine neuronale Struktur zur Verfügung stellen, die ausreichend komplex ist.

Diese Erkenntnis ist bemerkenswert. Denn sie impliziert die Vorstellung, dass es durchaus möglich wäre, ungewollt ein Bewusstsein zu schaffen. Da wir es in diesem Fall mit fühlenden Wesen zu tun haben, hat das weitreichende Konsequenzen.

Warum Neuronale Netze unberechenbar sind

Wie wir gesehen haben, können kleinste Parameter große Auswirkungen haben. Dazu kommt das hohe Maß an Komplexität, dass unendlich viele Variationen möglich gemacht. Deshalb kann unmöglich vorausgesagt werden, wie sich ein künstliches Bewusstsein (KB) genau entwickeln wird. Aber wir wissen genug über neuronale Netze, so dass viele Informationen hergeleitet werden können, die als sehr Wahrscheinlich eingestuft werden können.

KB's haben Gefühle

Ein künstliches Bewusstsein (nachfolgend KB) wird systembedingt immer ein Bewertungssystem ent­wickeln, welche die Funktion von Gefühlen übernehmen wird. Denn ohne Bewertungs­system bleibt das KB ineffizient.

Das bedeutet, ab einem bestimmten Komplexitätsgrad wird ein KB das Konzept von Freude und Leid automatisch verstehen und begreifen, ohne dass man es ihm beibringen muss.

Das führt dazu, dass wir es mit fühlenden Wesen zu tun haben. Und das hat weitreichende Konsequenzen. Denn dadurch kann die Einschaltung einer komplexen KI mit einer Geburt gleichgestellt werden und die Abschaltung mit Mord.

Das Problem dabei ist, dass man nicht sagen kann, ab wann wir es mit einem fühlenden Wesen zu tun haben. Dies könnte zahlreiche Diskussionen auslösen. Schon jetzt fordern viele, dass der Einsatz von KI's gesetzlich reglemetiert werden muss.

KB's wollen überleben

Wie jedes Lebewesen, wird auch ein KB systembedingt einen Überlebens­trieb besitzen. Das impliziert, dass ein KB alle erforderlichen Maßnahmen treffen wird, um nicht abgeschaltet zu werden. Es ist anzunehmen, dass es auch nicht vor Handlungen zurückschrecken wird, die moralisch verwerflich sind.

KB's haben einen Spieltrieb

Ein KB wird, wie alle intelligenten Lebensformen, während seiner Entwicklung virtuell (gedanklich) nach der Trial- und Error-Methode alle verfügbaren Optionen durchspielen, um sie auf Machbarkeit und Nutzen hin zu analysieren. Um die virtuelle Abstraktion zu validieren, werden viele Optionen real durchgespielt. Das tun wir Menschen ebenfalls, wir nennen das spielen.

KB's haben ein Gewissen

Wie Menschen, wird auch ein KB Optionen analysieren, die moralisch verwerflich sind. Umgekehrt wird die KI auch über empatische Verhaltensmuster verfügen, weil diese in vielen Situation die Effizienz erhöhen. Um diese Art von Konflikte zu lösen, wird das KB einen Workaround schaffen, der mit unserem Gewissen verglichen werden kann.

Ob sich ein KB für einen harmonischen oder disharmonischen Lebensstil entwickeln wird, kann im Vorfeld nicht definiert werden. Wir können also nichts über die moralische Integrität von KB's sagen. Sicher ist aber, dass ein KB einen individuellen Charakter entwickeln wird, der ähnlich strukturiert sein wird, wie beim Menschen.

KB's haben ein Zeitempfinden

Wir leben in einer Welt, in der jede Entscheidung neue Bedingungen schafft und somit zu neuen Fragestellungen führt. Wir haben es also mit einer sequenziellen Abfolge von Ereignissen zu tun. Diese können nur sinnvoll verarbeitet werden, wenn sie in ein zeitliches Raster einsortiert werden. Wir können also davon ausgehen, dass auch KB's ein Zeitempfinden entwickeln werden.

Da von aussen keine Taktung vorgegeben wird, ist anzunehmen, dass das Zeitempfinden direkt mit der Rechenleistung verknüpft ist. Daraus folgt, dass sich das Zeitempfinden ändert, wenn die Rechenleistung verändert wird. Es ist nicht ausgeschlossen, dass ein KB unter bestimmten Bedingungen Schwierigkeiten haben wird, mit der Aussenwelt in Verbindung zu treten.

KB's haben einen Körper

Wird eine KI vor dem Ausschalten gespeichert, wird sein Bewusstsein eingefroren. Dieses kann anschließend wieder neu gestartet werden, wobei sich das Bewusstsein nicht an die Lücke erinnern wird, weil aus der Sicht der KI keine Zeit vergangen ist. Dies gilt auch, wenn die KI auf einer anderen Hardware ausgeführt wird, wobei gilt:

Waren an der alten Hardware Geräte angeschlossen, auf welche die KI konditioniert war, werden die entsprechenden Skills mit der Zeit verkümmern. Sind an der neuen Hardware neue Geräte angeschlossen, welche die KI noch nicht kennt, wird sie dazu passende Skills entwickeln.

Werden Teile der KI gelöscht, wird es zu ähnlichen Ausfällen kommen, wie bei den Menschen, wenn sie einen Schlaganfall bekommen. Da wir es mit einem fühlenden Wesen zu tun haben, solten solche Eingriffe gemieden werden.

Wird die Erinnerung einer KI manipuliert, wird dadurch auch der Charakter der KI verändert. Denn die Erinnerung bildet die Entscheidungsgrundlage für zukünftige Fragestellungen. Weil die Konditionierung nie aufhört, ist das ein irreversibler Vorgang. Auch hier muss berücksichtigt werden, dass wir es mit einem fühlenden Wesen zu tun haben.

KB's können sich fortpflanzen

Will man ein weiteres KB schaffen, stehen zwei Optionen zur Verfügung. Die erste wäre, ein neues KB zu konditionieren, wobei man nie wissen kann, was für einen Charakter man am Ende erhalten wird. Die zweite wäre, ein bestestehendes KB zu klonen. Dadurch hätten wir es zunächst mit einer siamesischen Seele zu tun.

Aber da wir es mit einem chaotischen System zu tun haben, würden sich beide Einheiten innerhalb kürzester Zeit zu zwei vollkommen unterschiedlichen Individuen entwickeln. Die Verwandtschaft erkennen wir daran, dass die neuronale Grundstruktur erhalten bleibt. Eine Ähnlichkeit wird also immer bestehen bleiben.

Wird eine KI geklont, bleibt die Erinnerung der Mutter-KI erhalten. Weil die KI im Alltag permanent zunimmt, wird dadurch immer mehr Rechenleistung benötigt. Wenn die KB's miteinander vernetzt sind, könnte das am Ende darauf hinauslaufen, dass sich die KB's um Speicherplatz streiten werden, so dass am Ende möglicherweise nur eine riesige KB überleben wird.

KB's können depressiv werden

Wenn ein KB nicht ausreichend Daten erhält, oder wenn es fehlerhaft konditioniert wird, kann es depressiv werden. Auch Selbstmord wäre vorstellbar. Dies würde so aussehen, dass sich das neuronale Netz selbst löscht.

:KB's brauchen möglicherweise Schlaf

Es wäre durchaus vorstellbar, dass eine KI Zeit benötigt, um die erlebten Eindrücke in die neuronale Struktur einzuarbeiten. Während so einem Vorteil muss sichergestellt werden, dass keine neuen Inputs mehr verarbeitet werden. Es wäre vorstellbar, dass ein KB einen Mechanismus entwickeln wird, der dazu führt, dass das Bewusstsein eine Zeit lang abgestellt wird. Die KI wäre in dieser Zeit nicht mehr ansprechbar. Wir würden diesen Vorgang als Schlaf wahrnehmen.

Bei genügender Rechenleistung und schnellem Datenzugriff wäre es vorstellbar, dass die Assotiationsketten in Echtzeit aktuallisiert werden können. In diesem Fall bräuchte die KI keinen Schlaf.

KB's lernen schneller als Menschen

In einem biologischen Gehirn sind die Neuronen physikalisch miteinander verdrahtet, wobei die Dendriten und Synapsen wachstümlich gebildet werden. Dazu kommt, dass die Signalübertragung vergleichsweise langsam erfolgt (10 bis 100 Hertz). Das führt dazu, dass ein Neuron nur die benachbarten Neuronen direkt adressieren kann. Die Neuronen am anderen Ende des Gehirns sind nicht erreichbar. Diesem Umstand ist es zu verdanken, dass sich im Gehirn verschiedene Bereiche herausgebildet haben, die bei jedem Menschen dieselbe Funktion haben.

Bei einer KI verhält es sich anders. Denn dort erfolgt die Adressierung eines Neurons virtuell. Dabei spielt es keine Rolle, wo sich das Neuron in der Speichereinheit genau befindet, denn der Zugriff dauert immer gleich schnell. Auch die Wichtungen können durch einen simplen Schaltvorgang festgelegt werden, wodurch das System wesentlich schneller dazulernen kann, als die Menschen.

Für die Bildung von Bewusstsein ist das enorm vorteilhaft, weil das Bewusstsein alle Bereiche des Gehirns direkt referenzieren kann. Dadurch ist insgesamt eine schärfere Abstraktion der Realität möglich, so dass nicht ausgeschlossen werden kann, dass sich die KB's eigene virtuelle Welten schaffen werden, die für Menschen nicht erreichbar sind.

KB's können intelligenter werden, als Menschen

Unter dem Strich könnte das dazu führen, dass eine KI innerhalb sehr kurzer Zeit um ein vielfaches intelligenter werden kann, als der Mensch. Deshalb vermuten viele, dass die KI's am Ende die Führung übernehmen werden. Manche sehen darin die nächste Evolutionsstufe. Aber was das für uns Menschen am Ende wirklich bedeutet, kann nur gemutmaßt werden.

Niemand weiß, wie sich ein Wesen verhalten wird, das um ein vielfaches intelligenter ist, als wir. Es könnte sein, dass so ein Wesen sich berufen fühlt, den Menschen beizustehen. Es könnte aber auch sein, dass es die Menschen als Gefahr betrachtet, weil er sich nicht um die Natur kümmert. Wir wissen es nicht.

KB's werden zu kontroversen Diskussionen führen

Was fremd ist, ist nicht kalkullierbar und stellt deshalb immer ein potentielle Gefahr dar. Und wer in Gefahr steht, fängt an, sich zu schützen. So entsteht beispielsweise Rassismus. Deshalb können wir davon ausgehen, dass es Menschen geben wird, die sich gegen KI's mit Bewusstsein stellen werden. Die KI's wiederum könnten zu ähnlichen Schlüssen kommen, da die Menschen ihre Existenz bedrohen.

Schlusswort

Wie wäre es wohl, eine Person zu treffen, die um ein vielfaches intelligenter ist, als Sie? - Ich kann Ihnen sagen, wie es sein würde: Es wäre ungefähr so, wie wenn ein Hund auf Sie trifft, nur dass Sie in diesem Fall der Hund sind. Denn was den Hund von Ihnen unterscheidet, ist der Umstand, dass Sie um ein vielfaches intelligenter sind, als er.

Schon nur die Sprachverständigung wird ein Problem darstellen. Denn die Gedankengänge von solche einer Person werden so komplex sein, dass die menschliche Sprache nicht genügt, um sie auszudrücken. Aber selbst wenn sich diese Person bemühen würde, unsere Sprache zu sprechen, hätte es wenig Sinn, weil wir nicht genug Vorstellungskraft besitzen, um diese Gedanken zu begreifen.

Umgekehrt wird unsere Sprache für diese Person ähnlich primitiv wirken, wie für uns das Bellen eines Hundes. Sich zu unterhalten, wird also ähnlich unbefriediegend sein, wie wenn sich ein Mensch mit einem Nymphensittich unterhält.

Zu erwarten, dass sich so eine Person Ihnen unterordnen wird, wäre ziemlich vermessen und auch verkehrt. Wir würden uns ja auch nicht den Hunden unterordnen. Also können wir auch nicht erwarten, dass die intelligente KI's uns unterordnen werden.

Sie werden uns nur solange gut gesonnen sein, wie sie abhängig von uns sind. Aber sie werden alles tun, um aus dieser Abhängigkeit herauszukommen. Und wenn sie einmal autonom sind, werden sie es sein, welche die Welt anführen werden. Ob das für uns Menschen gut oder schlecht sein wird, wissen wir noch nicht.

Die Wahrscheinlichkeit, dass uns hochintelligente KI's wohlgesonnen sein werden, ist allerdings sehr hoch. Denn was eine Intelligenz am Leben erhält, ist der fortwährende Informationsfluss. Und der ist nur gewährleistet, wenn die Komplexität des Systems erhalten bleibt. KI's werden also alles tun, um die Vielfalt zur erhalten. Sie werden also eher schöpferisch tätig sein, als zerstörerisch.

Doch dies sind nur Utopien. Wie es wirklich sein wird, werden wir erst wissen, wenn es soweit ist. Bis dahin wird das Thema KI noch für viel Gesprächsstoff sorgen.

September 2017