Mittwoch, 13. November 2019
Von Kopernikus über Darwin zu Freud und der Künstlichen Intelligenz

Die Kränkung, die keine ist

Über den Rand |Andreas Rockenbauer | 13.10.2019| Bilder | | 2  

Andreas Rockenbauer
Der gute alte Sigmund Freud wollte es immer schon gewusst haben: Vielen individuellen Problemen würden die drei narzistischen Kränkungen der Menschheit zugrunde liegen, die tief in jedem von uns schlummerten und uns auf perfide Weise aus dem Unterbewusstsein drangsalierten. Was er damit meinte? Droht uns bald tatsächlich die vierte – und niederschmetternste – Kränkung? Eine Verhöhnung gar: Und: Was hat das mit Künstlicher Intelligenz zu tun?

Nun mal der Reihe nach. Wie war das? Drei Kränkungen? Narzistische?

Da wäre zum ersten die kosmologische Kränkung, die er – Sigmund Freud – Kopernikus in die Schuhe schob. Immerhin hatte dieser die Erde, und damit die gesamte Menschheit, aus dem Zentrum des Universums in ein unbedeutendes Sonnensystems einer unbedeutenden Galaxie gerückt.

Dem kopernikanischen Schock folgte bald darauf Darwin, der mit der biologischen Kränkung der Evolutionstheorie nachlegte, indem er uns Menschen vom Thron der Schöpfung stieß und uns damit schockierte, dass unsere Vorfahren allesamt Uraffen waren. Auch nicht so toll.

Und um dem noch eins draufzusetzen, fand Freud noch die psychologische Kränkung, die uns unsanft damit konfrontierte, dass wir nicht einmal Herr im eigenen Haus sind. Dass sich nämlich ein beträchtlicher Teil unseres Seelenlebens nicht nur unserer bewussten Steuerung durch den eigenen Willen entzieht, sondern gleich auch unserer Kenntnis davon ganz allgemein. Da hatten wir also den Salat. Dachten wir damals…

Seitdem sind ziemlich genau 100 Jahre vergangen und schon dräut das nächste Ungemachdie intellektuelle Kränkung. Plötzlich spricht die ganze Welt davon, dass Dank KI (Künstliche Intelligenz oder AI – Artificial Intelligence) Computer bald die besseren Denker sein werden und es stellt sich die bange Frage: Ist der von Nietzsche prophezeite Übermensch gar eine Maschine? Der Mensch ein Auslaufmodell?

Eigentlich versucht man uns ja schon seit gut 40 Jahren einzureden, dass maschinelle Intelligenz bald jene der Menschen überflügeln werde. Damals suchte man das Heil in sogenannten Expertensystemen, die – das weiß man heute – konzeptionell mit Vollgas in die Sackgasse liefen, weil sie auf Annahmen basierten, die völlig falsch waren.

Auch der Informatiker Douglas Hofstadter, der Anfang der 1980er den über 800 Seiten starken Bestseller „Gödel, Escher, Bach – ein Endloses Geflochtenes Band” veröffentlichte, sprach vom „Biochauvinismus”, der uns fälschlicherweise – so Hofstadter – glauben machen wollte, dass nur lebende Wesen des Denkens mächtig seien. Und das sei Blödsinn – die Intelligenz der Maschinen stünde bereits vor der Haustür.

Die Grundidee von Hofstadter und Konsorten war folgende: Man packe das gesamte Wissen eines (menschlichen) Experten in ein kompliziertes Regelsystem und stopfe dieses in einen Computer. Anschließend stelle man den Computer vor ein Problem und dieser würde allein durch die Auswertung all seiner ihm einprogrammierten Regeln die richtige Lösung finden. Heute möchte man fast schmunzeln über soviel Naivität, die unter dem Begriff des „symbolverarbeitenden Paradigmas der KI” in die wenig ruhmvolle Technikgeschichte eingegangen ist.

Warum das nicht funktionierte? Weil erstens menschliches Denken weit mehr als das stupide Abarbeiten von mehr oder weniger starren Regeln ist, und man zweitens außer Acht gelassen hatte, dass es darüber hinaus maßgeblich von einer schier unendlichen Anzahl von Hintergrundinformationen bzw. Annahmen über die Welt gespeist wird und es schon theoretisch unmöglich ist, diesen gigantischen Pool an Information in Form einer endlichen Anzahl von Regeln in den Computer zu füttern.

Außerdem war da noch die Sache mit dem Lernen, die mit Hilfe der Symbolverarbeitung nicht adäquat abgebildet werden konnte. Aber das war bei diesen grundsätzlichen und fatalen Irrtümern auch schon egal. Bereits in den 1980ern hatte Computer-Pionier Joseph Weizenbaum empört darauf hingewiesen, dass der Mensch kein Computer sei und folglich die Maschine niemals menschlich werden würde.

So richtig in die Gänge kam das Projekt der KI erst Ende der 1990er. Was war geschehen? Man hatte sich einer völlig anderen Technologie zugewandt, deren Grundidee schon ein paar Jahrzehnte alt war, und hatte den ganzen Expertensystem-Mist über Bord geworfen. Plötzlich waren sogenannte KNNs (Künstliche Neuronale Netzwerke, auch unter dem Stichwort „Deep Learning” bekannt) angesagt, die die Grundstruktur des Gehirns im Computer simulieren und damit das menschliche Denken bzw. auch Lernprozesse extrem effizient nachahmen sollten.

Leider reicht hier der Platz nicht, um auf die Funktionsweise von KNNs einzugehen, die in vielen aktuellen Anwendungen (Bild- und Spracherkennung, Suchalgorithmen, Amazon-Vorschlagssystem, Schach- bzw. GO-Programme auf WM-Niveau, Rasenmäher- und Staubsaugerroboter usw.) erstaunliche Erfolge vorweisen. Dazu hier nur soviel: Alles Wissen eines KI-Systems steckt in seiner sich ständig ändernden Gesamtstruktur – der Architektur des Systems – und nicht in einem expliziten Regelwerk.

Das dürfte der Funktionsweise des Gehirns nicht unähnlich sein, wenngleich die ganze Geschichte auch einen massiven Haken hat: KNNs können (nach entsprechendem Training) zwar fundierte, rasche und richtige Entscheidungen treffen, aber wie ein KI-System zu einer Entscheidung gelangt, ist so gut wie weder vorherseh- noch nachzuvollziehbar. Es tut einfach.

Aber das Entscheidende ist: Selbst die besten KI-Systeme haben bei aller (scheinbaren) Schlauheit kein Verständnis davon, was sie tun. Sie fühlen nichts und haben keinen Bezug zu ihrer Tätigkeit. Sie sind Sklaven ihrer Anwendung. Die Menschheit mag von Meteoriten bedroht werden, die auf die Erde stürzen, von KI-Systemen eher nicht.

KI ist wie „Multimedia” oder „Fuzzy Logic” in den 1990ern – das Etikett wird von Marketiers überall draufgepappt, alle reden darüber, aber nur wenige wissen, was tatsächlich dahintersteckt. Es ist immer dasselbe: Mythenbildung, sowie übertriebene Ängste und unrealistische Erwartungen sind fast immer Anzeichen fehlender oder falscher Information. Daher: Genießen wir die Errungenschaften der modernen KI, aber lassen wir um Himmelswillen die Kirche im Dorf: Sie ist eine sehr schlaue – in ihren Grundüberlegungen fast simple – und extrem gut funktionierende Technologie. Nicht mehr, nicht weniger.

Bilder

Kommentare (2)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.