Intelligent? Quatsch!
Angesichts bahnbrechender Technologien neigen Menschen dazu, die Segnungen durch diese deutlich zu über-, und Gefahren, Probleme sowie Fehleinschätzungen ebenso zu unterschätzen. Das ist nichts Neues. Doch die atemlosen Diskussionen, Schlagzeilen und Erlösungsversprechen rund um die Künstliche Intelligenz (KI) nerven mich gewaltig. Vieles davon ist nämlich undifferenziert und mit ganz grundlegenden Fehlinformationen gespickt.
Es scheint, als würde die ganze Welt plötzlich auf einer hysterischen KI-Welle rund um die Behauptung reiten, dass Maschinen nun zusehends menschenähnlich würden. Bei aller Hochachtung vor den großteils ganz außergewöhnlichen Ingenieursleistungen, aber das ist Unsinn. KI bleibt das, was sie ist: Die mehr oder weniger gute Simulation(!) von einfachsten Denkprozessen, die auf genau definierte Aufgaben angewendet wird.
Basis dafür ist eine Technik, die nicht allzu geheimnisvoll ist und bereits vor vielen Jahrzehnten entwickelt wurde: Mittels Software werden einfache neuronale Netze nachgebildet, und über eine meist riesige Anzahl von Testfällen „lernt” das KI-System, sich in ganz bestimmten Situationen einigermaßen vernünftig zu verhalten oder bestimmte Muster zu erkennen. Weder „denkt” es dabei im menschlichen Sinn, noch fühlt es etwas. Es arbeitet bloß ganz viele Regeln ab, die es im Laufe seines Einsatzes verändert.
Dazu passend möchte ich gleich mit einem verbreiteten Missverständnis aufräumen: Künstliches Bewusstsein (wenn es tatsächlich jemals so etwas geben sollte und das darf aus heutiger Sicht bezweifelt werden) ist etwas fundamental Anderes als KI.
Zu behaupten, dass irgendwelche KI-Systeme bereits über eine Art künstliches Bewusstsein verfügten, ist völliger Blödsinn. Bewusstsein, künstlich oder nicht, hat immer etwas mit Empfindung(!) zu tun. So fühlt es sich für mich auf ganz bestimmte Weise an, Ich zu sein. Ich empfinde Schmerzen, Trauer, Glück – oder lache über einen guten Witz, weil ich ihn lustig (emp)finde. Das alles kann selbst das beste KI-System nicht: Es ist ein Haufen toter Materie, mit viel Know How entwickelt, aber gefühllos.
Tesla-Chef Elon Musk gab in einem Interview mit dem TV-Sender CBS zu, dass die kompromisslose Automatisierung bei der Tesla-Produktion zum Teil schiefgegangen ist, weil sie in vielen Fällen den Prozess verlangsamt hätte: „Die übertriebene Automatisierung war ein Fehler. Menschen sind unterbewertet.” Mitten im Hype rund um, mit KI gewürzter, Automatisierungsanbetung, kommt dieses Eingeständnis überraschend.
Technik ist faszinierend, aber es tut gut, wenn jemand in einer Zeit, wo der Mensch zusehends als Mängelwesen verunglimpft wird, mal ganz andere Töne anschlägt: „Der Mensch ist unterbewertet.” Man kann es gar nicht oft genug wiederholen.
Während Computer unfassbar schnell rechnen können, kann der Mensch genau das nicht. Und dennoch gelingt es uns, komplexe Situationen auf einen Blick zu erfassen, während Computer an solchen Aufgaben kläglich scheitern.
Dazu habe ich ein Gedankenexperiment gefunden, das Kognitionswissenschaftler und Philosoph Daniel C. Dennett bereits 1984 formuliert hat, um auf etwas hinzuweisen, das bis heute nicht gelöst ist: das Problem der Echtzeitkognition.
Stellen wir uns einen Roboter R1 vor, der „weiß”, dass er regelmäßig seine Batterie wechseln muss, um funktionsfähig zu bleiben. Dieser wird vor folgende Situation gestellt: Seine Ersatzbatterie befindet sich in einem abgeschlossenen Raum und steht dort auf einem kleinen Wagen, auf dem auch eine Bombe liegt, die kurz davor ist, zu explodieren. Was passiert?
R1 findet den Raum, lokalisiert den Schlüssel, um die Tür zu öffnen und berechnet einen Plan zur Rettung der Ersatzbatterie: Er schiebt den Wagen hinaus. Aus Beobachtersicht ein fataler Irrtum, denn zusammen mit der Batterie nimmt er auch die Bombe mit, die kurz darauf explodiert. Mission gescheitert.
In einer ersten Reaktion entscheiden sich die Entwickler, den Nachfolger R2 um die Fähigkeit zu erweitern, die Folgen seines Handelns bis ins kleinste Detail zu beurteilen, um den Fehler von R1 zu vermeiden. Was macht R2?
Er betritt den Raum, lokalisiert den Wagen mit Bombe und Batterie – und hält inne. Nichts passiert, bis die Bombe explodiert. Während man nach außen hin den Eindruck haben musste, R2 würde in Warteposition verharren, tat sich in seinem Inneren sehr viel: Er begann, die riesige Menge an Auswirkungen seines geplanten Handelns zu berechnen und war gerade zu der Schlussfolgerung gekommen, dass das Entfernen des Wagens aus dem Raum keinerlei Auswirkungen auf dessen Wandfarbe haben würde, als es zu spät war.
Die Entwickler ersannen Abhilfe: R3 sollte mit der Funktion ausgestattet werden, relevante Implikationen von irrelevanten zu unterscheiden.
Umso überraschter waren sie, als R3 überhaupt keine Anstalten machte, irgendetwas zu tun. Darauf riefen die Ingenieure, er solle verdammt nochmal handeln. „Mach ich doch”, antwortete R3. „Ich bin damit beschäftigt, die irrelevanten Auswirkungen meines geplanten Handelns zu identifizieren und daraus eine Liste zu erstellen von Dingen, die ignoriert werden können und …” Die Bombe explodierte.
Was da überzeichnet wirkt, stellt die KI-Forschung tatsächlich vor ein Problem: Warum würde jeder Mensch die beschriebene Situation sofort erfassen und richtig handeln?
Wie funktioniert unsere mühelose Interaktion mit der Welt trotz einer, verglichen mit Computern, erbärmlich schwachen Rechenleistung? Man weiß das bis heute nicht.
Sehen wir also die KI als Chance, uns auf das zu konzentrieren, worin wir Experten sind: Situationen gesamtheitlich erfassen, uns empfindend und sozial interagierend durch die Welt bewegen, ab und an auch Fehler machen und aus diesen lernen, und uns auch an irrationalen Gedanken erfreuen und in deren Fahrwasser unheimlich kreativ werden. Denn Elon Musk hat verdammt recht: Menschen sind unterbewertet.
Kommentare