Besuchen Sie uns auf LinkedIn
Sonntag, 28. April 2024
Kritische Betrachtungen zum KI-Hype

Intelligent? Quatsch!

Hintergrund | Andreas Rockenbauer | 06.05.2018 | |  Archiv

Angesichts bahnbrechender Technologien neigen Menschen dazu, die Segnungen durch diese deutlich zu über-, und Gefahren, Probleme sowie Fehleinschätzungen ebenso zu unterschätzen. Das ist nichts Neues. Doch die atemlosen Diskussionen, Schlagzeilen und Erlösungsversprechen rund um die Künstliche Intelligenz (KI) nerven mich gewaltig. Vieles davon ist nämlich undifferenziert und mit ganz grundlegenden Fehlinformationen gespickt.

Es scheint, als würde die ganze Welt plötz­lich auf einer hysterischen KI-Welle rund um die Behauptung reiten, dass Maschinen nun zusehends menschenähnlich würden. Bei al­ler Hochachtung vor den großteils ganz au­ßergewöhnlichen Ingenieursleistungen, aber das ist Unsinn. KI bleibt das, was sie ist: Die mehr oder weniger gute Simulation(!) von einfachsten Denkprozessen, die auf ge­nau definierte Aufgaben angewendet wird.

Basis dafür ist eine Technik, die nicht allzu geheimnisvoll ist und bereits vor vielen Jahrzehnten entwickelt wurde: Mittels Software werden einfache neuronale Netze nachgebildet, und über eine meist riesige Anzahl von Testfällen „lernt” das KI-System, sich in ganz bestimmten Situationen einigermaßen vernünftig zu verhalten oder bestimmte Muster zu erkennen. Weder „denkt” es dabei im menschlichen Sinn, noch fühlt es et­was. Es arbeitet bloß ganz viele Regeln ab, die es im Laufe seines Einsatzes verändert.

Dazu passend möchte ich gleich mit einem verbreite­ten Missverständnis aufräu­men: Künstliches Bewusstsein (wenn es tatsächlich jemals so etwas geben sollte und das darf aus heutiger Sicht bezweifelt werden) ist etwas fundamental Anderes als KI.

Zu behaupten, dass irgendwelche KI-Systeme bereits über eine Art künstli­ches Bewusstsein verfügten, ist völliger Blödsinn. Bewusstsein, künstlich oder nicht, hat immer etwas mit Empfindung(!) zu tun. So fühlt es sich für mich auf ganz bestimmte Weise an, Ich zu sein. Ich empfinde Schmerzen, Trauer, Glück – oder lache über einen guten Witz, weil ich ihn lustig (emp)finde. Das alles kann selbst das beste KI-System nicht: Es ist ein Haufen toter Materie, mit viel Know How entwickelt, aber gefühllos.

Tesla-Chef Elon Musk gab in einem Interview mit dem TV-Sender CBS zu, dass die kompromisslose Automatisierung bei der Tesla-Produktion zum Teil schiefgegangen ist, weil sie in vielen Fällen den Prozess verlangsamt hätte: „Die übertriebene Automatisierung war ein Fehler. Menschen sind unterbewer­tet.” Mitten im Hype rund um, mit KI gewürzter, Automati­sierungsanbetung, kommt dieses Eingeständnis überraschend. 

Technik ist faszinierend, aber es tut gut, wenn jemand in ei­ner Zeit, wo der Mensch zusehends als Mängelwesen verun­glimpft wird, mal ganz andere Töne anschlägt: Der Mensch ist unterbewertet. Man kann es gar nicht oft genug wiederholen.

Während Computer unfassbar schnell rechnen können, kann der Mensch genau das nicht. Und dennoch gelingt es uns, kom­plexe Situationen auf einen Blick zu erfassen, während Compu­ter an solchen Aufgaben kläglich scheitern.

Dazu habe ich ein Gedankenexperiment ge­funden, das Kognitionswissenschaftler und Philosoph Daniel C. Dennett bereits 1984 formuliert hat, um auf etwas hinzuweisen, das bis heute nicht ge­löst ist: das Problem der Echtzeitkognition.

Stellen wir uns einen Roboter R1 vor, der „weiß”, dass er regelmäßig seine Batterie wech­seln muss, um funktionsfähig zu bleiben. Dieser wird vor folgende Situation gestellt: Seine Ersatzbatterie befindet sich in einem ab­geschlossenen Raum und steht dort auf einem kleinen Wagen, auf dem auch eine Bombe liegt, die kurz davor ist, zu explodieren. Was passiert?

R1 findet den Raum, lokalisiert den Schlüssel, um die Tür zu öffnen und berech­net einen Plan zur Rettung der Ersatzbatterie: Er schiebt den Wagen hinaus. Aus Beobachtersicht ein fataler Irrtum, denn zusammen mit der Batterie nimmt er auch die Bombe mit, die kurz darauf explodiert. Mission gescheitert.

In einer ersten Reaktion entscheiden sich die Entwickler, den Nachfolger R2 um die Fähigkeit zu erweitern, die Folgen seines Handelns bis ins kleinste Detail zu beurteilen, um den Fehler von R1 zu vermeiden. Was macht R2?

Er betritt den Raum, lokalisiert den Wagen mit Bombe und Batterie – und hält inne. Nichts passiert, bis die Bombe explodiert. Während man nach außen hin den Eindruck haben musste, R2 würde in Wartepo­sition verharren, tat sich in seinem Inneren sehr viel: Er begann, die riesige Menge an Aus­wirkungen seines geplanten Handelns zu berechnen und war gerade zu der Schluss­folgerung gekommen, dass das Entfernen des Wagens aus dem Raum keinerlei Auswirkun­gen auf dessen Wandfarbe haben würde, als es zu spät war.

Die Entwickler ersannen Abhilfe: R3 sollte mit der Funktion ausgestattet werden, relevante Implikationen von irrelevanten zu unterscheiden.

Umso überraschter waren sie, als R3 über­haupt keine Anstalten machte, irgendetwas zu tun. Darauf riefen die Ingenieure, er solle verdammt nochmal handeln. „Mach ich doch”, antwortete R3. „Ich bin damit beschäftigt, die irrelevanten Auswirkungen meines geplanten Handelns zu identifizieren und daraus eine Liste zu erstellen von Dingen, die ignoriert werden können und …” Die Bombe explodierte.

Was da überzeichnet wirkt, stellt die KI-Forschung tatsäch­lich vor ein Problem: Warum würde jeder Mensch die beschrie­bene Situation sofort erfassen und richtig handeln?

Wie funk­tioniert unsere mühelose Interaktion mit der Welt trotz einer, verglichen mit Computern, erbärmlich schwachen Rechenleis­tung? Man weiß das bis heute nicht.

Sehen wir also die KI als Chance, uns auf das zu konzentrie­ren, worin wir Experten sind: Situationen gesamtheitlich erfas­sen, uns empfindend und sozial interagierend durch die Welt be­wegen, ab und an auch Fehler machen und aus diesen lernen, und uns auch an irrationalen Gedanken erfreuen und in deren Fahrwasser unheimlich kreativ werden. Denn Elon Musk hat verdammt recht: Menschen sind unterbewertet.

Diesen Beitrag teilen

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

An einen Freund senden