Editorial


Künstliche Intelligenz


Einleitung

Ich sitze vor dem Rechner und verfolge auf Youtube ein Tutorial, mit dem ich mich möglichst schnell in die Game-Engine “Godot” einarbeiten will. Dabei geht es mir nicht um die Entwicklung eines Spiels, sondern um eine Entwicklungsumgebung, mit der ich – vielleicht – meine Pläne zur Visualisierung von virtuellen 3D-Landschaften realisieren kann. Doch vorerst müssen die Zusammenhänge des komplexen Programms ergründet werden, und so nebenbei geht es um das Erlernen einer weiteren Programmierspache, die in diesem Fall von Python abgeleitet wurde.

Also lausche ich dem Tutor, der in angenehmer Sprache Schritt für Schritt in die Geheimnisse des Programms einführt, und zwar an Hand eines simplen 2D-Spiels. Es ist so etwas wie Bildschirmtennis, bei dem man gegen den Computer spielt. Natürlich muss ich die einzelnen Schritte nachvollziehen, denn einfach zuhören bringt nichts. Als das Kapitel zur Steuerung des Computer-Schlägers (“Gegner” genannt) dran ist, verspricht der Tutor, dass nun etwas KI dabei sei. Etwas “künstliche Intelligenz”? So wie eine Prise Salz? Was soll das denn? frage ich mich verblüfft und bin natürlich neugierig.

So programmiere ich also nach Vorschrift das Verhalten des Balkens, der sich nach oben und unten bewegt und so etwas wie einen Tennisschläger darstellen soll. Eine extrem simple Anglegenheit. Damit der Schläger sich nicht immer auf Ballhöhe befindet und somit dem Spieler vor dem Bildschirm keine Chance lassen würde, wird einfach eine Art Verzögerung eingeführt, im Stil der aus der Technik bekannten Hysterese. Im Grunde handelt es sich dabei um zwei If-Abfragen, mehr nicht. Etwas, was selbst für einen Anfänger keine Herausforderung sein sollte. Ein Programmablauf, der auf variable Spielsituationen in starrer, reproduzierbarer Weise reagiert. Dennoch fasste der Tutor am Ende zusammen, dass wir nun sogar etwas KI verwendet hätten. Hm, ich lasse die Passage noch einmal durchlaufen, aber nein, ich habe richtig gehört. Der sprach tatsächlich von “künstlicher Intelligenz”.

Also, eines kann ich in aller Kürze schon mal feststellen: Das einleitende Beispiel hat mit Intelligenz absolut nichts zu tun. Es ist so weit von Intelligenz entfernt wie ein Bollerwagen von einem Airbus. Wenn wir solche algorithmischen Trippelschrittte mit künstlicher Intelligenz in Verbindung bringen wollen, dann müssen wir die Glühlampe ebenfalls als intelligent bezeichnen, denn sie reagiert ja flexibel auf die Stellung des Schalters an der Tür. Oder auf die Signale, die von einem Dämmerungsschalter ausgehen. Die Frage ist vielmehr, wieso der Computer-Experte auf die Idee kommen kann, sowas als KI zu verkaufen. Oder die Branchenverbände, die auf Deibel-komm-raus alles im Haushalt mit künstlicher Intelligenz ausstatten wollen, wenn’s ginge sogar jeden Teelöffel.

Ganz einfach: Intelligenz ist positiv belegt, und “intelligente” Ware verkauft sich gut, egal ob es eine hohle Worthülse ist oder ob wirklich etwas dahinter steckt, was man zumindest in die Nähe von Intelligenz rücken könnte. Nein, das einführende Beispiel kann nicht erklären, was künstliche Intelligenz ist, weil es nichts damit zu tun hat. Es veranschaulicht aber den überaus oberflächlichen Umgang mit dem Begriff “Intelligenz” und entlarvt diejenigen, die sich als Schöpfer künstlicher Intelligenz ausgeben und damit entweder Geld machen oder ganz einfach sich selbst positiv darstellen wollen.

Was aber ist mit den Algorithmen, die seit einigen Jahren die Programmierszene gehörig aufmischen? Ich meine die Algorithmen, die z.B. die kognitiven Strukturen im menschlichen Gehirn abkupfern und in Form künstlich-neuronaler Netze den Programmcode bestimmen? Sicher, es kommt eine enorme Flexibilität ins Spiel, die Algorithmen können sich selbst optimieren (manche bezeichnen’s als “lernen”), und an die Stelle starrer Programmabläufe treten Strukturierungsvorgänge vornehmlich statistischer Art. Vom Wesen her benötigt die flexible Algorithmik eine große Datenfülle und entsprechend leistungsfähige Rechner mit enormen Speicherkapazitäten. Wahrscheinlich sollte man in diesem Zusammenhang auch nicht mehr von “Programmen” sprechen, denn ein Programm hat in der Regel einen starren Ablauf.

Noch einmal die Grundfrage: Verkörpern flexible Algorithmen nun Intelligenz? Oder – fragen wir mal vorsichtiger: Haben sie etwas mit Intelligenz zu tun? Es steht sicherlich außer Zweifel, dass man mit künstlich-neuronalen Netzen der biologischen Intelligenz schon erheblich näher kommt. Doch wie nahe? Fest steht, dass das Vorhandensein großer Hardware-Kapazitäten alleine noch keine künstliche Intelligenz ausmacht. So ist die auf der technischen Leistungsfähigkeit basierende Vorausberechnung, wann die künstliche Intelligenz die menschliche Intelligenz erreichen oder gar übertreffen wird, schlichtweg Quatsch. Und dem guten Gordon Moore, der auf Grund seiner Beobachtungen die technische Entwicklung als Gesetz (“Moore’sches Gesetz)” formulierte, kann man ja im Silicon Valley eine Gedenktafel widmen; das sollte es aber gewesen sein.

Etwas anders verhält es sich mit der Software, also der Algorithmik. Viele Leute vertreten offenbar den Standpunkt, dass man hier von “Intelligenz” sprechen dürfe, weil ja Gehirnstrukturen nachgebildet werden. Und da es mit Hilfe solcher Algorithmen noch Lösungsansätze gibt, die bisher der menschlichen Intelligenz vorbehalten waren, ist man sehr schnell geneigt, von “intelligenten” Maschinen und Algorithmen zu sprechen. Hinzu kommt, dass derartige Algorithmen oft viel schneller zum Ziel kommen als Menschen, dazu noch präziser und weniger fehleranfällig. Und so ist es nicht verwunderlich, dass die Gestalter in Informatik, Wirtschaft und Politik ihre Bemühungen auf die “künstliche Intelligenz” fokussieren.

Ein typisches Beispiel für den derzeitigen Stand der Entwicklung ist der Schachcomputer, genau genommen der Schach-Algorithmus, der ja in einem beliebigen Gerät stecken kann. Schach-Software hat inzwischen eine Leistungsfähigkeit erreicht, die an die Leistung eines Schachweltmeisters heranreicht. Es sind zweifellos kognitive Fähigkeiten, die man sowohl beim Menschen als auch bei dem mit KI ausgestatteten Computer den Erfolg ausmachen. Also doch eindeutig künstliche “Intelligenz”?

Um zu einer wirklich schlüssigen Antwort zu gelangen, muss man m.E. mal die Euphorie über Bord werfen, ebenso einen überzogenen technischen Optimismus. Mit anderen Worten: Schauen wir nicht nur auf das, was flexible, “lernfähige” Algorithmen können, sondern was sie nicht können. Also geben wir unserem ach so intelligenten Schachcomputer mal die Anweisung, den Gesichtsausdruck des Gegenspielers zu analysieren und Rückschlüsse auf dessen Stimmung zu ziehen. Das kann ja bedeutend sein, um die Tagesform des Gegners und damit die eigene Strategie einzuschätzen. Geht nicht? Natürlich könnte man ihn auch für solche Aufgaben heranzüchten, aber entscheidend ist doch, dass es sich immer nur um ganz spezielle Aufgabenbereiche handelt. Und immer muss der Programmierer vorgeben, woran der Algorithmus seine eigenen “Lernfortschritte” messen kann.

Der kognitive Bereich, in welchem ein flexibler Algerithmus wirken kann, ist also extrem begrenzt. Aber das ist nicht mal die entscheidende Einschränkung. Viel bedeutsamer ist die Tatsache, dass künstliche Intelligenzsimulationen bei weitem nicht alles erfassen können, was Intelligenz im ursprünglichen, d.h. menschlichen Sinne darstellt. Die menschliche Intelligenz umfasst ja wesentlich mehr als kognitive oder sensomotorische Fähigkeiten. Es gibt Bereiche, die von der KI niemals erreicht werden können. Häufig werden in diesem Zusammenhang das Bewusstsein oder auch Emotionen genannt, beides unerreichbar für Algorithmen. Es gibt zwar an einer kalifornischen Universität (ich glaube Berkeley) einige Bestrebungen, einem mit KI ausgestatteten Roboter so etwas wie Liebe beizubringen, aber meines Erachtens ist das Unterfangen überaus oberflächlich und substanzleer, denn dabei wird Liebe auf die Wahrnehmung und Äußerung von Gefühlssymptomen beschränkt. Liebe ist mehr; sie umfasst Vertrauen, Achtung vor der Menschenwürde, das Zurückstecken eigener Bedürfnisse usw. usw. Die Absicht der Forschungsgruppe liegt auf der Hand: Sie will sicherstellen, dass eine künstlich intelligente Maschine, wenn man sie je in die Freiheit entlässt, immer im Sinne der Menschen agiert. Sowas wie Roboter, die nicht anders können als Menschen liebzuhaben. Das Forschungsprojekt offenbart zweierlei: Zum einen scheint man tatsächlich vorzuhaben, KI-Maschinen irgendwann frei agieren zu lassen; zum anderen hat man Angst davor. Angst, die durchaus berechtigt ist.

Aber es gibt noch weitere Dinge, die ganz entscheidend das Fühlen, Denken und Handeln der Menschen ausmachen, und die man beim besten Willen nicht algorithmisch simulieren kann. Da ist zum Beispiel das Leben und Verhalten im sozialen Umfeld zu nennen. Oder das Geflecht von Verantwortlichkeiten. Oder – ja, auch das – transzendente Bezüge, sei es positiv oder ablehnend. Oder das Geschichtsbewusstsein. Oder die Medieneinflüsse. Oder die Lebenserfahrungen usw. Ob diese Faktoren nun unmittelbar der Intelligenz zuzuordnen sind, ist unerheblich. Auf jeden Fall beeinflussen sie Abläufe, die weitgehend von Intelligenz gesteuert werden. Sie formen die Intelligenz.

Halten wir fest: Von wirklicher Intelligenz ist das, was in den Reagenzgläsern der Informatiklabors brodelt, unerreichbar weit entfernt. Von daher ist es natürlich irreführend, die künstlichen Softwareprodukte als “intelligent” zu bezeichnen. Menschliche Intelligenz und künstliche Pseudointelligenz verdienen nicht denselben Namen. Doch es kann nicht angehen, dass menschliche Intelligenz umbenannt wird, ums sich von künstlichen Produkten positiv abzuheben. Intelligenz ist zunächst mal ein menschliches Merkmal (im weitesten Sinne vielleicht noch ein bidologisches Merkmal), und von daher sollte die Softwareindustrie einen Begriff anwenden, der dem Abstand zur menschlichen Intelligenz Rechnung trägt. Doch dazu besteht offenbar keine Bereitschaft. Es macht sich einfach zu gut, von “künstlicher Intelligenz” zu sprechen. Und dann noch das “deep learning”, eine hochtrabende Bezeichnung für eine mehrschichtige Algorithmik.

Natürlich wird auch in IT-Fachkreisen der allzu großzügige Umgang mit dem Intelligenzbegriff kritisiert. Doch um die Finger nicht ganz von der Intelligenz lassen zu müssen, hat man die Unterscheidung zwischen schwacher und starker künstlicher Intelligenz eingeführt, was natürlich Blösdsinn ist.

Aber zum Glück gibt es ja Abkürzungen, mit denen man fragwürdige Begrifflichkeiten umgehen kann. So bietet sich in diesem Fall die Abkürzung “KI” an: “Klewere Innovation” oder sowas. Mir fallen noch andere Wörter ein, aber die behalte ich für mich. Ok, zunächst mal erlaubt mir die Abkürzung, die lästigen Gänsefüßchen wegzulassen.

Wofür verwendet man KI?

Unabhäbig von der Schmalspurigkeit ist die KI in bestimmten Bereichen äußerst leistungsfähig, keine Frage. Überall dort, wo es gilt, Strukturen und Muster in großen Datenmengen aufzuspüren, ist KI in ihrem Element. Beispiel Gesichtserkennung. Grundsätzlich sind wir Menschen mit unserer Intelligenz und Sensorik zunächst mal überlegen. Wir erkennen schnell Gesichter und erkennen sie in vielen Fällen wieder, auch wenn wir sie vorher nur flüchtig gesehen haben. Da tut sich KI erheblich schwerer. Aber, und das ist der entscheidende Unterschied: Wir können uns vielleicht einige hundert Gesichter merken; der KI-Computer kann Milliarden biometrische Gesichtsdaten speichern und neue Gesichtsmuster damit abgleichen. Darin ist der Computer dem menschlichen Gehirn natürlich überlegen: Er kann praktisch unbegrenzte Datenmengen speichern. Aber ist das dann schon Intelligenz?

Zweifellos gibt es Aufgaben und Lösungsansätze, die ohne KI überhaupt nicht möglich wären – oder nur höchst unvollkommen. Die Wettervorhersagen auf Basis von weltweit verstreuten Sensoren sind ein Beispiel. Oder die Krebsforschung. Die Krankheitsursachen, ihre Erscheinungsformen und die individuellen Heilungschancen sind so vielschichtig, dass KI einen wichtigen Beitrag leisten kann. Oder die Folgen von Umweltbelastungen. Wie hoch sollen die Grenzwerte für Stickoxide oder Feinstaub sein? Und dann der Verkehr mit selbstfahrenden Autos. Ohne KI scheint das nicht möglich zu sein, zumindest nicht, wenn man das derzeitige Konzept, die autonomen Autos in die uralte, herkömmliche Infrastruktur hineinzupressen, weiterverfolgt. Auch ist noch nicht geklärt, wievel Raum und Zeit zum “Üben” und “Lernen” man den Algorithmen geben will. Und wo sollen sie üben? Tests mit leeren Autos? Und die anderen Verkehrsteilnehmer, die mit den Testfahrzeugen kollidieren?

Paradedisziplinen für KI sind biometrische Analysen wie Gesichts- oder Spracherkennung. Aber auch der umgekehrte Weg wie die Sprachsynthese ist ein Fall für KI. Kein Aneinanderstückeln von Satzteilen oder Wörtern, die von echten Menschen gesprochen wurden (Bahnsteigsprache), sondern in Echtzeit artikulierende, virtuelle Sprechalgorithmen.

Also eine tolle Sache, diese KI, egal wie man’s nennt, oder? Doch so eindeutig ist die Angelegenheit nicht. Sicher, wenn es um Wetterdaten oder anonymisierte (!) Krankheitsdaten geht, gibt es nichts einzuwenden. Doch schon die autonom fahrenden Autos werfen Fragen auf, denn die Bestrebungen der Autoindustrie und der dahinter stehenden Politik lassen nicht erkennen, dass die Fahrzeuge anonym bleiben sollen. Im Gegenteil, es sieht so aus, als wolle man lückenlos den Verkehrsfluss jedes Fahrzeugs kontrollieren, und das wäre nichts anderes als die grenzenlose Kontrolle über alle Bewegungen aller motorisierten Verkehrsteilnehmer. Letzten Endes würde die Tür zu einem totalen Überwachungsstaat aufgestoßen.

Ähnlich verhält es sich mit den biometrischen Anwendungen. Sprach- und Gesichtserkennung können in wenigen Fällen hilfreich sein (ein wenig hilfreich); demgegenüber steht ein hohes Maß an Überflüssigkeit bzw. an Überwachungspotential. Es sei nur auf die smarte Verwanzung der Wohnung mit Hilfe der Sprachassistenten und smarten Lautsprecher (Alexa, Echo usw.) hingewiesen. Machen wir uns nichts vor, die Mehrzahl der Anwendungsfälle für KI beinhalten ein enormes Missbrauchspotential. Der drohende Missbrauch ist so gewaltig, dass es strikte Regeln für die Weiterentwicklung von KI geben muss. Das Grundgesetz alleine reicht nicht aus; schon jetzt sind die Verstöße gegen die Grundrechte gravierend. Wenn’s um wirtschaftliche Erfolge geht, dann ist die Politik offensichtlich bereit, die Grundrechte von der aktuellen Rechtslage abzukoppeln, den Grundrechten quasi eine abstrakte Eigenexistenz zuzubilligen, während die technische und wirtschaftliche Entwicklung ganz pragmatisch die Rechtslage bestimmt. Das automatische Scannen von Auto-Nummernschildern, das in Bayern, Hessen oder Baden-Württemberg schon teilweise praktiziert wird, nun aber vom Bundesverfassungsgericht verboten wurde, wirft ein bezeichnendes Licht auf die Unfähigkeit der Politik, verantwortungsbewusst mit persönlichen Daten umzugehen.

Vor allem aber zeigt sich, dass es nur ein kleiner Schritt von einem demokratischen Rechtsstaat hin zu einem Überwachungsstaat ist. Die Menschen machen den Schritt mit, zu sehr sind sie von dem Komfort, der vorgegaukelten Sicherheit und dem technischen Reiz der neuen, smarten Technik angetan. KI hat das Zeug, die Menschheit mit Überschallgeschwindigkeit in eine Zukunft zu katapultieren, die sich nur dadurch auf eine rechtliche Grundlage stellen kann, dass sie Grundrechte und sonstige demokratische Errungenschaften als obsolet erklärt. Selbst elementare Wahrheiten wie das Primat des faktisch Richtigen geraten ins Wanken, denn KI kann Fakten gestalten, indem sie sich in die Kommunikationsstränge einmischt. Fake News? Warum sollen die schlechter sein als die wahrheitsgetreue Informationen? Wenn die Fakes denn einem guten Zweck dienen? Und was ist ein guter Zweck? Das alles lässt sich so definieren und begründen, dass es einem in den Kram passt. Im übrigen entspricht die Art und Weise, wie KI in den digitalen Medien wirkt, ziemlich verblüffend dem Vorgehen des “Wahrheitsministeriums” im Roman “1984” von Orwell.

Trügerische Leistungsfähigkeit

Neben dem Datenmissbrauch, der von KI enorm angeheizt wird, gibt es noch eine ganz andere Gefahr, und die ist an einer Stelle zu suchen, wo kaum jemand etwas Schlechtes vermutet. Ich erwähnte oben, dass KI außerordentlich leistungsfähig sein kann, weil sie enorme technische Kapazitäten auf schmale Aufgabenbereiche konzentrieren kann. Dabei kann der Mensch mit seiner breit gefächerten Intelligenz durchaus unterlegen sein. Anders ausgedrückt: Menschen sind nicht vollkommen, sie machen Fehler. Das Erfassen von Situationen durch Menschen und die daraus abegleiteten menschlichen Schlussfolgerungen und Entscheidungen sind keineswegs immer optimal, wohingegen Algorithmen es teilweise korrekter und schneller, kurz: effektiver können.

Dieser Tatbestand verleitet dazu, so viel künstlich intelligente Algorithmen einzusetzen wie irgendwie möglich. Besonders aus der Sicht der Wirtschaft ist diese Forderung sogar verständlich, denn für die Betriebe ist Effizienz ein wichtiger Kostenfaktor. Die Politik wiederum, die von der Wirtschaft an der Leine genommen und Gassi geführt wird, unterstützt natürlich derartige Bestrebungen, wobei ich nicht alle Parteien meine. Jedermann weiß doch, welche Parteien vor der Wirtschaft buckeln und welche Parteien sich eine gewisse Souveränität bewahrt haben.

Auf den ersten Blick scheint also ein möglichst weitgehender Einsatz von KI überaus vorteilhaft und erstrebenswert zu sein. Doch dieser Eindruck täuscht. Es gibt eine ganze Reihe von Fällen, wo die Effektivität von KI-Systemen sich am Ende destruktiv auswirkt. Wie das? Ganz einfach, es gibt in der Gesellschaft Belange, die nichts mit Effektivität, sondern vornehmlich mit Menschlichkeit zu tun haben. Menschlichkeit ist nicht effektiv und entzieht sich dem, was KI so hochgradig wirkungsvoll leisten kann. Als Beispiel möchte ich an dieser Stelle auf die Bemühungen einiger Start-up-Unternehmen hinweisen, die das Bewerbungsverfahren in Betrieben digitalisieren und mit KI optimieren wollen. Gespräche zwischen Bewerber und KI-Rechner werden algorithmisch analysiert, und die Eignung wird am Ende mit einer bisher nicht gekannten Treffsicherheit als Ergebnis präsentiert. Die Firma kann dadurch sicherstellen, nur wirklich die besten Bewerber als Mitarbeiter zu bekommen. Zwar wird am Ende immer noch die Personalabteilung entscheiden, aber sie wird kaum die Ergebnisse eines als leistungsfähgig anerkannten Analyseverfahrens ignorieren.

Die Folge ist klar, wenn sich derarige Verfahren ausbreiten: Die Firmen erhalten nur die Besten, während die Schwächeren gnadenlos aussortiert werden. Das gilt übrigens nicht nur für große Konzerne, denn KI-Systeme lassen sich hervorragend als Dienstleistung für kleinere Betriebe anbieten. Wo aber andererseits die Entscheidung von zwischenmenschlichen Kontakten abhängt, da sorgen Momente, die mit KI nicht erfassbar sein, dass auch Schwächere eine Chance erhalten. Interessanterweise muss das gar nicht mal ein Schaden für den Betrieb sein, denn die objektiv Schwächeren können oft mit verdeckten Vorteilen aufwarten oder unter menschlicher Führung neue Stärken entwickeln.

Dieses ist nur ein anschauliches Beispiel. Wenn wir das Streben nach schneller Digitalisierung einmal kritisch betrachten, werden uns schnell weitere Beispiele einfallen. Es ist tatsächlich so, dass ein menschliches Miteinander immer auch die gelegentliche Schwäche des Stärkeren erfordert. Eine Selektion in Form einer “gesellschaftlichen Evolution”, die wie in der natürlichen Evolution das Schwächere ausmerzt, wird nicht gelingen, zum einen, weil es immer noch eine gewaltige Schutzmauer um Menschlichkeit gibt, nämlich die garantierte Menschenwürde; zum anderen, weil die Schwächeren sich das nur bis zu einem gewissen Grade gefallen lassen. Es gibt genug Beispiele für solche Auflehnungen, denken wir nur an die sozialistischen Revolutionen des letzten Jahrhunderts.

Ich will an dieser Stelle ziemlich deutlich werden: KI darf niemals unmittelbar in entscheidende menschliche Belange eingreifen. Wenn z.B. der Verkehrsstrom mittels KI gesteuert wird, dann ist das – Anonymität und sicheres Funktionieren vorausgesetzt – in Ordnung. Wenn dadurch aber das individuelle menschliche Verhalten analysierbar wird, dann muss umgehend ein Riegel vorgeschoben werden. Insofern sind auch biometrische Verfahren (Sprachanalsyse, Gesichtserkennung), die erst durch KI zur gewünschten Wirksamkeit gelangen, äußerst bedenklich, selbst wenn es “nur” um Identifizierung geht. Jeder Mensch hat ein elementares Recht darauf, sich verstecken zu könnnen.

Wenn man nicht euphorisch alles begrüßt und unterstützt, was mit KI möglich ist, dann bleibt gar nicht mehr so viel übrig. Der derzeit zu beobachtende Hype rund um KI ist jedenfalls nicht gerechtfertigt. Bemerkenswert, dass diejenigen in Politik und Wirtschaft am lautesten nach KI schreien, denen man nur ein überschaubares Maß an informationstechnischer Sachkenntnis zubilligen kann.

Auf der Startseite meiner Internetpräsenz steht gelegentlich den Slogan “Künstliche Intelligenz ist digitalisierte Unmenschlichkeit”. Zugegeben, dieser Satz ist nur zu 70 – 80 % zutreffend. Ich denke aber, dass dieser Beitrag hier den Satz weitgehend begründet.

Was ist mit “starker künstlicher Intelligenz”?

Ja, was ist mit dem zur Zeit noch Unerreichbaren, von dem einige Enthusiasten so schwärmen? Also mit dem, wass mit Fug und Recht als “Intelligenz” bezeichnet werden könnte? Algorithmen, die sich so verselbständigen, dass sie sich der Kontrolle durch Menschen entziehen? Nun, jeder Mensch, der noch über einen Rest menschlicher Intelligenz verfügt, kann leicht ausrechnen, dass dieses das Ende der Menschheit sein könnte. Es gibt überhaupt keinen Grund anzunehmen, dass solche Instanzen die menschlichen Werte in irgendeiner Form tolerieren, geschweige denn übernehmen würden. Insofern kann die Annahme, dass Maschinen nicht wirklich intelligent werden können, nur beruhigen.

Die Frage, warum sich Menschen überhaupt bemühen, so etwas zu schaffen, ist also im Grunde genommen bedrückend. Was will man damit erreichen? Angenommen, die starke KI wäre tatsächlich realiisierbar, doch was würde es bringen, derartige Maschinen mit der Fähigkeit zur Empathie auszustatten, wie es von der kalifornischen Forschungsgruppe angestrebt wird? Natürlich ist das Unsinn, denn um uns vor “dummen Gedanken” von Maschinen zu schützen, brauchen wir ihnen keine Liebe zu implementieren, wir müssen sie nur so konstruieren, dass sie gar nicht erst auf dumme Gedanken kommen können.

Wie sehr die Sehnsucht nach dem Schaffen intelligenter Wesen in den Köpfen vieler IT-Fanatiker herumschwirrt, machte von einigen Monaten ein Anhänger dieser Zunft deutlich. Er schwärmte im Fernsehen von starker KI und verlangte, dass die dermaßen ausgestatteten Maschinen und Algorithmen unter Artenschutz gestellt werden müssten. Gehts noch abartiger? Irgendetwas tickt im Kopf dieses Typen nicht richtig. Vielleicht steckt in den Algorithmen seines Gehirns noch ein Bug, soll ja vorkommen bei Programmen. Segmentation fault – exit 139.

Aber – schräg tickende Mitmenschen wird es immer geben, sie sind kein Grund zur Beunruhigung. Schlimm wird es dann, wenn solche Ansichten als normal eingestuft werden, wenn der dahinter steckende bizarre Größenwahn (ich, der Gott des Digitalen, schaffe ein Wesen, das Artenschutz verdient) als Normalität und Fortschritt betrachtet wird. Das alles würde wesentlich nüchterner und sachdienlicher angegangen, wenn man nicht auf den saublöden Gedanken gekommen wäre, von “Intelligenz” zu reden. Warum bezeichnet man das Ganze nicht als das, was es ist: eine flexible, selbstoptimierende Form von Algorithmik für große, unstrukturierte Datenmengen. Dass man dabei ein bisschen der Natur abgeschaut hat – meine Güte, ist das so erheblich? Wir erwarten ja auch nicht von einem Mikrofasertuch, dessen Funktionsweise wir einigen Pflanzen abgeschaut haben, dass es auf einmal anfängt zu blühen.

Vielleicht ist das auch nur eine Frage des Wortklangs. “Fasern”, das klingt so primitiv und anschaulich. Aber “neuronale Netze”? Da steckt was drin, in diesem Ausdruck, das macht sich gut, auch technisch. Wer mit sowas umgehen kann, und sei es nur sprachlich, der strahlt Kompetenz aus. Zu dem schaut man auf.

Fazit

Nein, was man “künstliche Intelligenz” nennt, ist keine Intelligenz, denn das Entscheidende für jede sinnvolle, intelligente Handlung, nämlich die Festlegung der Handlungsnormen, fehlt bei der Künstlichkeit. Intelligenz ist ein menschliches Merkmal und so mächtig und vielschichtig, dass man den Begriff mit einem Attribut wie “künstlich” nicht für beliebige Zwecke umdefinieren darf. Dass man es trotzdem tut, zeigt nur, wie sehr sich die Gedankenwelt von technischer Leuchtkraft blenden lässt. Wir erleben zur Zeit ein gefährliches Abgleiten in kalte, virtuell-künstliche Parallelwelten und meinen, damit die Realwelt besser in den Griff zu bekommen: Make the world a better place. Ein verhängnisvoller Irrtum! Und nein, es gibt keine künstliche Intelligenz, vielleicht sowas wie eine künstliche Idiotie. Abkürzungen sind gut, KI passt immer.