Wenn die Medien über künstliche Intelligenz berichten, könnte man meinen, Science Fiction würde gerade Realität. Die dafür notwendige starke künstliche Intelligenz liegt aber noch in unsicherer Zukunft – unterdessen schlagen wir uns mit den Kinderkrankheiten der schwachen KI herum.

Vor einigen Tagen erreichte mich auf Facebook die Nachricht, auf Amazon würde Christbaumschmuck mit Auschwitz-Motiven verkauft. Verständlicherweise war die Bestürzung groß. Wer, war die Frage, würde so etwas tun? Und warum? Und wer würde es kaufen? Doch der Urheber hatte keine Ahnung, was er da tat. Der Urheber war allem Anschein nach ein kleines Programm, das Bilder von polnischen Touristenattraktionen zog und dann auf bedruckbare Souvenir-Artikel zuschnitt. In seiner Bilderdatenbank befanden sich nun mal auch Bilder von Auschwitz. Der kleine Bot wusste nichts von Menschen oder ihrem Hang, sich gegenseitig maschinell zu vernichten. Der Bot tut, was er eben soll. Solche Fehler kommen immer wieder vor.

„Computer says no“

Auf Facebook, beispielsweise, begegnen uns diese täglich. Das reicht von harmloseren Vorkommnissen, wie der Verwechslung klassischer Kunst mit verbotenen Nacktfotos, bis hin zu gar nicht harmlosen, wie dem Vater, der vom Facebook-Jahresrückblick mit Luftschlangen und Konfetti dekorierte Bilder von seiner verstorbenen kleinen Tochter präsentiert bekam.

Mit diesen Folgen maschineller Unfähigkeit befasst sich der Künstler James Bridle in seinem Buch „New Dark Age“. Darin beschreibt er unter anderem, dass in der ohnehin schon verstörenden Welt des Kinder-Youtube vor einiger Zeit Videos auftauchten, die grausamen oder einfach nur wirren Content mit populären Kinder-Charakteren zeigen: Peppa Pig, Elsa oder Spiderman werden lebendig begraben, geschwängert oder mit Nadeln gestochen. Natürlich schossen die Spekulationen ins Kraut: Die NWO, die Nazis, die Juden, die Russen oder wahlweise die Illuminaten hatten es auf Kinderseelen abgesehen! Bridles Theorie ist eine andere. Nutzer programmieren Bots, die Youtube-Videos nach bestimmten Schlagworten auswerten, diese dann neu zusammensetzen und automatisiert wieder hochladen. Mit dieser Masche können sie mit etwas Glück ohne Input an den Werbeeinnahmen verdienen. Doch weil Paw Patrol und Emily Erdbeer auch in Troll-Parodien und Fetischvideos auftauchen und weder der Algorithmus dieser Channel, noch der von Youtube verstörende DIY-Pornos von kinderfreundlichen Cartoons unterscheiden kann, landet ungefiltert alles in den Zusammenschnitten und damit via automatischer Wiedergabeliste bei den Kindern. Zunächst war es nicht menschliche Boshaftigkeit, sondern Inkompetenz und Indifferenz, die zum sogenannten „Elsagate“ geführt hat.

Generell sind KIs nur so umsichtig wie die Menschen, die sie programmiert haben. So hatten fahrerlose Autos in Tests kein Problem damit, Frauen, Schwarze und Behinderte umzunieten, weil die KI in ihnen keine menschlichen Hindernisse erkennen konnte, und bestimmte soziale Gruppen werden bei Kreditvergaben, kriminologischen Bewertungen und in Bewerbungsverfahren automatisch benachteiligt – weil die zugehörigen Algorithmen aus Datenbanken mit den bisherigen menschlichen Entscheidungen lernen, also auch aus deren Voreingenommenheit. In solchen Fällen heißt es meist, die betreffende KI sei sexistisch, rassistisch oder ableistisch. Aber das ist Unfug. Die Technik ist schuldlos, der Programmierer, der bei der Zusammenstellung der Datensätze nicht an Menschen mit Rollator oder mit dunkler Hautfarbe gedacht hat, ist die Wurzel des Übels. Künstliche Intelligenz lernt von uns und legt dabei auch unerwünschte Verhaltensmuster offen. Wir Menschen erfahren so allerlei über uns selbst, das wir lieber gar nicht wissen wollten: Etwa, wie überraschend groß die Zielgruppe von Pornos mit Kinderfilm-Charakteren ist, oder dass Auschwitz touristisch nicht anders vermarktet wird als ein pittoresker Badesee.

„Dave, this conversation can serve no purpose anymore“

Das Ganze ergibt einen besorgniserregenden Kreislauf, zieht man in Betracht, dass wir auf der anderen Seite bereits unseren Input an die Verarbeitung durch eine KI anpassen. Kommunikation basiert normalerweise darauf, dass ein Sender einem Empfänger eine Nachricht übermitteln möchte. Diese Nachricht muss er kodieren, beispielsweise in Laute oder Bilder. Nun ist es aber so, dass ein und dieselbe Nachricht verschiedene Funktionen erfüllen kann. Sagt beispielsweise ein Kind „Ich kann meine Hose nicht finden“, kann das eine reine Tatsachenbeschreibung sein, eine versteckte Bitte („Hilf mir meine Hose suchen!“) oder ein Füllsel, mit dem das Kind einfach um Aufmerksamkeit buhlt. Gelungene Kommunikation entsteht dann, wenn wir die intendierte Funktion auf Seiten des Senders erraten. Jedes gute mediale Produkt weist in der Regel mehr als eine Funktion auf und spielt mit der Unsicherheit, die diese Vieldimensionalitämit sich bringt. Denn so schaffen wir Bedeutungstiefe und Humor.

Die von der künstlichen Intelligenz erschaffenen Kommunikate hingegen haben keinen Sender, keinen Empfänger und auch keine Nachricht. Die KI erlernt einen Code – diesen kann sie sich mittlerweile sogar selbst beibringen – und reproduziert ihn, so gut sie kann. Sie tut das aber ohne ein Bewusstsein, eine Intention oder einen Kontext.. Kurz: Von KI erstellte Medien sind von sich aus bedeutungslos. Bedeutung wird allein vom menschlichen Empfänger in diese hineingelesen, weil die KI einen Code erstellt, der eine Bedeutung simuliert.. Dieses „Hineinlesen“ sind wir aus der zwischenmenschlichen Kommunikation schon gewohnt und wir übertragen es auf die maschinelle.

Auf dem Blog „aiweirdness“ spielt die Programmiererin Janelle Shane mit neuronalen Netzwerken herum, einer schon eher höherklassigen KI, die sie beispielsweise Meerschweinchen benennen lässt. Das macht sie bereits so gut, dass man glauben mag, das System verstehe das Gefühl, mit der flauschigen Glubschäugigkeit eines puscheligen Nagers konfrontiert zu sein. Tatsächlich operiert sie aber lediglich auf der Basis einer Datenbank von Codes (in diesem Fall: bereits existierende Meerschweinchennamen und Metal-Bands), erkennt darin wiederkehrende Muster und arrangiert dann neue Namen auf deren Basis. Was bei Meerschweinchen noch leidlich klappt, stößt aber etwa bei Strip-Clubs an seine Grenzen, denn der Computer weiß selbstverständlich nicht, was eine erotische Spannung ist oder wie man sie mit Worten erzeugt. Beide Versuche sind zwar im Ergebnis saukomisch, zeigen aber gerade nicht den Humor einer KI, sondern den Humor einer Frau, die sich über ihre KI und unsere überzogenen Erwartungshaltungen an diese lustig macht.

„The droids you’re looking for“

Das alles wäre harmloser Spaß, würden wir nicht inzwischen auf einen Zustand zusteuern, in dem Pseudokommunikation in einem wesentlich größeren Maße produziert wird als reziproke (sprich: „normale“) Kommunikation. Nicht nur der Inhalt ist oft Nonsens – auch bei menschlicher Kommunikation keine Seltenheit – sondern wir können oft nicht einmal mehr sicher sein, ob überhaupt absichtsvolle Kommunikation vorliegt. Haben wir es mit einem Bot zu tun, oder möchte vielleicht das „Zentrum für Politische Schönheit“ mit geschmackvollen Auschwitz-Accessoires für eine verständigere Erinnerungskultur werben?

Immer öfter berauben wir unsere eigene Kommunikation ihrer Vielschichtigkeit, um sie an den bedeutungslosen Diskurs der Maschinen anzupassen. Schon heute haben wir schließlich damit begonnen, die Komplexität unserer kommunikativen Akte einzuschränken, damit sie für Computer zugänglicher sind: Wer auf Facebook nicht schon wieder gesperrt werden möchte, vermeidet Satire. Auf Youtube kann kein Quality Content denjenigen retten, der vom Algorithmus als nicht familien- und damit werbefreundlich erkannte Wörter benutzt. Unnötig zu erwähnen, dass dieser Algorithmus eine selbstständig lernende, künstliche Intelligenz ist, von der Youtube selbst nicht mehr zu wissen scheint, welche Wörter und Wortkombinationen sie aktuell für gefährlich hält. Über Youtuber, die ihre Erfahrungen als LGBTQ thematisieren oder auf Probleme auf anderen Channels hinweisen und diese entsprechend benennen, senkt der Algorithmus jedenfalls auffallend häufig grundlos den Daumen. Dabei ist er, wie gesagt, schuldlos, denn KI analysiert nun einmal nur Code, nicht Kontext. Über Probleme zu sprechen, ist aus Sicht des Algorithmus mindestens so bedrohlich, wie die Probleme selbst. Auch das wirft kein gutes Licht auf seine Entwickler – und Nutzer.

Der nötigen Debatte über diese Entwicklung fehlt es meist an Hintergrundwissen. Nutzer vermuten leicht finstere Kräfte, wo nur indifferente Roboter nach Worten fischen, die eben häufig im Zusammenhang mit Hatespeech auftreten. Fragen wie „Warum sperrt mich eine soziale Plattform?“, „Haben die was gegen LGBTQ?“ oder „Soll die AfD mundtot gemacht werden?“ gehen daher ins Leere. Nicht immer, aber immer öfter, kommt die „Zensur“ von einer KI, der Politik vollkommen egal ist. Ein Problembewusstsein beim Einsatz von KI entwickelt sich erst langsam. Wir müssen verstehen, welche Macht die Datensätze haben, mit denen der Algorithmus gefüttert wird, und wir müssen ein Verständnis dafür entwickeln, dass große Vorsicht geboten ist, wenn automatisierte Entscheidungsprozesse in sozialen Räumen implementiert werden. Mit anderen Worten: Was als Unfug im Netz geboren wird, kann für viele Menschen ganz konkret Bedeutung erlangen. Wir brauchen daher dringend klügere Programmierer und klügere Maschinen – vor allem aber einen klügeren Einsatz der Maschinen.