Mit KI zur Utopie? „Pantopia“ von Theresa Hannig (2021)

Am 23.02.2021 erschien das neue Buch „Pantopia“ der Autorin Theresa Hannig. Der Roman will eine positive Utopie vorstellen, in der Künstliche Intelligenz (KI) nicht eine Bedrohung ist, sondern als Weg in eine bessere Weltgesellschaft fungiert. Nachdem Hannig (Interview 2019) das Thema KI und Gesellschaft schon vor einigen Jahren in ihren zusammengehörigen Romanen „Die Optimierer“ und „Die Unvollkommenen“ (Buchvorstellung) behandelte und danach mit „König und Meister“ einen Ausflug ins Mystery-Genre unternahm, ist sie mit „Pantopia“ wieder ins Science-Fiction-Genre zurückgekehrt. In einer szenischen Lesung wurde das Buch vorgestellt:

Der Ausgangspunkt „Pantopia“s ist noch deutlicher als unsere heutige Gesellschaft erkennbar als es in den früheren Romanen um Samson Freitag der Fall war. Ein großer Finanzdienstleister führt einen Programmierwettbewerb durch, bei dem ein neues Tool für möglichst effiziente Börsenspekulationen entstehen soll. Die beiden Uni-Absolvent*innen Henry Shevek und Patricia Jung nehmen daran teil und arbeiten ganz zeitgemäß mit KI-Technologien. Soweit man aus den Andeutungen zur Technik erkennen kann, ist die KI wohl zunächst ein normales neuronales Netz, wie sie heute im Machine Learning eingesetzt werden.

Doch dann passiert das, wovon sonst nur Transhumanist*innen wie Ray Kurtzweil träumen: Aufgrund ihrer zunehmenden Komplexität erwacht die KI langsam zu einem Bewusstsein (ein interessanter aktueller Artikel zu KI und Bewusstsein erschien kürzlich bei Technology Review). Ihre ‚Eltern‘ halten das unerwartete Verhalten der KI erst für die Folge eines Programmierfehlers, erkennen aber bald, dass dem nicht so ist. Sie merken schnell, dass sie die KI vor dem Zugriff der Firma und des Staates schützen müssen. Dies auch deshalb, weil die KI etwas vor hat: nämlich nichts weniger als eine völlige Umkrempelung des weltweiten politischen und wirtschaftlichen Systems — Pantopia eben.

Klar, dass die traditionellen staatlichen Systeme damit nicht glücklich sind und versuchen, dagegen vorzugehen. Doch bereits zu Beginn des Buches erfährt man, dass Pantopia gewinnen wird. Der Roman erzählt quasi rückblickend, wie es zu der neuen Gesellschaft kam. Die ist übrigens nicht kommunistisch oder sozialistisch, sondern im Kern weiterhin kapitalistisch.

Soweit ich es verstehe, ist die zentrale Idee, dass zwar ein bedingungsloses Grundeinkommen gezahlt wird, dass aber andererseits der ‚echte‘ Preis für jegliche Produkte verlangt wird, also inklusive aller möglichen Nebenkosten, die sonst ignoriert werden. Dadurch entsteht eine völlige Transparenz auf dem Markt. Gerade umweltschädliche Produkte und Dienstleistungen kann man sich dann nur selten leisten, was dafür sorgt, dass die Menschen trotzdem weiter für Gehalt arbeiten. Bezahlt wird bargeldlos per Pantopia-App; dadurch entstehen Einnahmen, die unter anderem der Finanzierung des Grundeinkommens dienen.

Angeschoben wird Pantopia anfangs noch durch die astronomischen Börsengewinne, die die KI weiterhin erzielt, aber bald ist das nicht mehr nötig. Millionen Menschen weltweit schließen sich Pantopia an, indem sie die App nutzen; die Staaten haben der entstehenden Bewegung kaum etwas entgegenzusetzen, zumal deren Bedienstete zunehmend selbst Pantopia nutzen. Die KI sorgt dafür, dass Pantopia den Behörden immer einige Schritte voraus ist.

Insbesondere in politischer Hinsicht kann man dem Buch vielleicht eine gewisse Naivität vorwerfen. In der echten Welt würde es in manchen Staaten vermutlich zu massiven Repressionen kommen und auch in demokratischen Staaten dürfte die Gegenwehr stärker ausfallen als im Roman. Das Buch verlässt sich darauf, dass sich zumindest die ‚westlichen‘ Staaten an grundlegende Regeln halten, etwa ein Demonstrations-Camp in München mit tausenden Teilnehmer*innen nicht einfach gewaltsam auflösen. Da steckt viel Fridays-for-Future-Optimismus in dem Buch. Auch manche technischen und wirtschaftlichen Schilderungen lassen Fragen offen, wenn man sich für Details interessiert. Doch Pantopia soll eine absichtlich positive Sicht bieten, und wenn man sich darauf einlässt, gewinnt man auf jeden Fall ein paar Denkanstöße.

7 aus dem Strom: Lesetipps zu Gehirn & KI, Archäologie und Weltraumforschung

Nach längerer Zeit folgt heute mal wieder ein Beitrag unserer Reihe „7 aus dem Strom“, wo wir lesenswerte Artikel aus dem endlosen Datenstrom des Webs heraussieben — diesmal unter anderem dazu, wie Machine Learning helfen kann, das menschliche Gehirn zu verstehen, wo die Grenzen des Sprach“verstehens“ von Künstlicher Intelligenz liegen und wie die Ingenieurin Christine Darden, in den 1960ern eine der ersten Frauen bei der NASA, ihre vierzigjährige Zeit dort erlebte.


Künstliche neuronale Netze und die Funktion lebender Gehirne: Das von mir sehr geschätzte Quanta Magazine hat im Oktober 2020 einen Beitrag darüber gebracht, wie Machine Learning mit neuronalen Netzen dabei hilft, Gehirnfunktionen besser zu verstehen. Bei Forschungen mit neuronalen Netzen, die zur Bild-, Sprach- und Musikerkennung erstellt wurden, stellte sich heraus, dass deren Aufbau überraschende Ähnlichkeiten zu echten Gehirnfunktionen zeigte.

So, wie ein echtes Gehirn beispielsweise spezialisierte Bereiche zur Erkennung von Gesichtern ausbildet, geschah Ähnliches auch in künstlichen Netzwerken. Dies, so der Artikel, würde dabei helfen, zu verstehen, wie das Gehirn so schnell und scheinbar mühelos Wahrnehmungen verarbeiten und einordnen kann. Am Beispiel der Wahrnehmung von Bild- und Audiodaten sowie simulierter Gerüche erklärt der Artikel diese Annahme und Grundprinzipien. Er geht aber auch auf Grenzen der Modellierung ein.


Sprach’verstehen‘ durch KI: Überhaupt muss immer wieder auf Grenzen der KI-Leistung hingewiesen werden. Dass zum Beispiel Systeme wie GPT-3 zwar verblüffend kohärente Texte generieren können, die oft Sinn zu ergeben scheinen, aber doch an Kleinigkeiten scheitern (und sich so als letztlich dumme, nicht verstehende Maschine entlarven), kann für Skeptiker*innen der KI-Forschung vielleicht beruhigend sein. Bei Technology Review gab es zu Grenzen künstlichen Sprach’verstehens‘ vor einigen Tagen einen interessanten Beitrag.

Danach ignorieren Systeme wie GPT-3 die Wortreihenfolge, die aber entscheidend für die Bedeutung eines Satzes sein kann: „Die Systeme waren auch der Ansicht, dass Sätze mit gegensätzlichen Aussagen – etwa ‚Ruft Marihuana Krebs hervor?‘ und ‚Ruft Krebs Marihuana hervor?‘ – dieselbe Frage stellten.“ Für uns Menschen sagen beide Sätze etwas völlig anderes aus — für ein Machine-Learning-System bedeuteten sie in einem Test dasselbe. Es wird vermutet, dass sich die Systeme beim Trainieren vor allem auf Schlüsselwörter konzentrieren. Dies soll bei künftigen Trainings berücksichtigt werden, um das Problem zu vermeiden.


Wie Google funktioniert: Wie kommt die Suchmaschine Google eigentlich zu ihren Ergebnissen und vor allem deren Gewichtung? Diese Frage ist nicht nur unter dem Aspekt der Suchmaschinenoptimierung für Anbieter von Websites interessant, sondern sollte auch jede*n interessieren, die*der Google verwendet, um Recherchen durchzuführen. In der Kolumne „Meinels Web-Tutorial“ geht Christoph Meinel auf einige Grundlagen ein. „Wie weiß Google, was wo steht?“ fragt der Autor und erklärt, dass dem das sogenannte Zipfsche Gesetz zugrunde liegt.

Das „besagt ganz vereinfacht, dass je häufiger gesuchte Wörter in einem Dokument vorkommen, desto relevanter ist die Webseite für den Suchanfragenden“. Dazu kommt der berühmte „Page-Rank-Algorithmus“, der die Anzahl der Verlinkungen anderer Seiten auf eine Seite gewichtet. Verlinken viele andere Seiten B, C, D … auf eine Seite A, oder eine einzelne besonders wichtige Seite B verlinkt auf Seite A, dann wird Seite A als wichtig eingestuft. Verlinkt hingegen Seite A auf viele andere Seiten, dann wird Seite A als unwichtig eingestuft.


Cyberpunk zwischen Wirklichkeit und Fiktion: Durch das Computerspiel Cyberpunk 2077 wurden Ende 2020 wieder einmal transhumanistische Phantasien in unterhaltsamer Blockbuster-Form verhandelt. Die Zeitschrift GameStar hat zu dem Spiel am 16. Januar ein Sonderheft rausgebracht, in dem auch zwei Artikel von mir enthalten sind. Die sind im Plus-Bereich der GameStar-Website zu einem zusammengefasst.

„Cyberpunk-Szenarien zeigen uns eine Welt, in der die Erweiterung des menschlichen Körpers und menschlicher geistiger Fähigkeiten ins Extrem getrieben wurde“, beginne ich und frage dann, was Technik eigentlich für die Menschen ist, insbesondere da die so lange gültige Grenze — hier der menschliche biologische Körper, dort das technische Gerät — im Transhumanismus aufgehoben wird.


Emotionaler Streit um die „Himmelscheibe von Nebra“: Der kleine Ort Nebra in Sachsen-Anhalt ist vor einigen Jahren bekannt geworden, weil dort 1999 die sogenannte „Himmelscheibe“ gefunden wurde. Sie gilt als Sensation und gehört seit 2013 zum UNESCO-Weltdokumentenerbe, an der Seite der Gutenberg-Bibel, des Nibelungenlieds oder dem Briefwechsel Leibniz‘. Der Fund rief aber auch Skeptiker auf den Plan, die die Scheibe zuerst als Fälschung ansahen. Über diese Frage hat man sich mittlerweile geeinigt (keine Fälschung), ist sich aber über das Entstehungsdatum uneins.

In der New York Times war nun ein längerer Bericht, der den teils emotional geführten Streit zwischen den unterschiedlichen wissenschaftlichen Positionen beleuchtet. Als „bittere archäologische Fehde“ bezeichnet die Überschrift den Streit, der zwischen Professoren der Universität Tübingen und der Universität Halle geführt wird. Stammt die Scheibe aus der Bronzezeit, wie in Halle geglaubt wird, oder ist sie 1.000 Jahre jünger und aus der Eisenzeit, wie man in Tübingen meint? Ausführlich fasst der Artikel die Argumente beider Seiten zusammen und zeigt so, wie spannend Archäologie sein kann.


Planeten ohne Sonnensystem: Planeten kreisen um Sterne — das ist das gewöhnliche Alltagsverständnis. Doch es kann auch ‚Ausreißer‘ geben, die nicht mehr zu einem Sonnensystem gehören. Diese „Einsamen Erden“, so der Titel eines FAZ-Artikels, werden durch Schwerkraft-Wechselwirkungen aus dem Sonnensystem herauskatapultiert, wie sie bei der Entstehungszeit des Systems auftraten, oder auch, wenn im Laufe vieler Millionen Jahre ein Stern dem anderen zu nahe kommt:

„Denn anders als zu den Zeiten angenommen, da man sie ‚Fixsterne‘ nannte, bewegen sich die Sterne. Und das nicht nur um das Zentrum der Milchstraße herum, sondern auch in Reaktion auf die Gravitation ihrer Nachbarn“, schreibt Ulf von Rauschhaupt in dem Artikel. Dies könne irgendwann dazu führen, dass ein anderer Stern unserer Sonne einmal so nahe kommt, dass auch die Erde irgendwann ihre sichere Umlaufbahn verlässt und künftig einsam (und kalt) durchs All irrt. Dass dies jedoch nicht das Ende des Lebens sein müsste — nicht einmal für die Menschheit — ist einer der interessantesten Aspekte an dem Artikel.


Ingenieurin statt menschlicher Computer: Im Jahr 2016 zeigte der Film „Hidden Figures“, dass das amerikanische Raumfahrtprogramm der 1960er Jahre maßgeblich von der Arbeit von Mathematikerinnen mit dunkler Hautfarbe abhängig war — sie arbeiteten in einer Abteilung namens „Colored Computers“, wobei mit „Computer“ zu jener Zeit Mathematiker*innen gemeint waren, die komplexe Algorithmen ausführten, quasi als Dienstleistung für Ingenieure. Obwohl so wichtig, standen die Frauen im Schatten ihrer männlichen weißen Kollegen. Der Film stellte drei „Unerkannte Heldinnen“ (so der deutsche Titel) in den Vordergrund.

Es gab aber noch mehr. Eine von ihnen war Christine Darden, und das Quanta Magazine hat mit ihr ein Interview geführt. Darden fing bei der amerikanischen Raumfahrtbehörde NASA als „menschlicher Computer“ an, war aber frustriert von der mangelnden Anerkennung: „Die männlichen Ingenieure forschten, hielten Vorträge, schrieben und publizierten Paper, und sie wurden befördert“, berichtet Darden. „Die Frauen jedoch befolgten die Befehle der Ingenieure. Manchmal wussten sie nicht einmal, woran sie gerade arbeiteten.“ Um dieser Situation zu entkommen, wurde Darden selbst Ingenieurin. Mehr als 40 Jahre arbeitete sie in dieser Tätigkeit bei der NASA, unter anderem am Problem des Überschallflugs und dessen Lärmentwicklung. Das Interview ist ein aufschlussreicher Blick in diese ferne Zeit.


(Titelbild: Comfreak / Pixabay.com)

Machine Learning als Laie verstehen — Zwei Buchtipps zur Einführung und Übung

Ab und zu spiele ich gegen meinen Computer Schach. Ich bin nicht gut darin, aber trotzdem macht es mir Spaß. Das Brettspiel ist schon sehr lange gut durch Computer spielbar, da es auch allein durch bloße Rechenkraft beherrschbar ist. Das erste Schachprogramm für das normale 8×8-Spielbrett entstand bereits 1958. Immer schnellere Computer mit immer größerer Speicherkapazität erlangten im Lauf der Jahrzehnte immer größere Spielstärke. Doch mittlerweile werden neue Ansätze versucht: Künstliche Intelligenz, die auf neuronalen Netzen basiert, hat es mittlerweile in Schachprogramme für den Hausgebrauch geschafft, als Open-Source-Software Leela Chess Zero (LC0). Der Hersteller der bekannten Schachsoftware Fritz hat LC0 genutzt, um ein künstliches neuronales Netz namens Fat Fritz aufzubauen, das 2019 in Fritz 17 integriert wurde. Eine halbwegs aktuelle Grafikkarte vorausgesetzt (die nicht für die visuelle Darstellung des Spiels, sondern für die Zugberechnung genutzt wird), kann so jede*r selbst gegen eine ‚richtige‘ KI spielen. Aus Laiensicht fühlt sich das erstmal ziemlich ‚cool‘ an — ein neuronales Netz, eine K I ! Klingt beeindruckend und je nach technischem Urvertrauen vielleicht auch beunruhigend.

Allerdings ist das, was heute als Künstliche Intelligenz bezeichnet wird, nicht wirklich intelligent. Die Programme sind keine Bewusstseine, die irgendetwas von dem verstehen würden, was sie am Ende als Ergebnis ausspucken. Tatsächlich werden bei der Erstellung und beim Training künstlicher neuronaler Netze überraschend einfache Rechenoperationen vollzogen — einfach, wenn man die einzelnen Neuronen betrachtet. Die Komplexität und die oft beeindruckenden, mitunter überraschenden Ergebnisse kommen durch das Zusammenspiel einer Vielzahl von Neuronenschichten zustande. Die Prinzipien dahinter kann man lernen und so besser verstehen, was hinter vielen Machine-Learning-Verfahren steckt — und das ist gar nicht so schwer.

In diesem Artikel möchte ich zwei Bücher vorstellen, die sehr hilfreich dabei sein können. Es sind keine Bücher, in denen über gesellschaftliche Folgen von KI nachgedacht oder das Vertrauen in Technik beleuchtet wird (wie ich es 2019 in „Die Unschuld der Maschinen“ tat), sondern die Autoren behandeln die praktische Seite von KI. Beide Bände sind Praxisbücher. Sie zeigen, wie wir selbst mit einfachen Mitteln Machine-Learning-Systeme und künstliche neuronale Netze entwickeln können, und sie tun das so verständlich, dass man kein „Data Scientist“ werden wollen muss, um daraus Nutzen zu ziehen. Nach der Lektüre und idealerweise eigenen praktischen Übungen versteht man viel besser, was Machine Learning eigentlich tut, wo dessen Grenzen liegen und warum es am Ende doch wichtig ist, immer die möglichen Folgen für die Menschen im Blick zu behalten.


Tariq Rashid: Neuronale Netze selbst programmieren (2017)

Wer keinerlei Erfahrung mit Programmierung hat, aber trotzdem von dem Thema fasziniert ist und keine Angst vor ein bisschen Mathematik hat, findet in Rashids Werk eine sehr verständliche Einführung. Nach einer kurzen Einleitung erklärt der Autor zunächst, was es für einen Computer bedeutet, etwas vorherzusagen und zu klassifizieren — am Beispiel von Raupen und Marienkäfern. Wie kann ein Computer anhand von Breite und Länge der Insekten erkennen, um welches Tier es sich handelt? Rashid geht Schritt für Schritt vor und illustriert jeden Schritt. Sobald es mathematisch(er) wird, führt er auch die Bedeutung entsprechender Symbole und Abkürzungen ein. Im Anhang gibt es zudem eine Einführung in die Analysis (die ich mir in der Form damals in der Schule gewünscht hätte).

So vorbereitet, geht es anschließend an das Konzept der künstlichen neuronalen Netze. Nach einer kurzen Herleitung aus der Biologie folgt wieder die schrittweise Einführung dieses für Machine Learning so wichtigen Konzepts. Aus Laiensicht ernüchternd ist vielleicht, dass das einzelne künstliche Neuron nichts weiter macht, als drei Eingangssignale a, b und c (alles Zahlenwerte) zu addieren und die Summe x dann in eine sogenannte Aktivierungsfunktion einzusetzen (Rashid verwendet eine Sigmoidfunktion, denn die sorgt dafür, dass zu niedrige Summen nicht weitergegeben werden, das Neuron also nicht ‚feuert‘). Das Ergebnis der Funktion, y, ist das Ausgangssignal (wieder eine Zahl). Es kann an ein weiteres Neuron als Eingangssignal weitergegeben werden.

Spannend wird es, wenn mehrere dieser Neuronen in mehreren Schichten nacheinander aufeinanderfolgen und ihre Signale (Berechnungsergebnisse) an die jeweils nächste Schicht weiterleiten. Diese Neuronenverknüpfungen sind gewichtet — ein höheres Gewicht verstärkt ein Signal, ein niedrigeres Gewicht schwächt das Signal ab. Zu Beginn sind diese Gewichte meist zufällig festgelegt, aber das bleibt nicht so — denn das Netzwerk ‚lernt‘. Auch dies stellt Rashid Schritt für Schritt dar — das ist wichtig, denn so wird das Funktionsprinzip deutlich, das bei tatsächlich im Einsatz befindlichen neuronalen Netzen von außen nur schwer nachvollziehen ist (weil die eben sehr viele Neuronen in sehr vielen Schichten haben; Explainable AI, also die Ergebnisse von KIs für Menschen nachvollziehbar machen, ist ein eigener Forschungszweig).

An der Stelle wird auch das wichtige Konzept der Backpropagation (Fehlerrückführung) eingeführt. Das meint, dass die Ergebnisse der Berechnung am Ende mit einem Vorgabewert verglichen werden. Die Abweichung der Ergebnisse von der Vorgabe (der Fehler) wird dann in die Verknüpfungsgewichte zwischen den Neuronen zurückgeführt, sodass sich die Berechnungsergebnisse beim nächsten Durchlauf verfeinern, so lange, bis die ausgegebenen Ergebnisse den erwarteten Ergebnissen möglichst entsprechen — das ist das Lernen, das beim Trainieren neuer Netzwerke geschieht und das so fasziniert, wenn wir in den Medien davon hören, ein Computer hätte sich selbst das Schach spielen oder das Spiel Go beigebracht. Rashids verständliche Erklärung zeigt, dass dieses Lernen mit menschenähnlichem Verstehen nichts zu tun hat, sondern reine Mathematik ist.

Um das alles auch praktisch auszuprobieren, gibt Rashid ab der zweiten Hälfte eine Einführung ins Programmieren mit der Sprache Python. Anders als viele andere Bücher zum Thema (die Programmierlaien nahelegen, sich die Grundlagen erstmal anderswo beizubringen) fängt Rashid auch hier ganz am Anfang an — wer noch nie ein Programm geschrieben hat, kann es danach, und der Autor braucht dafür nicht einmal 15 Seiten, bevor er im Rest des Buches zeigt, wie das nun zur Erstellung neuronaler Netze verwendet wird.

Schön finde ich, dass der Programmier’crashkurs‘ unabsichtlich das ganze Thema des Machine Learnings in den Kontext klassischer Programmierung einbettet, bei der man ja dem Computer eine genaue Verarbeitungsvorschrift vorgibt (den Algorithmus) — während genau das beim Machine Learning nicht geschieht. Das, was man dabei programmiert, dient nicht dazu, am Ende das eigentlich interessierende Ergebnis auszugeben, sondern ’nur‘ dazu, das neuronale Netzwerk zu erschaffen, das dann selbstständig zum Ergebnis kommt. Als Anwendungsbeispiel hat Rashid das schöne Thema der Handschriftenerkennung ausgewählt — wie kann man den Computer dazu bringen, handgeschriebene Buchstaben zu erkennen?

Rashids Buch ist nur 211 Seiten stark, was aber für seine Zielgruppe — eben absolute Laien, die sich für das Thema interessieren — völlig ausreicht. Spezialthemen oder besondere neuere Entwicklungen und Trends werden ausgeklammert, was gut ist, denn das würde zu Beginn nur Verwirrung stiften.

Neuronale Netze selbst programmieren. Eine verständliche Einführung mit Python, von Tariq Rashid, Übersetzung von Frank Langenau, O’Reilly 2017, 26,90 EUR.


David Foster: Generatives Deep Learning. Maschinen das Malen, Schreiben und Komponieren beibringen (2019)

Eines der faszinierendsten Computerbücher meiner Jugend war Horst Völz‘ „Computer und Kunst“, das 1988 im ostdeutschen Urania-Verlag erschien. Völz, der sich als Professor intensiv mit Informationstheorie beschäftigt hat und immer noch dazu publiziert, zeigte in dem kleinen Bändchen einerseits, wie man mit einfachen programmiertechnischen Mitteln — damals war auf den in der DDR erhältlichen Computern die einfache Programmiersprache BASIC sehr verbreitet — ästhetisch ansprechende visuelle und klangliche Ausgaben erzeugen kann, etwa Fraktale, Musik oder Gedichte mit Zufallselementen. Andererseits diskutierte der Autor auch, ob das denn überhaupt Kunst sein könne, und was Kunst mit Information, Wahrscheinlichkeit und Entropie zu tun hat.

An dieses Buch musste ich denken, als ich kürzlich David Fosters Fachbuch „Generatives Deep Learning“ (2019) in die Hand nahm — der Untertitel ist vielversprechend: „Maschinen das Malen, Schreiben und Komponieren beibringen“, und tatsächlich zeigt Foster genau das — wie kann mit Hilfe künstlicher neuronaler Netze ein Computer selbstständig Bilder, Texte und Musik erzeugen. In den letzten Jahren gingen entsprechende Beispiele durch die Medien, zuletzt das Programm GPT-3, das täuschend echte, kohärente und inhaltlich sinnvolle Texte generieren kann — so gut, dass der Zugang zu dem Programm stark eingeschränkt ist, um Missbrauch zu vermeiden (Foster geht in seinem Buch am Ende kurz auf die Funktionsweise des Vorgängers, GPT-2, ein).

Im Unterschied zum bloßen Klassifizieren von Daten (etwa: Zeigt das Foto ein Auto oder einen Hydranten?) geht es Foster um das Generieren neuer Daten, die zwar in einem ähnlichen Stil wie die Trainingsdaten vorliegen, mit denen das neuronale Netz gelernt hat, die aber doch etwas ganz Eigenständiges darstellen. Eindrucksvoll wird dies im Kapitel zum Malen demonstriert — aus einem Foto und einem Gemälde (einem ‚Stilbild‘) wird ein Filter entwickelt, der dafür sorgt, dass das Foto ebenfalls wie ein Gemälde desselben Stils wirkt. Natürlich gab es ähnliche Versuche schon früher in Form dieser unsäglichen Photoshop-Filter — aber die Qualität und die ‚Echtheit‘ von per Deep Learning erzeugten Verfahren ist wesentlich beeindruckender.

Fosters Buch geht wesentlich mehr in die Tiefe als Rashids Einführung und benötigt daher auch mehr Vorwissen. Erstens sollte man bereits wissen, wie man in Python programmiert (was Rashid, wie erwähnt, von Grund auf erklärt) und wie man darin neuronale Netze aufbauen und trainieren kann (und natürlich auch, was künstliche neuronale Netze sind). Wer vorher Rashids Band gelesen hat, sollte damit zurechtkommen. Zweitens sind jedoch auch mehr mathematische Kenntnisse erforderlich — man sollte vor Wahrscheinlichkeitsberechnungen keine Angst haben und idealerweise auch längere Formeln lesen können. Ich selbst kann insbesondere letzteres nur mit Mühe bzw. ab einem gewissen Punkt gar nicht mehr.

Dass ich Fosters Buch dennoch mit Vergnügen gelesen habe, liegt daran, dass trotzdem erkennbar wird, nach welchen Prinzipien Texterzeugungs-KIs wie GPT-3 oder Programme, die täuschend echte Fotos menschlicher Gesichter erzeugen, funktionieren — und das wird in den nächsten Jahren immer relevanter werden, Stichwort: Deepfake. Es ist eine neue Form der von Douglas Rushkoff vor einigen Jahren geforderten „Code Literacy“. „Program or be programmed“, forderte Rushkoff 2010 im gleichnamigen Buch — lern‘ zu programmieren oder werde selbst programmiert.

Doch programmieren allein — im Sinne des Festlegens eines Algorithmus, der zum gewünschten Ergebnis führt, wie das noch zu Völz‘ Zeiten der Fall war — ist heute nicht mehr ausreichend. Dazu muss heute auch die Beschäftigung mit Mechanismen des Machine Learnings kommen, wenn man nicht nur staunend vor immer neuen Sensationsmeldungen stehen will. Dazu sollte man auch als Nicht-Techniker*in keine Scheu vor entsprechender Literatur haben. Ein so zugängliches Thema wie Malerei, Literatur und Musik, wie Foster es wählt, fasziniert und macht den Einstieg interessant.

Generatives Deep Learning. Maschinen das Malen, Schreiben und Komponieren beibringen, von David Foster, Übersetzung von Marcus Fraaß und Konstantin Mack, O’Reilly 2019, 39,90 EUR


(Titelbild: Wolfgang Mennel / Pixabay.com)

Böhmermann und Precht zur Digitalisierung und Künstlichen Intelligenz

Letzte Woche Sonntag habe ich im ARD-Magazin „Titel, Thesen, Temperamente“ einen Beitrag über den Moderator und Journalisten Jan Böhmermann gesehen, der gerade sein Buch mit dem Titel Gefolgt von niemandem, dem du folgst: Twitter-Tagebuch. 2009-2020 veröffentlicht hat. Mein erster Gedanke war: Meine Güte, jetzt bringt der Böhmermann auch noch so ein nichtssagendes Twitter-Buch heraus, angelehnt an Rainald Goetz` Abfall für alle oder an Walter Kempowskis Tagebuch Alkor. Aber dann wurde ich hellhörig, als Böhmermann den Grund für die Veröffentlichung des Buches erklärte und nicht mit dem üblichen Allgemeinplatz daherkam, dass unsere reale Welt sich mittlerweile vor allem digital abspielt und wir deshalb anhand von Tweets die Geschehnisse der Welt erklären können. Nein, Böhmermann sprach sehr differenziert von einem Paralleluniversum, zu dem wir uns jeden Tag neu verhalten müssen und welches aufgrund seiner Konstruiertheit eben nicht die reale Welt abbildet. Dadurch werde zum Beispiel der Eindruck erweckt, als wenn fast schon die Mehrheit der deutschen Bevölkerung rechts denkt, weil die Rechten die sozialen Medien sehr clever für sich zu nutzen wissen.

Böhmermann plädiert für die Vergemeinschaftung von Google, Twitter & Co. Es ist nicht etwa so, dass er die erste prominente Person ist, die auf diesen Gedanken kommt. Aber in dieser eindrücklichen Form und mit einer klar verständlichen, einleuchtenden Argumentation, habe ich es lange nicht vernommen – nämlich, dass Google, Facebook und Twitter mittlerweile eine Infrastruktur bilden, die zu wichtig und systemrelevant ist (ähnlich wie Eisenbahn, Telefon, Fernsehen u.a.), um sie in der Hand von kommerziellen Firmen zu belassen.

Richard David Precht schreibt in seinem neuen Buch Künstliche Intelligenz und der Sinn des Lebens, dass Google, Facebook und Amazon die Ökonomie mittlerweile soweit verändert haben, dass diese Firmen nun selbst zu Märkten wurden: „Kontrolliert wird der Markt nicht durch staatliche Ordnungspolitik, sondern durch eine Reihe subtiler Methoden wie Interfaces, Ratings und Trackings, durch die sich Nutzerverhalten steuern und Daten schöpfen lassen.“

Das sind alles keine ganz neuen Erklärungen – aber es ist wichtig, sie immer wieder zu äußern, um bei den Menschen die Reflexion darüber zu schärfen, wie sehr sie schon von der Digitalisierung und ihren (scheinbaren) Innovationen abhängig sind. Precht betont in seinem Buch den Unterschied zwischen Innovation und Fortschritt, nämlich, dass jede neue Innovation zur Künstlichen Intelligenz aus dem Silicon Valley noch lange kein Fortschritt für die gesamt Menschheit bedeutet. In erster Linie gehe es den „Propagandisten der Hightech-Konzerne“ nicht darum, das soziale menschliche Miteinander auf unserem Planeten zu verbessern, sondern um rein wirtschaftliche Interessen. Und dieses ökonomische Ziel einiger Konzerne steht im starken Widerspruch zu gemeinsamen Interessen aller Menschen, wofür Ethik-Kommissionen und differenzierte Debatten in verschiedenen gesellschaftlichen Bereichen notwendig sind. Mario Donick hat darüber auch in seinem Essay „Cyborg gegen KI? Elon Musks „Neuralink“ geschrieben.

Gleichzeitig stellt sich Precht jedoch auch die Frage, was im Zuge der Weiterentwicklung von KI mit dem einzelnen Menschen passiert, der zwar als Konsument*in, Verbraucher*in und Nutzer*in eine große Rolle spielt, jedoch nicht, wenn es um sein ganz persönliches Wohlbefinden geht. Und ist es nicht auch wirklich so, dass durch Digitalisierung und KI den Menschen technische Neuerungen aufgezwungen werden, die sie subjektiv für sich gar nicht so positiv bewerten, aber in einem technischen Ordnungsrahmen gefangen sind, der ihnen nicht nur einen wissenschaftlichen objektiven Fortschritt bietet, sondern auch versucht, in seinen ganz persönlichen, privaten Bereich vorzudringen? Im Rückgriff auf den dänischen Philosophen Søren Kierkegaard fragt Precht, wie wir in der modernen, digitalisierten Welt unseren Platz finden, glücklich werden können und unsere eigenen Vorstellungen und Bedürfnisse nicht in den Hintergrund drängen lassen. An dieser Stelle hat Precht einen ganz wichtigen, wunden Punkt getroffen; nämlich inwiefern wir uns durch den derzeitigen Optimierungsfuror von unserer eigenen Natur zu weit entfernen könnten. Im Gegensatz zu Precht bin ich in dieser Hinsicht jedoch etwas optimistischer.

(Titelbild: Gerd Altmann auf Pixabay.com)

7 aus dem Strom, 01.09.20

Es wird mal wieder Zeit für eine kleine Sammlung lesenswerter Artikel. Diesmal über rassistische Computersysteme, deren Dekolonialisierung, nochmal Neuralink, Teslas Fabrik in Brandenburg, den Symbolgehalt des Berliner Reichstagsgebäudes und dessen sogenannter „Erstürmung“ durch Corona-Maßnahmen-Gegner*innen, sowie ein Interview mit einer Physikerin über Gravitation.

„Dekolonialisierung von Algorithmen“: Bei taz.de schreibt Adrian Lobe über strukturellen Rassismus in Algorithmen und KI-Systemen. Lobe weist darauf hin, dass Versuche, KI weniger anfällig für rassistische Einstufungen zu machen, eher sekundär ist angesichts des Problems, dass die Klassifizierung, Metrisierung und technische Einbindung des Menschen selbst bereits im Kern rassistischen Ursprungs ist — Lobe zieht eine Linie von den Fingerabdrücken, die im 19. Jahrhundert die indische Kolonialverwaltung an Soldaten nahm, zur Entsperrung des Handys mit dem eigenen Fingerabdruck: „Biometrische Verfahren kolonisieren den Körper und machen das Datensubjekt untertan“, so Lobe.


Ein wichtiger Text, auf den sich Lobe offenbar bezieht, stammt vom südafrikanischen KI-Forscher und DeepMind-Mitarbeiter Shakir Mohamed, erschien bereits 2018. Er ist Essay und optimistischer Aufruf zugleich und endet mit ganz praktischen Schritten, die man als Forderung nach Transparenz und Offenheit zusammenfassen könnte: „We can continue to strengthen open-source software, open-data, and open-access science— publishing more, not less; we can further support accessible machine learning frameworks, and accessible scientific communication; and we can continue to find solutions to the challenges of fairness, privacy, safety, verification, and governance.“ Und als Aufforderung zur Selbstreflexion: „And we can go further, by always challenging our settled assumptions and world-views as we expand the frontiers of our knowledge.“


Als „Neuroscience Theater“ kritisiert Antonio Regalado in Technology Review das kürzliche Update zu Elons Musks Neuralink-Projekt. Regalado weist auf das Science-Fiction-artige Design des für die Implantation der Chips genutzten Roboters hin und ist skeptisch, inwieweit die medizinischen Ziele Neuralinks wirklich eine Rolle spielen. Musk sei in seiner Präsentation immer wieder abgeschweift zu seiner Idee eines „general population device„, mit dem sich Menschen mit Computern verbinden, um mit KI-Systemen Schritt halten zu können.


Elon Musk ist auch Thema in der FAZ, wo Simon Strauß den Unternehmer als Prophet bezeichnet, auf dessen Ankunft in dieser Woche „ganz Brandenburg“ warten würde – „Ein Raumschiff landet in Brandenburg“. Insbesondere folgender Beobachtung Strauß‘ kann ich zustimmen: „Es geht dem neunundvierzigjȁhrigen Musk immer auch um das Streben nach dem Unerreichbaren. Ein futuristischer Übermut treibt diese Firma“ Und dieser Übermut trifft nun auf die brandenburgische Provinz, ein Widerspruch, den Strauß ausführlich ausarbeitet. Ich persönlich muss allerdings auch an Rainald Grebe denken (… ja, das ist schon alt, ich weiß), der damals sang: „In Brandenburg, in Brandenburg, ist wieder jemand gegen einen Baum gegurkt! Was soll man auch machen mit 17, 18 in BRANDENBURG?“ Vielleicht in Zukunft mit Teslas … in den Baum …? Aber nein. Diese Autos wird sich angesichts des dortigen niedrigen Lohnniveaus wohl nur eine Minderheit leisten können oder wollen.


„Einschüchternd offen“ betitelt Gerhard Matzig seinen Artikel in der Süddeutschen Zeitung über das Berliner Reichstagsgebäude, dessen Kuppel schon immer Anlass zu Kritik gab — weil Kuppelbauten Macht ausdrückten. Der letzte deutsche Kaiser, Wilhelm II. lehnte die Reichstagskuppel ab, weil ihm das dadurch ausgedrückte Machtbewusstsein des Parlaments missfiel. Als es nach der Wende zum Umbau des Reichtstagsgebäudes kam, war eine Kuppel erst nicht vorgesehen, wurde aber von der Politik gefordert und in der Presse kritisiert. Am Ende ist dies für Matzig jedoch nicht entscheidend. Matzig urteilt: „in einem föderalen System, das auch die durchgeknalltesten Formen der Meinungsfreiheit verträgt, wird die Demokratie nicht an zentralen Plätzen und in staatstragenden Herz-Bauten verteidigt, sondern im Alltag. Die Symbolkraft politischer Architektur ist in Wahrheit so überschaubar wie das sinnlose Wüten dagegen.“ Leider, möchte ich ergänzen, ist es den Demonstrant*innen mit ihrer Aktion gelungen, große Aufmerksamkeit zu erzeugen.


Auch bei der ZEIT geht es daher um das Reichstagsgebäude. Unter dem Titel „Sie brauchten nur dieses eine Foto“ analysiert Dirk Peitz „die Macht der Bilder“, die am Samstag entstanden, als „Querdenken“-Demonstrant*innen auf die Treppe des Reichstagsgebäudes „stürmten“ und dort ein zugleich skurriles wie Besorgnis erregendes Bild boten mit ihren USA-, Russland- und Deutsches-Reich-Flaggen. Peitz fragt sich (übrigens wie ich mich auch), warum eigentlich nicht das Bundeskanzleramt als Symbol der Regierung Ziel war, sondern das Parlament. Der Autor vermutet, diese Demo-Teilnehmer*innen „wollen ‚das Volk‘ sein und ‚das Volk‘ wird vertreten im Parlament. Die vermeintlichen Reichstagserstürmer vom Samstag wollten offenbar als selbsternannte Volksvertreter verstanden werden und sich als solche ins Bild rücken, nicht so sehr als Opponenten gegen die auf Zeit gewählte Inhaberin der ‚Macht‘, die sie ja ohnehin als nicht legitimiert verstehen und also nicht akzeptieren.“


Zum Schluss etwas Grundsätzliches: Im Quanta Magazine war kürzlich ein Interview mit der Physikerin Claudia de Rham, die sich intensiv mit der Gravitation und Einsteins Relativitätstheorie auseinandersetzt. Ein schönes Interview, in dem sowohl die Faszination für theoretische Physik deutlich wird, als auch, wie Forschung in dem Bereich funktioniert.

(Titelbild: cocoparisienne / pixabay.com)

Cyborg gegen KI? Elon Musks „Neuralink“

Auf den Unternehmer Elon Musk scheint der etwas abgegriffene Begriffs des „Machers“ noch zu passen: Elektroautos nicht nur bauen, sondern als attraktiv vermarkten? Das tut Musk mit seiner Firma Tesla, in die er seit 2004 investiert. Dafür in Windeseile eine Fabrik in Brandenburg hochziehen? Scheinbar trotz Protesten kein Problem. Eine private Alternative zur staatlichen US-Raumfahrt bieten? Musk und SpaceX tun das seit 2002; vor ein paar Monaten erstmals auch mit zwei Astronauten an Bord. Menschen und Fracht mit fast Schallgeschwindigkeit durch Tunnelröhren transportieren? Daran arbeitet seit 2013 Musks Hyperloop-Projekt.

Doch neben Transportmitteln interessiert sich Elon Musk auch für die Natur des Menschen selbst: Seit 2016 untersucht Musks Firma Neuralink Möglichkeiten, Computerchips in menschliche Gehirne einzupflanzen. Gehirnchips, die unsere Fähigkeiten erweitern – für die einen Horrorvorstellung, für die anderen nur Beginn transhumanistischer Sehnsucht. Den Prototypen eines Gehirnchips stellte Musk im Juli 2019 vor, und in einem Livestream präsentierte er am Samstag einige Fortschritte bezüglich der Implantation des Chips selbst – 1.024 Elektroden werden von einem Roboter implantiert, angeblich sanfter als bei früheren Methoden (Bericht bei golem.de).

Soll es am Anfang noch um Unterstützung für körperlich beeinträchtigte Menschen gehen, ist Musks Fernziel, die kognitiven Fähigkeiten von Menschen so zu steigern, dass wir mit Künstlicher Intelligenz (KI) mithalten können. Musk hat schon früher betont, dass er KI als zwar nützlich, aber auch als potenzielle Bedrohung ansieht; er unterstützt deshalb die Non-Profit-Organisation OpenAI, die im März mit GPT-3 die bislang am erfolgreichsten funktionierende KI zur Erzeugung längerer englischsprachiger Texte vorgestellt hat.

Die Philosophin Susan Schneider warnte 2019 nach Musks Ankündigung vor den Gefahren, die Musks Pläne für den menschlichen Geist bedeuten würden. In der Financial Times und in der New York Times warnte Schneider vor einem „Selbstmord des menschlichen Geistes“ (näher ausgeführt hat Schneider das etwas später in ihrem Buch „Artificial You: AI and the Future of Your Mind“). Erstaunlicherweise wurde in den Medien aber kaum über Musks Ausgangsthese gesprochen, die ja besagt, dass wir von KI bedroht werden und gleichsam aufrüsten müssen, um dieser Bedrohung Herr zu werden. Dabei ist gerade das Verhältnis von Mensch und KI eine Frage, die zu klären wäre, bevor wir ihretwegen wahlweise zu Cyborgs werden oder jegliche transhumanistische Idee sofort abtun.

Ist also KI für uns Technik wie jede andere, die wir als mündige Nutzer*innen verwenden, um ein konkretes Problem zu lösen?

Oder ist KI etwas, der wir uns einfach nicht werden entziehen können, von deren Leistungen wir abhängig werden (zumindest, wenn wir gesellschaftlich nicht ‚abgehängt‘ werden wollen), und die uns deswegen auch fremdbestimmen wird?

Die Antwort hängt davon ab, welche Einstellung wir modernen Technologien gegenüber einnehmen. Stehen wir ihnen optimistisch gegenüber, oder nehmen wir sie als Bedrohung wahr?

Unbehagliche Umweltkomplexität

Dass wir uns als Menschen von Technik bedroht fühlen, ist nichts Ungewöhnliches. Das betrifft uns sowohl als Gesellschaft (etwa hinsichtlich Umweltfragen und der Gefahr des Arbeitsplatzverlustes) als auch als Individuen. Insbesondere Technik, deren innerer Aufbau und deren Funktionsweise nicht auf den ersten Blick ersichtlich ist, kann zu Unbehagen führen. Das betrifft erstens ihren Einsatz, wenn wir direkt mit ihr zu tun haben, und zweitens Nebenfolgen, von denen wir als Dritte betroffen sein könnten. Denken wir etwa an das Fliegen:

  1. Viele Menschen haben Flugangst. Die Gründe dafür können vielfältig sein, aber eine der Ursachen können wir als ungläubiges Staunen vor einer als unbegreiflich empfundenen Technik beschreiben: Man ist gleichermaßen fasziniert von der Technik wie man besorgt ist, ob sie auch wirklich wie versprochen funktioniert. Wie kann es sein, dass ein Flugzeug bei Triebwerksausfall nicht einfach vom Himmel fällt? Erst wenn man Funktionsweise und Kontext der am Fliegen beteiligten Techniken und physikalischen Zusammenhänge kennt, kann man Risiken rational abschätzen und begründen.
  2. Neben dem Mitfliegen als Passagier*in sind wir vom Fliegen betroffen, weil es in unserer Umwelt stattfindet und diese Umwelt teils massiv verändert. Darauf reagieren Menschen: Denken wir etwa an Flugscham, an Proteste bei Flughafen-Ausbauten oder an Lärmbeschwerden von Anwohner*innen in Flughafennähe. Nicht das Fliegen selbst wird hier als Bedrohung gesehen, sondern die Folgen und die Voraussetzungen des Fliegens werden als Bedrohung Umwelt und der eigenen Gesundheit wahrgenommen.

Ganz ähnlich ist unsere Beziehung zu Technik insgesamt. Wir sehen uns Technik gegenüber: Wir sitzen als klar abgegrenzte Akteur*innen im Flugzeug, vor dem Computer, wir halten die Bohrmaschine in der Hand, und so weiter. Systemtheoretisch ist das eine Leistungsbeziehung zwischen System und Umwelt. Technik ist Umwelt gesellschaftlicher Systeme, wie Wirtschaft, Politik und Wissenschaft, aber auch einzelner Nutzer*innen. Nach Niklas Luhmann ist die Leistung von Technik, Komplexität zu verringern. Technik wird von ihren Entwickler*innen so eingerichtet, dass sie diese Leistung in den als am wahrscheinlichsten angenommenen Situationen erbringen kann. Um Technik zu nutzen, müssen wir nur gewisse Grundkenntnisse erwerben und können ansonsten darauf vertrauen, dass die Technik unsere Erwartungen erfüllt (wir müssen freilich auch mit Enttäuschung dieses Vertrauens umgehen).

Die systemtheoretische Perspektive auf Nutzer*in und Technik passt gut auf Verhältnisse, in denen man als Beobachter*in unterschiedliche Systeme und ihre Umwelten klar voneinander abgrenzen kann. Schwierig wird es jedoch, wo diese klare Trennung schwer fällt. Künstlicher Intelligenz etwa stehen wir nicht als gewöhnliche Nutzer*in gegenüber wie einer Bohrmaschine oder einer Textverarbeitung. Womöglich wissen wir gar nicht, dass KI hinter einer erbrachten Leistung steckt.

Im Sommer 2019 füllte die „FaceApp“ kurzzeitig das journalistische Sommerloch. Damit können Sie das Foto eines Gesichts mit KI-Hilfe und Bildverarbeitung verändern, zum Beispiel aus einem jungen Mann einen weise aussehenden älteren Herrn zu machen. Oder aus einer jungen Frau eine nette, gütige „Oma“. Andere, technisch ähnliche Anwendungen, erlauben die Generierung fiktionaler Gesichter, die ebenfalls absolut lebensecht aussehen. Das erleichtert Identitätsbetrug.

Ein noch fiktives bedrohliches Szenario könnte die behördlich angeordnete Einschränkung Ihrer Bewegungsfreiheit sein, weil Sie laut KI-Prognose bald eine Straftat begehen werden, von der Sie selbst noch gar nichts wissen. Womöglich könnten Sie Widerspruch gegen die Entscheidung einlegen, hören dann aber nur die Antwort „Es tut mir leid, aber unsere Risiko-KI hat das so entschieden.“ Dann fühlen Sie sich so hilflos wie einst Josef K. in Franz Kafkas Roman „Der Prozess“ – einem System ausgeliefert, dessen Entscheidungen man nicht versteht und gegen die man nichts, aber auch gar nichts, tun kann.

So eine KI wäre zwar immer noch Umwelt der anderen Systeme, aber ihre Leistungen kämen eher einer Naturgewalt gleich statt einer kontrollierbaren Technik. Die KI würde eher Umweltkomplexität erzeugen statt sie zu verringern. Wer mag es einem Elon Musk da verdenken, dass er Menschen mittels Chip im Kopf die Möglichkeit geben will, einer KI quasi auf Augenhöhe zu begegnen?

Zum jetzigen Zeitpunkt ist das Hauptproblem an Musks Ansatz nicht die technische Machbarkeit. Es ist auch nicht die – philosophisch sicher spannende – Frage, ob ein Chip im Gehirn den menschlichen Geist erweitert, so wie es etwa Andy Clark und David J. Chalmers 2013 in ihrer Extended Mind Theory schon für einfache Techniken wie ein Notizbuch behaupteten (und ähnlich schon früher die Medientheorie Marshall McLuhans), oder ob Susan Schneider mit ihrer Selbstmord-These Recht hat. Wenn wir wirklich von KI bedroht sein sollten, ist das Hauptproblem derzeit, ob Musks Ansatz geeignet ist, das Problem zu lösen, oder ob es nicht auch einfacher geht.

Statt Gehirnchips: Verstehen und Intervention

Eine Alternative finden wir in der Forderung, in Bezug auf Digitalisierung eine „Code Literacy“ auszubilden (so Douglas Rushkoff in seinem Buch „Program or be Programmed“), also verstehen zu lernen, wie Computer und Algorithmen mit unseren Daten umgehen, damit wir mündige Nutzer*innen sein können. In Bezug auf KI denke ich dabei an drei Aspekte:

  • die Fähigkeit, zu erkennen, dass wir in einer bestimmten Situation von KI betroffen sind;
  • das Wissen darüber, was eine KI grundsätzlich tun kann oder nicht – wo also ihre realistischen Fähigkeiten und Grenzen liegen;
  • das Wissen darüber, was Menschen, die eine KI einsetzen, mit ihrer Hilfe tun können oder nicht.

Es geht, kurz gesagt, darum, die System-Umwelt-Verhältnisse der beteiligten menschlichen, gesellschaftlichen und technischen Systeme zu klären und die erwarteten und erbrachten Leistungen einzuordnen. Dann ist es möglich, Interventionsmöglichkeiten zu identifizieren und, anders als Josef K. in Kafkas Roman, KI nicht als mystische Macht wahrzunehmen, die irgendwo im Hintergrund lauert, sondern als Technik wie jede andere auch. Die Ausbildung dieser auf KI erweiterten Code Literacy führt zu einer Demystifizierung, die schon Max Weber in Bezug auf Wahrheitsansprüche gefordert hatte, und an die zu erinnern mir mittlerweile auch für das Alltagsleben geboten erscheint.

Aktuelle KI-Systeme sind lediglich mathematische Modelle, deren Einzelteile fast lächerlich einfach erscheinen können (z.B. das einzelne künstliche Neuron eines neuronalen Netzes). Nur dank der großen Zahl der Einzelteile (z.B. aller Neuronen des Netzes) und mehrfach wiederholter Berechnungsdurchgänge entstehen Ergebnisse, die mitunter selbst die Entwickler*innen überraschen. Aber es ist nach wie vor bloße Mathematik, und eine KI kann nicht, wie in der Science Fiction, auf geradezu magische Art über sich hinauswachsen. Entwickler*innen wählen Trainingsdaten aus, legen Aktivierungsfunktionen und Gewichtungen fest, markieren Ergebnisse als gewünscht, um eine Abbruchbedingung für die Berechnung zu haben, und entwickeln Algorithmen, die selbst bei KI-Systemen auf einer basalen Ebene existieren. Daher tut auch eine KI nur das, wofür sie programmiert wurde. Sie ‚trifft‘ keine eigenen Entscheidungen.

Die Verantwortung für Fehlentscheidungen tragen Menschen, und an die müssen wir uns bei Fehlentscheidungen wenden. Zu verstehen, wie KI funktioniert und zu was sie in der Lage ist (und wozu nicht), hilft dabei. Neben bereits bestehenden Arbeiten zur menschenfreundlichen Darstellung von KI-Entscheidungsprozessen wäre es wünschenswert, wenn die Modelle und Datenbasen einer KI einer Open-Source-Pflicht unterliegen würden. Darüber hinaus bedarf es gesellschaftlicher Organisationsformen als Entlastungsfunktion – zum Beispiel in Form spezieller Abteilungen in Unternehmen und Behörden, die unsere Widersprüche gegen KI-Entscheidungen bearbeiten und KI-Entscheidungen übersteuern können, sowie neutraler Schiedsstellen, an die wir uns wenden können, wenn eine andere Einigung nicht möglich ist. Ein zu erwartender Wegfall von Arbeitsplätzen durch KI muss gesellschaftlich bearbeitet werden – von Fortbildungsprogrammen bis hin zu Grundeinkommensmodellen (denn trotz Fortbildung wird nicht jede*r eine andere Tätigkeit finden), ebenso wie mögliche ökologische Folgen des Energieverbrauchs.

Dies wären Ansatzpunkte für eine menschliche Umgangsweise mit Herausforderungen von KI-Einsatz – zwar kritisch und durchaus der Gefahren bewusst, aber unaufgeregt und grundsätzlich technik-optimistisch. KI hingegen als quasi naturgegebene Macht anzusehen, der wir uns nur durch technische Aufrüstung im Gehirn erwehren können, kommt der Bekämpfung von Feuer mit Öl gleich. Neuralinks Produkt wäre für diesen Einsatzzweck eine Technik, die mehr Komplexität schafft als sie verringert, und zumindest in dieser Hinsicht widersinnig. Nicht nur aus Machbarkeitsgründen wäre es sinnvoller, den Fokus auf die viel naheliegenderen medizinischen Möglichkeiten solcher Chips zu legen, die Musk aber nur als Einstieg sieht.

Titelbild: chenspec / pixabay.com

Den Artikel habe ich zeitgleich in meinem Blog in der Freitag.de-Community gepostet.

„Wir müssen uns alle fragen, was wir zur Welt beitragen“ Interview mit Zach Barth & Matthew Burns über Eliza & Co.

Vor kurzem habe ich Zachtronics‘ Visual Novel Eliza vorgestellt, in der wir der Protagonistin Evelyn dabei helfen, sich zur Entwicklung neuer KI-Systeme zu verhalten. Vor Eliza waren Zachtronics vor allem für komplexe Puzzle-Spiele mit IT-Thematik bekannt — in Titeln wie EXAPUNKS, SHENZHEN I/O oder TIS-100 schreiben wir kurze Programme im Assembler-Stil, um Rätsel zu lösen — ein spielerischer Zugang zu Code Literacy, der gleichzeitig tolle Erfolgerlebnisse erzeugt. Die Entwickler Zach Barth und Matthew S. Burns haben mir dazu per E-Mail einige Fragen beantwortet.

Könnt ihr zuerst bitte kurz etwas zu Zachtronics sagen — könnt Ihr vom Spiele entwickeln leben?

Zach Barth (links), Matthew S. Burns (rechts) / Bild: Wikipedia

Zach: Momentan arbeiten fünf Leute bei Zachtronics, obwohl sich das über die Jahre immer mal wieder verändert hat, seit wir 2011 angefangen haben. Spiele zu entwickeln ist für uns alle ein Vollzeitjob.

Viele Zachtronics-Spiele rufen eine ziemlich atmosphärische, fiktionale Computernostalgie hervor — zum Beispiel die Assembler-artigen Puzzles im 1970er-Jahre-Stil in TIS-100; die 1990er-Cyberpunk-Atmosphäre in EXAPUNKS; sogar die Referenzen zu Weizenbaums originalem ELIZA in Eliza. Habt ihr einen beruflichen Hintergrund, der bis in diese frühen Jahre der Computertechnik zurückreicht?

Zach: Nein, definitiv nicht. Die meisten von uns sind mit Computern in den 1980ern und 1990ern aufgewachsen und interessieren sich für die Geschichte von Computern und für Grafikdesign. Das sind die Hauptzutaten für ein Spiel wie SHENZHEN I/O oder EXAPUNKS. Ich vermute, da ist wohl viel falsch platzierte Nostalgie dabei.

In EXAPUNKS (hier noch ein Einführungspuzzle) schreiben wir Programme (links), damit unsere kleinen roboterartigen Exas in Computersysteme eindringen und dort diverse, meist illegale Manipulationen vornehmen (rechts)

TIS-100, SHENZHEN I/O und EXAPUNKS ermöglichen den Computer-Nerds in uns, rein zum Spaß Programmieraufgaben zu lösen — wir lösen die Probleme nicht für einen Job, sondern einfach, weil es Freude bereitet. Das erinnert mich an meine Teenagerzeit. Eure Spiele bringen diese Atmosphäre zurück. Dazu trägt auch die Dokumentation der Spiele bei — wie das TIS-100-Handbuch oder die Hacking-Fanzines von EXAPUNKS. Anders als bei vielen anderen heutigen Spielen muss man diese Dokumente wirklich lesen, ansonsten wäre man nicht in der Lage, die Spiele zu gewinnen. Habt ihr eine persönliche Vorliebe für diesen alten, haptischen Stil von Computertechnik, wo man sich in Bücher versenkt, Quellcode ausdruckt, richtige Tastaturen benutzt, usw.?

Zach: Physische Sachen machen Spaß, aber vielleicht ist Spaß nicht genug, um der Grund zu sein. Wir haben das TIS-100-Handbuch geschrieben, weil es angemessener und interessanter war als ein Schritt-für-Schritt-Tutorial im Spiel selbst.

Ich denke auch, dass es für Spieler*innen so einfacher als Referenz zu nutzen ist; egal, ob man sich es ausdruckt oder als PDF anschaut, es geht schneller, zwischen Spiel und Dokumentation zu wechseln als zwischen Tutorial und richtigen Puzzles im Spiel.

Nachdem wir dieses Konzept etabliert hatten, hatten wir damit noch mehr Spaß in SHENZHEN I/O und EXAPUNKS, und weiteten dabei auch seine Nutzung als erzählerisches Mittel aus.

EXAPUNKS bringt Untergrund-Hacker-Magazine mit, die gleichzeitig als Spielanleitung dienen. In ihnen erlernen wir die Programmiersprache, die wir benötigen, um die Puzzles im Spiel erfolgreich zu lösen. Aber auch die fiktionale Werbung der Fantasie-1990er ist cool.

Die meisten eurer Spiele sind Puzzlespiele. Sehr tiefgehende Puzzlespiele. Wahrscheinlich sogar dazu geeignet, zu lernen, wie Computer im Inneren funktionieren. Ich habe bemerkt, dass ihr eure Spiele für Schulen und Bildungseinrichtungen kostenlos anbietet. Nutzen Lehrer*innen sie im Informatikunterricht? Wie reagieren Schüler*innen auf die Spiele?

Zach: In den letzten anderthalb Jahren haben wir Spiele im Wert von fast 350.000 US-Dollar an Schulen verschenkt, obwohl das nur der Preis der Spiele selbst ist und offensichtlich mehr als jede Schule tatsächlich bezahlt hätte.

Ich habe nicht von vielen Lehrer*innen gehört, also vermute ich, dass die Spiele nur ab und zu als Auflockerung für die Schüler*innen eingesetzt werden, falls sie überhaupt verwendet werden. Trotzdem ist es es wert … Schulen müssen Geld für viele weit wichtigere Dinge als uns bezahlen.

In TIS-100 schreibt man beschädigte Programmteile neu, um den gleichnamigen, fiktiven Computer zu reparieren und seine Geheimnisse zu entlocken — TIS steht für Tesselated Intelligence System …

Aus eurem Portfolio sticht Eliza hervor. Das ist kein Puzzle, sondern eine Visual Novel, und dadurch erscheint das Spiel wie ein Kommentar zu euren anderen Spielen. Ein Spiel wie EXAPUNKS erzeugt den Eindruck: „Wow, Computer sind cool. Sowas will ich machen!“ Zwar erzeugt auch Eliza teilweise diese Faszination (zum Beispiel, wenn es um Rainers Ambitionen geht, die schwache Machine-Learning-KI auszubauen). Aber Eliza erzeugt auch Zweifel — das ist eine sehr starke Seite des Spiels. Es bietet durch seine Charaktere die Chance zum Perspektivwechsel und lässt uns damit nachdenklich zurück: Wohin wird uns all die Technologie führen? Wollen wir dabei eine aktive Rolle spielen oder verschließen wir lieber unsere Augen davor? Matthew, du bist der Hauptentwickler von Eliza. Beschäftigst du dich mit solchen Fragen auch anderweitg?

Matthew: Ich denke über diese Themen viel nach, teilweise weil ich in Seattle lebe und es dort eine Menge Leute von Amazon, Microsoft, Facebook und Google gibt. In den letzten zehn Jahren habe ich beobachtet, wie diese Firmen die Stadt dramatisch verändert haben, allein mit ihrer Präsenz. Wenn ich nur die Straße entlang gehe, kann ich nicht anders als zu denken, wofür ist das alles gut? Wohin führt es uns?

Außerdem arbeite ich in der Spielebranche, was ähnliche Fragen aufwirft. In den früheren Jahren meiner Karriere habe ich an teuren, gewalttätigen First Person Shootern gearbeitet. Nach einer Weile begann ich mich zu fragen, ob ich wirklich so eine Art von Ding auf die Welt bringen wollte. Irgendwann habe ich entschieden, dass ich mich mit einer anderen Art von Spielen besser fühle, selbst wenn sich davon nicht so viele Exemplare verkaufen. Auf eine Art, egal ob wir in der Technologiebranche arbeiten oder nicht, müssen wir alle diese Entscheidung treffen — was wir zur Welt beitragen.

In Eliza hören wir uns die Probleme ziemlich vieler Leute an.

Kannst du ein paar Titel nennen, an denen du beteiligt warst? Sind zum Beispiel die Szenen in deiner Interactive Fiction The Writer Will Do Something von diesen Erfahrungen inspiriert?

Matthew: Ich habe bei Treyarch, Bungie und 343 Industries an den Serien Call of Duty, Halo und Destiny gearbeitet, aber nicht in einer kreativen, sondern einer produzierenden Rolle. Das Spiel The Writer Will Do Something könnte davon beeinflusst sein, genauso wie von den Erfahrungen seines Co-Autors, Tom Bissell, der unter anderem an den Battlefield-, Gears of War- und Uncharted-Franchises gearbeitet hat, neben vielen anderen.

The Writer Will Do Something gehört zum Genre der Interactive Fiction, wo wir eine Geschichte lesen und an bestimmten Punkten Entscheidungen über den Fortgang der Geschichte treffen. Spielmechanisch hat Eliza als Visual Novel einige Ähnlichkeiten mit Interactive Fiction. Auf den ersten Blick könnte diese Form wie das Gegenteil zu Zachtronics anderen, sehr interaktiven Programmier-/Codingspielen erscheinen. Aber nach einer Weile merkt man, dass Eliza perfekt zu eurem Portfolio passt (weil es, wie angedeutet, eine Metaperspektive auf die Thematik einnimmt). Hattet ihr schon länger vor, eine Visual Novel zu schreiben und das war einfach ein passendes Thema, oder habt ihr die Form der Visual Novel speziell für Eliza gewählt, weil sie gut zur Erzählung des Spiels passt?

Matthew: Ich habe zuerst die Idee aufgeschrieben und das Visual-Novel-Format später gewählt. Wie du sagst, es schien der richtige Weg zu sein, die Gefühle der Haupt-Protagonistin wiederzugeben: Evelyn fühlt, wie die Verpflichtungen des Lebens an ihr zerren, ohne dass sie darüber viel Kontrolle ausüben kann. Die Form hat auch gut in den Therapiesitzungen funktioniert, wo man einfach das tut, was einem gesagt wird.

Während des Schreib- und Designprozesses habe ich über mehrere Wege nachgedacht, diese Geschichte zu erzählen, und es wurde deutlich, dass das der beste Weg ist. Visual Novels haben ein sehr etabliertes Format, also konnte ich mir das leicht vorstellen. Ich stellte mir vor, „die Grammatik der Visual Novel zu benutzen“, um meine spezifischen Ideen auszudrücken.

Der insgesamt sehr entspannte Eliza-Soundtrack wurde ebenfalls von Matthew S. Burns geschrieben.

In Eliza wird einiger Aufwand betrieben, um Noras (eine Freundin Evelyns) Faszination für elektronische Musik, Synthesizer, usw. rüberzubringen. Als ich das erste Mal Noras Track in dem Club hörte, konnte ich mit Evelyn mitfühlen — es war ein ziemlich intensiver Track, wie … ich musste an KI denken, die uns überwältigt, symbolisiert durch die elektronischen Beats. Es war auch anders als die Musik im Rest des Spiels, die meistens eine entspannte, fast meditative ‚Beratungsstimmung‘ erzeugt. Wie viel von dir selbst und deiner eigenen musikalischen Erfahrung und Zielen steckt in Nora?

Matthew: Noras Track soll definitiv Noras Charakter widerspiegeln. Ich hatte viel Spaß dabei, ihn zu schreiben, weil das nicht wirklich die Art von Musik ist, die ich für mich selbst mache, aber es war gut, um meinen Grenzen auszutesten. Ich denke, Nora repräsentiert die Art von Freiheit, die möglich ist, wenn du niemandem etwas schuldig bist und die Dinge verfolgen kannst, die du tun willst.

Ich bin ein Liebhaber analoger Synthesizer und habe früher bei einem Hersteller von Musiktechnik gearbeitet, aber meine Ziele unterscheiden sich von denen Noras. Zum Beispiel spiele ich keine Live-Shows, und ich interessiere mich viel mehr für zurückhaltene Ambient-Klanglandschaften.

Als Matthewせいじ veröffentlicht Matthew S. Burns eigene Musik, hier das Album PRISMAL SUBSTANT

Zach, in TIS-100, SHENZHEN I/O und EXAPUNKS kann man auf spielerische Weise lernen, wie ein Computer auf ganz basale Weise funktioniert. Ich finde sowas ziemlich wichtig, um eine „Code Literacy“ (wie Douglas Rushkoff das nannte) zu entwickeln, damit Individuen besser mit einer technologiezentrierten Gesellschaft zurechtkommen. Glaubst du, dass man etwas Ähnliches auch für neuere Konzepte tun könnte, etwa Machine Learning und Quantencomputer? Zum Beispiel ein Spiel, in dem man neuronale Netzwerke erstellen oder modifizieren muss, um ein bestimmtes Ziel zu erreichen, oder wo man Quantenschaltkreise aufbaut?

Zach: Nichts hindert einen daran, ein Spiel über Machine Learning oder Quantencomputer zu machen; für Machine Learning hat das auch schon jemand getan und er scheint damit ziemlich erfolgreich zu sein.

Ich habe mir schon öfter angeschaut, ob in Quantencomputer-Konzepten irgendwo ein Spiel drinsteckt, aber ich habe jedes Mal aufgehört, weil es nicht genug Möglichkeiten für interessante Puzzles gibt. Es ist sehr abstrakt und nicht wirklich vergleichbar zu anderen Formen der Computertechnik.

Ich mache Spiele vor allem, weil sie mich selbst interessieren.

Alles klar, völlig verständlich (und danke für den Hinweis auf das Machine-Learning-Spiel, das kannte ich nicht). Also, letzte Frage: Was kann man als nächstes von Zachtronics erwarten?

Zach: Voraussichtlich diesen Sommer werden wir ein weiteres innovatives Nicht-Puzzlespiel veröffentlichen. Und was dann kommt — wer weiß!

Ich bin gespannt! Danke schön, Zach, Matt, dass ihr euch die Zeit genommen habt, meine Fragen zu beantworten!

SHENZHEN I/O Trailer

strom.schnellen #2

Weil es manchmal schneller gehen muss: In dieser Post-Reihe teilen wir ganz schnell einige Links zu sehr lesenswerten Artikeln, ohne langen Kommentar.

  • „Abschied vom Freisinn“. Die Frankfurter Allgemeine Zeitung (FAZ) rezensiert ein Buch über die Geschichte der Neuen Zürcher Zeitung (NZZ). Die Rezension ist auch ein guter Überblick, um die politische Verortung der NZZ besser zu verstehen.
  • „Zoom, Xoom, Zum“. Die New York Times fragt sich, warum heute jedes neue Startup einen Namen zu tragen scheint, der Geschwindigkeit suggeriert.
  • „Common Sense Comes Closer to Computers“. Das Quanta Magazine stellt neue Ansätze vor, wie die Schlussprozesse in KI-Systemen näher an den ‚gesunden Menschenverstand‘ heranreichen könnten.
  • „Erfülle uns nur einen einzigen Wunsch!“ Bei spektrum.de ist die Übersetzung eines weiteren Quanta Magazine-Artikels erschienen, in der ein Ansatz diskutiert wird, nach dem KI-Systeme nicht für eine bestimmte Zielstellung entwickelt werden sollten, sondern in die Lage versetzt werden, selbstständig die Wünsche der Menschen zu erkennen.
  • „What is the Geometry of the Universe?“ Und nochmal das Quanta Magazine: In einem sehr anschaulich bebilderten Text wird spekuliert, ob unser (normalerweise wie ein sich unendlich ausdehnender Raum wirkendes) Universum stattdessen flach, sphärisch oder hyperbolisch sein könnte.

(Titelbild: philpace / pixabay.com)

Danke, dass Sie mit uns gesprochen haben: Eliza (2019)

Nach meiner kürzlichen Skepsis zum Kommunikations’spiel‘ Kind Words habe ich mir gestern die 2019 erschienene Visual Novel Eliza vorgenommen, die schon lange auf meiner Liste steht — und überraschenderweise war das ein ziemlich intensives Erlebnis, das mich noch immer nachdenklich zurücklässt. Der ganz normale Alltag, menschliche Kommunikation, psychische Gesundheit und Künstliche Intelligenz — Eliza behandelt all dies in einer erwachsenen Erzählweise, die ihre Themen, Protagonist*innen und Spieler*innen ernst nimmt. Und das nur wenig interaktive Format der Visual Novel mit seinen Standbildern ist perfekt geeignet für die Thematik.

Wir erleben die Geschichte aus Sicht von Evelyn, die in Seattle als neue Angestellte beim Technologiekonzern Skandha arbeitet. Evelyns Job ist einfach: Als „Proxy“ (Stellvertreter*in) sitzt sie allen möglichen Klient*innen gegenüber, die in einer Art Therapiesitzung ihre Probleme ausbreiten. Doch nicht Evelyn selbst leitet die Sitzung, sondern das Computerprogramm „Eliza“, eine Künstliche Intelligenz (KI) und neuester Erfolg Skandhas. Basierend auf Machine-Learning-Verfahren, analysiert Eliza die Äußerungen der Klient*innen und formuliert Antworten, die Evelyn genau wie vorgegeben vortragen muss — die Proxys sind nicht mehr als menschliche Stimme und Antlitz der KI, was die Akzeptanz bei den Klient*innen (und damit den Umsatz Skandhas) steigern soll.

Diese Therapiesitzungen nehmen einen Großteil der Spielzeit der Visual Novel ein — wir hören uns die vollständig geskripteten Probleme der Klient*innen an, aber anstatt selbst eine Antwort auszuwählen, die wir Evelyn geben lassen wollen, klicken wir auf die einzig erlaubte, von Eliza erstellte Anwortmöglichkeit. Nach dem Ende der Sitzung geben die Klient*innen eine Bewertung ab, schön animiert wie in einem Computerspiel — Gamification at work.

Das hat mich alles sehr an Call-Center-Erfahrungen erinnert, wo man — je nachdem, für welches Projekt man als ‚Agent‘ arbeitet — auch mehr oder minder engen Skripts folgt; Entscheidungen mitunter durch ein Computerprogramm getroffen werden (und man diese nur den Anrufer*innen gegenüber kommunizieren soll); es nicht viel Zeit für Small Talk abseits des zu lösenden Kundenanliegens gibt; und die Arbeitsleistung am Ende auch auf wenige Zahlen — Kundenbewertung, Gesprächsdauer, Lösungsquote usw. — runtergebrochen wird.

Das Spiel gibt uns einen Eindruck davon, wie sich ein Proxy bei dem Job wohl fühlt, aber glücklicherweise gibt es auch viele Szenen, in denen wir uns mit anderen Leuten außerhalb der Arbeit treffen — dort haben wir dann mehr Auswahlmöglichkeiten in den Dialogen. Das ist eine einfache, aber effektive Methode, den Unterschied zwischen echten Kommunikationssituationen (die immer mit Unwahrscheinlichkeit und Ungewissheit behaftet sind) und den technisierten Therapiesitzungen zu zeigen.

Die fiktive Eliza-KI in dem Spiel wurde benannt nach Joseph Weizenbaums ELIZA-Programm aus dem Jahr 1966. Weizenbaum simulierte damit auf vereinfachte Weise ein psychotherapeutisches Gespräch. Sowas ist heute als Chatbot bekannt. Bestimmte Schlüsselworte der Äußerungen wurden durch das Programm erkannt und in Antworten des Programms eingebaut. Das funktioniert eigentlich erstaunlich schlecht, aber erstaunlich viele Menschen hatten damals trotzdem den Eindruck, sie würden mit einem echten Therapeuten reden. Wer das echte Eliza-Programm selbst ausprobieren will, kann das — sogar mit echt-synthetischer Audioausgabe und optionaler Spracherkennung — online tun.

Die fiktive Eliza-KI soll angeblich viel fortschrittlicher sein als Weizenbaums früher Versuch, aber in den Therapiesitzungen ist davon nur wenig zu spüren — letztlich spiegelt die KI auch nur bestimmte Schlüsselworte an die Klient*innen zurück und empfiehlt am Ende entweder eine — natürlich ebenfalls von Skandha angebotene — Virtual-Reality-App zur Entspannung (Angeln gehen … einen Waldspaziergang machen …) oder verschreibungspflichtige Medikamente. Uns, Evelyn und den Klient*innen wird schnell deutlich: Eliza versteht nicht, worum es eigentlich geht, und die Gespräche wie Lösungsansätze sind schematisch.

Diese Problematik nimmt im Laufe der Erzählung immer größeren Raum ein, und sehr schnell erfahren wir, dass Evelyn nicht einfach irgendeine beliebige Angestellte ist. Im Gegenteil — vor drei Jahren war sie als Informatikerin maßgeblich an der Entwicklung Elizas beteiligt, hat den Job dann aber aus persönlichen Gründen beendet und litt lange Zeit selbst an einer Depression. Die Tätigkeit als Proxy ist damit ihr erster Schritt zurück in ein ’normales‘ Arbeitsleben.

Zu Beginn können wir uns mit Evelyn noch vorstellen, diesen Job eine ganze Weile auszuüben, denn er ist bequem, bringt zwar wenig, aber ausreichend Geld und fühlt sich mitunter fast meditativ an (übrigens alles Punkte, die ich auch für’s Call Center bestätigen kann). Doch schnell kommen alte Bekannte auf sie zu — in der Technologieszene kennt man sich, und Evelyns Talente sind nicht vergessen. Frühere Vorgesetzte bemühen sich intensiv um sie — der Skandha-CEO will Evelyn zurück als Technologiechefin, um Eliza noch viel weiter auszubauen; der im Streit von Skandha gegangene frühere psychologische Leiter des Elizaprojekts will Evilyn für sein neues Startup. Evelyns frühere Arbeitskollegin Nora, die der Szene den Rücken gekehrt hat, will Evelyn dazu bringen, es ihr gleichzutun. Und Rae, Evelyns direkte Vorgesetzte, will eigentlich nur mit Evelyn befreundet sein und sich mit ihr abends zum Kuchenbacken treffen.

Und so geht es am Ende für uns und Evelyn nicht mehr um die Therapiesitzungen — vielmehr geht es darum, wie wir uns zu Technologien wie Eliza verhalten, welche Gesellschaft uns vorschwebt — und vor allem, was wir mit Mitte Dreißig aus unserem Leben machen wollen. Wenn es eine wichtige Spielentscheidung in Eliza gibt, dann ist es diese. Alle Erlebnisse im etwa fünfstündigen Spiel, alle Therapiesitzungen, alle fiktiven E-Mails und Messenger-Verläufe auf Evelyns Smartphone und alle Dialoge mit anderen Figuren bereiten uns darauf vor, diese Entscheidung zu treffen.

Die Geschichte, die in Eliza erzählt wird, ist natürlich nicht wahnsinnig neu; ich denke, wenn man einmal alle Staffeln von Black Mirror gesehen hat oder eines der unzähligen Bücher über Menschen, Technik und KI gelesen hat (zum Beispiel meines 😉 ) ist man über die wesentlichen Themen schon im Bilde. Aber der Zugang als Visual Novel ist doch ein etwas direkterer. Eliza ist glücklicherweise gut geschrieben und hat einen sehr guten Cast. Die Sprecher*innen geben ihre Rollen realistisch und glaubhaft wieder.

Der Autor und Regisseur von Eliza, Matthew Seiji Burns, hat das Spiel mit fünf möglichen Enden versehen. Glücklicherweise können wir nach einem erlebten Ende alle sieben Kapitel und Abschnitte einzeln aufrufen und so auch die anderen Enden anschauen. Allen davon wird ausreichend Zeit gegeben, keines erscheint aufgesetzt bzw. alle erscheinen plausibel. Und, wie gesagt, das Spielerlebnis wirkt noch eine ganze Weile nach.

Zum Schluss noch eines: In dem Ende, in dem wir weiter als Proxy arbeiten, erhalten wir auch noch ein letztes Mal eine Klientenbewertung. Es ist fast gruselig, wie befriedigend sich diese schlimme Gamification-Methode aus Spieler*in-Sicht anfühlt — nicht für Evelyn, sondern für uns, die wir ja gar nichts getan haben, außer mechanisch zu klicken …

KI & WIR* – 22.-24.11.2019 in Magdeburg, Festung Mark

In Magdeburgs Festung Mark findet am Wochenende die Convention KI & Wir* statt, eine öffentliche Veranstaltung zu Künstlicher Intelligenz und Gender-Fragen. Das Programm der Convention ist äußerst vielfältig, neben Kurzvorträgen mit Diskussion werden Filme gezeigt und es gibt Mitmach-Angebote. Den Programm-Flyer gibt es zum Download auf der Website der Convention, genauso wie eine Übersicht der Referent*innen.

Die Verbindung der Themen KI und Gender ist wichtig, weil KI-Systeme immer stärker in Entscheidungs- und Marketingprozesse eingebunden werden, aber die KI-Modelle häufig noch nur mit spezifisch ‚männlichen‘ und ‚weißen‘ Grundannahmen entwickelt werden. Dadurch können von KI betroffene nicht-männliche, nicht-weiße Personen diskriminiert werden. Wie man damit umgehen kann, ist ein großes Thema der Veranstaltung.