Windows 11 und das Problem fehlender Technik-Transparenz

Microsofts kommendes Windows-Update „Windows 11“ war in technikaffinen Medien zuletzt häufig Thema. Unter anderem, weil Microsoft eher undeutlich kommuniziert, auf welchen Computern das Betriebssystem überhaupt funktioniert und so implizit nahelegt, sicherheitshalber Geld für neue Hardware auszugeben. Aber Windows 11 steht auch stellvertretend für einen jahrelangen Trend zu immer mehr Abgeschlossenheit von Computern. Bei GameStar Plus (leider Paywall) hat Georg Löschner einen sehr guten, etwas sarkastischen Kommentar geschrieben, der auf den Punkt bringt, was das Problem bei den Produkten großer Computerkonzerne heute ist: Konzerne wie Microsoft und Apple stellen nur noch hübsche, glattgebügelte Oberflächen bereit, die kaum noch echte Eingriffe seitens der Nutzer*innen zulassen.

Die zunehmende Abgeschlossenheit von Computern bei ihrer gleichzeitig immer größeren Verbreitung in verschiedenen Formen ist ein Problem, das auch bei Über/Strom immer wieder Thema ist, und mit dem ich mich seit Jahren befasse. In meinem Buch „Nutzerverhalten verstehen – Softwareenutzen optimieren“ schreibe ich:

„Transparent gegenüber Nutzer∗innen ist Software, wenn Nutzer∗innen jederzeit die Möglichkeit haben, sich über Hintergründe und Aktivitäten der Software in der aktuellen Situation sowie über das Zustandekommen der Berechnungs- oder Verarbeitungsergebnisse zu informieren. Die undurchsichtige Blackbox Software soll also ein Stück weit transparent gemacht werden.“ (S. 18).

Diese Art von Transparenz halte ich für wichtig, wenn wir als Nutzer*innen nicht nur Konsument*innen sein wollen, sondern weiter selbstbestimmt handeln. Und ja, das ist mit Arbeit verbunden, sowohl für Entwickler*innen als auch für Nutzer*innen:

Nutzer∗innen haben gewissermaßen eine Holschuld, indem sie bereit sein müssen, grundlegende Funktionsprinzipien von Software verstehen zu lernen. Anstatt mal indifferent, mitunter staunend, oft fluchend vor den Ausgaben eines Programms zu sitzen, sollten sie eine Vorstellung davon entwickeln wollen, was das Programm gerade für sie tut. Auf der anderen Seite haben Entwickler∗innen eine Bringschuld, indem sie Software so gestalten, dass Nutzer∗innen sie verstehen können(Hervorh. M.D., S. 19).

Ist Techniktransparenz elitär?

Aber das sehen nicht alle so. Der Nutzer „Zwart“ kommentierte unter Löschners Artikel:Elitärer Bullshit. Dass der Betrieb von PC immer einfacher wird und immer mehr Menschen dazu befähigt, das Potential zu nutzen, ist eine gute Entwicklung.“ (Hervorh. M.D.; Tippfehler habe ich im Zitat korrigiert). Auf den ersten Blick könnte man Löschners Artikel tatsächlich so sehen. Schreibt da nicht nur jemand, den es nervt, dass sein eigenes Expertentum heute nicht mehr gebraucht wird, weil heute eben jede*r einen Computer benutzen kann?

Aber der Kommentar übersieht den Kerngedanken des Artikels: Die Leute sollen heute gar nicht mehr tun wollen, was abseits schicker Oberflächen eigentlich möglich wäre. Je abgeschlossener und „glatter“ Technik wird und je weniger echte Einblick- und Eingriffsmöglichkeiten sie bietet, desto weniger wissen Menschen, welches Potenzial da eigentlich vorhanden wäre. Genau dadurch entsteht dann erst das Elitäre. Sie kommen auch gar nicht auf die Idee.

Meine Frau, die Lehrerin an einer berufsbildenden Schule ist, hat mir neulich erzählt, dass ein u.a. Technik unterrichtender Kollege festgestellt hat, dass Schüler*innen heute gar nicht mehr auf die Idee kommen, technische Geräte einfach mal auseinander zu nehmen und nachzugucken, wie die innen drin aufgebaut sind. Klar – wieso sollten sie auch? Technik lädt ja nicht mehr dazu ein. Smartphones und Tablets sind meistens verklebt, keine Schrauben oder große Lüftungsschlitze trüben das Bild. Nichtmal Akkus lassen sich wechseln.

Techno-Schamanismus?

Also ist die Technik halt da, und sie ist, wie sie ist. Georg Löschner schreibt in seinem Artikel:

„Wir beten den Rechner an, weil er läuft, ohne dass wir darüber nachdenken müssen, warum. Und wie bei jeder göttlichen Anhimmelung inklusive Selbstaufgabe stehen wir dumm da, wenn dann mal irgendwas nicht funktioniert. Denn heutzutage wird das Suchen nach dem Fehler hinter schicken ‚Ich helfe Dir! (kurz nach Hause telemetrieren, brb)‘-Mitteillungen versteckt, aber mangels Wissen, was da wo rödelt … denkt euch euern Teil.“

Die religiöse Metapher ist nicht neu, aber immer noch treffend. Schon Anfang der 1990er gab es dahingehend in einem Usenet-Posting eine dystopische „Vision“: Irgendwann wäre Software so verbreitet und verschlossen, dass wir sie nur noch wie eine Naturgewalt wahrnehmen. Nur sogenannte Techno-Schaman*innen wären in der Lage, sie im Auftrag ihres Stammes zu beherrschen. Sie wissen zwar nicht mehr, warum bestimmte Handlungen funktionieren (das hat die Gesellschaft insgesamt längst vergessen), aber zumindest, dass sie funktionieren, was für den Alltag der neuen Stammesgesellschaft ausreicht.

Unterscheiden lernen

Auch der Soziologe Niklas Luhmann sprach von Technik als Umwelt und als „zweiter Natur“, aber ganz so düster wie in o.g. Vision hat Luhmann das meines Wissens nicht ausgemalt. Technik war für Luhmann Umwelt von Gesellschaft, aber für seine eigenen Analysen noch nicht im Zentrum. Luhmann-Schüler Dirk Baecker hat das Thema seit den 2000ern dankbar aufgegriffen und theoretisch erarbeitet, wie sich Kommunikation in der „Computergesellschaft“ verändert.

In meiner Dissertation (ein kostenloses Druckexemplar schicke ich auf Anfrage gerne zu … ehrlich, die müssen weg) habe ich vor ein paar Jahren Baeckers „Formen der Kommunikation“ (2004) angewendet, um Nutzer*innen bei der Computernutzung zu beobachten und ihr Handeln besser zu verstehen. Ich habe also aufgezeichnet, was sie tun und das dann interpretiert. Systemtheoretisch ausgedrückt: Ich habe das Treffen von Unterscheidungen von Nutzer*innen-Systemen beobachtet, d.h. wie sie mit Selektionen bestimmte Elemente der Nutzungssituation vor dem Hintergrund der Situation unterschieden und damit andere Möglichkeiten ausschließen.

(Das klingt komplizierter, als es ist, darum hab ich ja auch später das oben erwähnte andere Buch geschrieben 😉 ).

Im Fazit der Arbeit schrieb ich jedenfalls:

„es [ist] nicht ausreichend, den Umgang mit Strukturen der Software zu ‚erlernen‘ oder möglichst effiziente Modelle von Nutzerhandeln zu entwickeln. Erfolgreiche Nutzung benötigt die immer wieder neue Erschließung der Software im jeweiligen Einsatzkontext. Immer wieder muss während der Nutzung erkannt werden, vor welchen Hintergründen die Nutzung weitergehen kann – grundsätzlich, und im Falle von Problemen ganz besonders. Das verlangt, sich (a) zu orientieren über die Möglichkeiten; (b) die Möglichkeiten auf ihre Eignung zum je aktuellen Zeitpunkt zu prüfen; und (c) sich zu entscheiden für eine Möglichkeit, was neue zu prüfende Möglichkeiten mit sich bringt. […] [Dazu] ist [es] nötig, das hinter der Oberfläche verborgene Funktionsprinzip der Software zu durchschauen. […] Nur wenn hinterfragt wird, was geschieht, wenn eine bestimmte sichtbare Option ausgewählt wird, kann geprüft werden, ob die Option eine geeignete Selektion wäre. (Hervorh. M.D., S. 325f.)

Früher war alles besser?

Der Trend geht freilich in genau die entgegengesetzte Richtung. Technik wird immer glatter und ihre Funktionsweise wird immer mehr versteckt. In den großen Consumer-Systemen Windows und macOS wird man kaum mehr motiviert, hinter die Oberfläche zu blicken, und weil sich Nutzer*innen daran gewöhnen, wird das auch gar nicht mehr hinterfragt oder nachgefragt. Selbstironisch stellt sich Georg Löschner im Autorenkasten seines Artikels als aus der Zeit gefallen dar. Er

„ist ein grummeliger alter Sack. Influencer und das laute Geschrei von Social Media nerven ihn, und dass die jetzt (wahrscheinlich) auch noch das neue Windows zuspammen dürfen, beschert ihm mehr Puls als ein achtfacher Espresso auf nüchternen Magen. Er kommt nämlich noch aus einer Zeit, als Rechner sich so zurechtpfriemeln ließen, wie man das gerne hätte.“

War also früher alles besser? Nein, natürlich nicht. Früher war es eine Grundvoraussetzung, zu wissen, wie ein Computer im Innern funktioniert, um ihn zu benutzen. Das war gesellschaftlich nicht gut, weil es viele Leute ausschloss.

Aber heute haben wir das andere Extrem – durch die einfachen, funktional einschränkenden Oberflächen sind Computer zwar so verbreitet wie noch nie. Aber sie sind jetzt so „einfach“, dass man gar nicht mehr auf die Idee kommt, hinter die Oberfläche zu blicken und oft nicht hinterfragt, ob das, was einem da vorgesetzt wird, wirklich wünschenswert ist.

Auch heute sind Expert*innen die einzigen, die das können; das ist nicht anders als früher. Und nach wie vor sorgt das nicht nur für Stress und Frustration, sondern – und das ist eben das Neue – für große Unklarheit darüber, was ein Computer eigentlich gerade mit unseren Daten tut. Die Hürde, das zu kontrollieren, ist hoch, und die einzige echte Wahl besteht heute nur noch darin, abzuschalten, sich mit alternatien Systemen wie Linux anzufreunden (was aber, wenn es kontrolliert sein soll, Wissen voraussetzt, das man aus genannten Gründen heute nicht mehr voraussetzen kann, also wiederum in Abhängigkeit von Expert*innen drängt) oder einfach mitzumachen in der schönen glatten durchdesignten Welt.


(Titelbild: sdx15 / shutterstock.com)

Lesetipp zum Verstehen von Komplexität: Tobias Moebert zur Wahrnehmung von Mensch-Technik-Interaktionen

Forderungen an Entwickler*innen, Technik transparent zu gestalten, sowie Forderungen an Nutzer*innen, sich aktiv um ein Verständnis von Technik zu bemühen, sind zwei Seiten einer Medaille: Es geht um Handlungsfähigkeit in einer technisierten Welt. Statt jede neue Technologie (bzw. deren konkrete Ausprägung als technisches Werkzeug) immer naiv zu begrüßen oder Technik gleich grundsätzlich abzulehnen, geht es um einen reflektierten Umgang, der Vor- und Nachteile bewusst erkennt, abwägt und entsprechende Handlungsoptionen identifiziert. Das ist gerade in unserer heutigen Gesellschaft wichtig, in der es immer mehr technische Systeme gibt, die unseren Alltag auf vielfältige Weise prägen, die aber uneinsehbar erscheinen, etwa Systeme maschinellen Lernens bzw. Künstlicher Intelligenz oder erste Ansätze zum Transhumanismus.

Der vom Soziologen Niklas Luhmann gern genutzte Begriff der Blackbox, des uneinsehbaren schwarzen Kastens, ist eine bequeme Metapher, um ein grundlegendes Wahrnehmungsproblem von Technik zu bezeichnen: Wir können als bloße Nutzer*innen nicht einfach in die internen Abläufe eines Computers reinschauen. Wir können auch die Wechselwirkung technischer Systeme mit ihrer Umwelt nicht immer einfach erkennen. Und selbst Expert*innen sind mitunter von den Ergebnissen maschinellen Lernens überrascht, weil zum Beispiel künstliche neuronale Netze so viele Schichten aufweisen, dass die Funktionsweise des Netzes zwar theoretisch erklärbar, aber das Zustandekommen eines konkreten Ergebnisses nicht mehr herleitbar ist. Es ist eben alles sehr komplex mit (post)moderner Technik.

Es ist kompliziert. Oder?

Aber was genau heißt das überhaupt — Komplexität in Mensch-Technik-Zusammenhängen? Was ist der Unterschied zu Kompliziertheit? Und wie nehmen Entwickler*innen und Nutzer*innen beides wahr? Das ist eine Fragestellung, die an der Schnittstelle von Kommunikationssoziologie und Informatik angesiedelt ist und noch viel zu wenig bearbeitet wird.

Sie deutet sich an in der bekannten Arbeit der amerikanischen Anthropologin Lucy Suchman, die in „Plans and Situated Actions“ in den 1980ern ethnomethodologisch untersucht hat, wie Menschen mit Kopiergeräten umgehen. Suchman hatte das konkrete Handeln der Nutzer*innen beobachtet und analysiert und so einige Grundkonzepte menschlicher Erwartungen an Technik aufgedeckt. Insbesondere die „What’s next?“-Erwartung ist da zentral — wir neigen dazu, eine Ausgabe einer Maschine sinnhaft zu interpretieren und daraus den nächsten möglichen Handlungsschritt abzuleiten.

Wir fragen uns also „Wie geht es weiter?“ um die Nutzung aufrechtzuerhalten, ganz ähnlich wie wir auch in menschlicher Kommunikation davon ausgehen, dass unsere Partner*innen etwa entsprechend des Grice’schen Kooperationsprinzips agieren und wir deren Äußerungen sinnhaft einordnen. Problematisch wird es, wenn wir da ‚auf dem Holzweg‘ sind (Suchman nennt das „garden path“), wir also entweder eine falsche Erwartung haben oder wir glauben, wir hätten etwas falsch gemacht, obwohl wir das gar nicht haben. Solche Missverständnisse entstehen, wenn die Maschine nicht transparent und verstehbar kommuniziert, wie ihre Situationsdefinition gerade aussieht.

Doch technische Systeme sind keine Menschen und die Grundannahmen ihrer Entwickler*innen liegen selten offen. Wieso reagiert der Computer nicht auf meinen Mausklick? Wieso druckt der Drucker nicht? Und „was macht er denn jetzt schon wieder?“ — der Legende nach eine häufige Frage von Airbus-Pilot*innen, wenn der Bordcomputer des Flugzeugs wieder mal was anderes tut, als man erwartet. Wir nehmen also an, dass das System auf unsere Eingabe hin etwas Bestimmtes tut, aber dann macht es doch etwas anderes oder gleich gar nichts.

Durch die enttäuschte Erwartung kann die Nutzungssituation kompliziert, komplex, sogar chaotisch erscheinen. Das führt zum Erleben von Ungewissheit, die die fortgesetzte Nutzung gefährdet und sich nebenbei auch phänomenologisch zeigen sowie psychische Auswirkungen haben kann. Diese Beobachtung sowie deren Einbettung in aktuelle soziologische Annahmen zur Unsicherheit der Gesellschaft — ob wir sie nun mit Dirk Baecker als Computergesellschaft, mit Ulrich Beck als Risikogesellschaft oder mit Andreas Reckwitz als Gesellschaft der Singularitäten bezeichnen — war vor einigen Jahren die Grundannahme meiner eigenen Disseration zur Softwarenutzung (gibt’s auf Nachfrage aus kostenlos von mir); Ungewissheit der Softwarenutzung liegt auch meinem 2020 erschienenen Fachbuch zugrunde. In beiden Büchern plädiere ich für die direkte Beobachtung von Nutzungssituationen, um die Merkmale der Situationen außerhalb des Labors herauszuarbeiten — und die Schwierigkeiten beim Umgang mit konkreter Technik.

Wie ‚es weitergeht‘ war für Lucy Suchman eine entscheidende Frage, die wir uns als Technik-Nutzer*innen bei jedem Nutzungsschritt beantworten müssen. Daran hat sich bis heute nichts geändert. Die dabei entstehende Komplexität wird nun durch eine Arbeit von Tobias Moebert (Universität Potsdam) untersucht. (Bild: Razmik Badalyan / Pixabay.com)

Doch was Kompliziertheit und Komplexität in diesem Zusammenhang eigentlich sind, war trotz bestehender Arbeiten bisher ein Desiderat. Natürlich gibt es unterschiedliche Definitionen dieser Begriffe, doch wie beides beim ganz konkreten Umgang mit Technik wahrgenommen wird und sich auf die Nutzungssituation aus Sicht der Betroffenen auswirkt, ließ sich bislang nur indirekt aus früheren Ergebnissen ableiten. Umso positiver, dass an der Universität Potsdam am Institut für Informatik und Computational Science nun eine Dissertation zum Thema erschienen ist, die genau in diese Lücke vordringt.

Tobias Moebert: Zum Einfluss von Adaptivität auf die Wahrnehmung von Komplexität in der Mensch-Technik-Interaktion

Der Informatiker Tobias Moebert hat im März 2021 seine Arbeit „Zum Einfluss von Adaptivität auf die Wahrnehmung von Komplexität in der Mensch-Technik-Interaktion. Dargestellt am Beispiel Bildungstechnologie“ vorgelegt (Download als PDF über den Publikationsserver der Uni Potsdam). Moebert entwickelt darin „ein Werkzeug“, um zu untersuchen, wie Menschen Komplexität der Techniknutzung wahrnehmen und so auch den Begriff für seinen Anwendungsbereich näher einzugrenzen. Wer aber bei einer Informatik-Dissertation unter „Werkzeug“ nur ein weiteres Computerprogramm oder ein weiteres, in einer Techniker*innenblase entstandenes Vorgehensmodell erwartet, oder auch eine bloße Studie zur Benutzbarkeit eines Produkts (Usability), wird positiv überrascht. Denn Moebert hat sich intensiv mit soziologischen und sozialwissenschaftlichen Perspektiven auf Komplexität und Techniknutzung auseinandergesetzt. Konkret fragt der Autor:

„Wie nehmen Menschen Komplexität wahr? Welche Ursachen hat die Wahrnehmung von Komplexität? Welche Folgen hat die Konfrontation mit Komplexität?“ (S. 164)

Zur Beantwortung der Fragen wurden Leitfadeninterviews mit Studierenden und Wissenschaftler*innen aus Informatik, Soziologie und Psychologie durchgeführt und die erhaltenen Aussagen anschließend inhaltsanalytisch (nach Mayring) interpretiert. Die befragten Personen waren allesamt mit zwei beispielhaft untersuchten Softwarewerkzeugen aus dem Bildungsbereich befasst — Software, deren Einsatz zu genau den erwähnten komplexen, mithin ungewissen, Nutzungssituationen führen kann, zumal sich diese Software auch wechselnden Nutzungskontexten anpassen sollte (Adaptivität).

Theoriegeleiteter Ausgangspunkt der Untersuchung war, dass komplexe Situationen dynamisch sind und dass die der Situation zugrundeliegenden Ursache-Wirkungs-Beziehungen und die Handlungsfolgen der Nutzer*innen unvorhersehbar sind. Dies lässt sich durch mehrere Indikatoren ausdrücken, etwa die Wahrnehmung einer Software als „kontraintuitiv“ (Ursache/Wirkung ist nicht allein durch Intuition erfassbar und steht oft im Widerspruch zu unseren Erwartungen, S. 27) oder als „interventionsbeständig“ (weil ein System komplexer ist als unsere Fähigkeit, es zu verstehen, scheitern Eingriffe in das System oder führen zu unerwarteten Folgen, ebd.). In der Inhaltsanalyse zeigte sich nun, dass insbesondere das Merkmal der Kontraintuitivität in allen untersuchten Beispielen auftrat.

Das Problem der Intransparenz

Interessant ist in diesem Zusammenhang der Verweis auf die Wahrnehmung von Intransparenz:

„Diese Kontraintuitivität war in der Regel darauf zurückzuführen, dass den Beteiligten entscheidendes Wissen über die zugrundeliegenden Zusammenhänge der Situation gefehlt haben. Entweder war dieses Wissen generell nicht verfügbar oder durch die Intransparenz des Systems versteckt. [Hervorh. M.D.] Als Folge konnten die Beteiligten […] oft nicht richtig intuitiv beziehungsweise zielführend handeln und es war zu erwarten, dass unerwartete Handlungsfolgen auftreten würden“ (S. 165).

Gerade der Versuch, die Software als kontextsensitiv (adaptiv) zu gestalten, führte zu Transparenzproblemen:

„Auch wenn in beiden Anwendungen grundsätzliche Bemühungen vorgenommen wurden, um die basale Funktionsweise des Adaptierungsmechanismus sichtbar zu machen, bleiben viele konkrete Details jedoch im Verborgenen (z. B. Auswahl von Lehrinhalten, getroffene Annahmen etc.)“ (S. 166)

Dies führte nach Moebert zu einem für Nutzer*innen „unerreichbare[n] Detailwissen […], das lediglich dem Konstruktionskonsortium“, sprich: den Entwickler*innen bekannt war (ebd.). Genau das ist das Problem, das bei der meist üblichen intransparenten Technik häufig der Fall ist: Wir verstehen sie nicht, wir können ihre Entscheidungen nicht nachvollzuziehen, gerade wenn die Technik Fehlverhalten zeigt:

„Als Folge haben es die Nutzenden zuweilen schwer, die Adaptierungen nachzuvollziehen. Dies trifft ganz besonders dann zu, wenn Kontexterfassung und/oder Adaptierung fehlerhaft funktionieren“ (ebd.).

Moeberts Untersuchung deckte noch einige weitere typische Problemfelder auf, die sich in anderen Untersuchungen andeuteten, aber bisher, soweit mir bekannt, zumindest nicht in dieser Stringenz empirisch untersucht wurden.

Der Autor bietet im Anschluss Orientierungspunkte für Entwickler*innen, unter anderem, um intransparentes Systemverhalten zu verbessern. Moebert empfiehlt, „zwar weiterhin die komplizierten internen Mechanismen [einer adaptiven Software] außen vor zu lassen, aber Nutzenden die Möglichkeit zu geben, adaptive Entscheidungen nachzuvollziehen“ (S. 173).

Das heißt konkret, man muss als Nutzer*in nicht im Detail die Algorithmen und Modelle offengelegt bekommen, nach denen eine Software sich an einen Kontext anpasst (und wir könnten verallgemeinern: nach denen eine Software Entscheidungen trifft und Ergebnisse ermittelt). Aber die Software kann all dies durchaus in Alltagssprache verdeutlichen, und zwar nicht versteckt in der Dokumentation, sondern an der Stelle während der Nutzung, an der ein entsprechender Hinweis auch relevant ist. In dem Zusammenhang dürfte auch Moeberts Empfehlung, „die Offenheit und Ungewissheit menschlicher Lebenserfahrungen“ (S. 169) stärker zu berücksichtigen, von Bedeutung sein.

Fazit: Nicht nur für Informatiker*innen

Die Stoßrichtung von Moeberts Untersuchung und seiner abgeleiteten Empfehlungen ist unbedingt zu unterstützen und sollte weiter ausgebaut werden. Dass ich Technik-Transparenz als gesellschaftliches Ideal ansehe, habe ich erst kürzlich wieder betont. Für das Feld der KI-Forschung kennen wir die Richtung der Explainable Artificial Intelligence. Doch auch nicht-KI-basierte Technik kann komplex sein und bedarf entsprechender transparenter Unterstützung für ihre Nutzer*innen. Dies ist etwas anderes als früher übliche Forschungen zu Usability (Benutzbarkeit) und User Experience (Benutzererfahrung). Es geht um Erklärbarkeit des Handelns mit Technik in einer Situation. Hier ist noch viel zu tun, und Moeberts Arbeit ist ein wichtiges Puzzlestück dazu.

Verwandte offene Fragen sind, welche Rolle „Trivialisierungsexperten“ wie Handbuch-Autor*innen, Technik-Journalist*innen, technikbezogene Influencer*innen, die Werbung oder der technische Kundendienst in dem Kontext spielen. All diese Instanzen können Transparenz entweder fördern oder aber Komplexität bloß verschleiern. Auch eine phänomenologische Perspektive auf die Wahrnehmung von Techniknutzung ist noch ein Desiderat.

Abschließend ein Hinweis. Wie erwähnt, handelt es sich um eine Dissertation und damit eine wissenschaftliche Qualifikationsarbeit im Fach Informatik; entsprechend formal ist der Stil. Doch davon sollte sich niemand, die*der am Thema interessiert ist, abschrecken lassen. Der Text ist durchgehend gut lesbar und technisch wird es vor allem bei der Beschreibung der Fallbeispiele. Für Nicht-Techniker*innen mögen diese Kapitel etwas ermüdend sein, aber sie sind nötig, weil sie der Hintergrund sind, vor dem sich die empirischen Ergebnisse der Inhaltsanalyse erst abheben, also verstehbar werden. Und einen letzten Vorteil hat das Format der Dissertation: Die Rohdaten der Interviews (Transkripte) sind vollständig im Anhang vorhanden und ermöglichen so einerseits den direkten Nachvollzug der Ergebnisse und andererseits laden sie geradezu zu weiteren Forschungen ein.


Titelbild: Gerd Altmann / Pixabay.com

Als Technik noch „hart“ war: Die Zukunft von vorgestern (Reisetagebuch Cyberpunk 2077, Teil II)

Ein ausgedehnter Städtetrip, trotz Corona, ganz ohne Maskenpflicht und Abstandsregeln: Seit einer Woche durchstreife ich Night City, den äußerst atmosphärisch umgesetzten Schauplatz des gerade erschienenen Spiels Cyberpunk 2077. Heute: Wie das Spiel uns mit Retrofuturismus an die vermeintlich sicheren 80er Jahre erinnert. (Zu Teil I hier entlang).

Cyberpunk ist ein — heute eher anachronistisches — Subgenre der Science Fiction. Die Hauptwerke des Genres entstanden in den 1980ern. Sie dachten Technik weiter, die damals gerade entstand oder sich durchzusetzen begann. Dadurch erscheint die gezeigte Technik heute oft retrofuturistisch — in der Funktion futuristisch, in der Form veraltet. Dass Science Fiction irgendwann von der Wirklichkeit überholt wird, ist nicht schlimm, denn Science Fiction ist vor allem Kommentar aus und zu ihrer eigenen Zeit. Sie geht vom Aktuellen aus und denkt es weiter. Dass es in der Realität meist anders kommt, ist zweitrangig, solange ihr Kommentar bleibenden Eindruck hinterlässt.

Computertechnik war in den 1980ern noch sehr von „do it yourself“ geprägt. Während heutige Betriebssysteme und Programme auf einfachste Bedienbarkeit ausgelegt sind (mit mehr oder weniger Erfolg), musste man damals mindestens kryptische Kommandos kennen oder, insbesondere auf Heimcomputern, sogar programmieren können, um etwas mit den Geräten anzufangen. Nur wenig war standardisiert. Das bot Freiraum zum Experimentieren.

Das „do it yourself“-Prinzip war ein Anknüpfungspunkt des Cyberpunk zu seinem Wortbestandteil „punk“. Das Selbermachen, die Unabhängigkeit von vorgeschriebenen Konventionen, war für den Punk als Bewegung von großer Bedeutung, und Anklänge darin finden sich im Cyberpunk, wenn Hacker-Underdogs, am Rande der Gesellschaft lebend, die Sicherheitssysteme zwielichtiger Großkonzerne überwinden oder wenn nicht zertifizierte „Kliniken“ Menschen um technische Implantate erweitern – im Spiel Cyberpunk 2077 suchen wir diese „Ripperdocs“ auf, um unserer Spielfigur mittels Technik bessere Fähigkeiten zu verleihen, die für die Aufträge des Spiels nützlich sind.

Die Leistungen jener Technik sind Science Fiction. Echte Gehirnchips sind heute bestenfalls im Entwicklungsstadium, Virtual Reality wird mittels des alten Prinzips der Stereoskopie erreicht und Hacker sehen den Cyberspace nicht im Wortsinne räumlich vor sich, sondern sitzen auch bloß vor Tastatur und Bildschirm. Anders im Cyberpunk: Regelmäßig werden die kognitiven und körperlichen Fähigkeiten durch Implantate erweitert, Virtual Reality wird direkt im Geist wahrgenommen und der Cyberspace, in dem Firmennetzwerke gehackt werden, ist ein Teil dieser „Realität“.

Doch die Form der Technik wirkt im Cyberpunk oft haptischer als unsere heutige Computer- und Netzwerktechnik es ist. Heutige Technik ist zunehmend von Mobilfunk, WLAN und Bluetooth geprägt, Tastaturen werden virtuell auf Touchscreens eingeblendet und Daten werden in irgendwelche Clouds ausgelagert. Dadurch erscheint die Technik vielen Menschen seltsam ungreifbar. Entsprechende Zusammenhänge wirken sehr abstrakt und kaum nachvollziehbar. Also benutzt man die Systeme einfach und hofft, dass alles gut geht. Man könnte auch sagen: die Technik ist unfassbar, sowohl im wörtlichen wie übertragenen Sinn.

In Szenarien wie Cyberpunk 2077 hingegen sieht man vielerorts dicke Kabelstränge, aus der Hand zieht man sich Netzwerkkabel, und USB-Stick-ähnliche Datenmodule („Splitter“) verbindet man mit einer Schnittstelle im eigenen Kopf. Der Begriff der Hardware behält so seine Berechtigung. Sie ist sichtbar, anfassbar, und dadurch verspricht sie Kontrollierbarkeit. Da ist etwas Konkretes, mit dem man arbeiten kann, wie früher in den Achtzigern. Das suggeriert eine gewisse Sicherheit: Stecker ziehen und alles ist gut. Natürlich stimmt das nicht. Wie damals wird das Versprechen der Kontrollierbarkeit komplexer Technik nur für diejenigen eingelöst, die sich damit bewusst auseinandersetzen wollen, und das will natürlich kaum jemand. Es soll einfach funktionieren. Gut so für die Hacker*innen, die als Expert*innen für Computertechnik von entsprechenden Aufträgen leben.

Die Nutzung und Zweckentfremdung der Technik geschieht im Cyberpunk vor einem dystopischen, turbokapitalistischen Hintergrund, bei dem Regierungen (wenn es sie noch gibt) nicht mehr funktionieren und durch Konzernherrschaft ersetzt wurden. Auch im Spiel Cyberpunk 2077 stehen sich mehrere Konzerne feindselig und gewalttätig gegenüber. Die Bewohner*innen der Welt werden bestenfalls in Ruhe gelassen, schlimmstenfalls zwischen den Konzernen aufgerieben. Die (Anti)helden des Cyberpunk richten sich zwar gegen die Konzerne, sie sind aber keine Revolutionäre, die das System dauerhaft zum Besseren verändern. Es geht eher gegen die schlimmsten Auswüchse, ansonsten aber um das Streben nach persönlichem Wohlstand und manchmal auch um Rache — überhaupt durchziehen solche eher maskulinen Prinzipien Cyberpunk-Welten, selbst wenn die Protagonist*innen keine Männer sind. Dazu mehr im nächsten Teil: Die maskuline Zukunft von Cyberpunk 2077.

1 Jahr Über/Strom – 100 Beiträge zwischen Mensch und Technik

„Über/Strom: Wegweiser durchs digitale Zeitalter“: Im Mai 2020 ist unsere kleine Online-Zeitschrift ein Jahr alt geworden und gestern wurde der 100. Artikel veröffentlicht. In unserer Zielsetzung schrieben wir vor einem Jahr:

„Die Digitalisierung verändert unsere Gesellschaft – das ist nicht bloß eine Behauptung von Wissenschaft und Medien, sondern wir alle erleben das jeden Tag. Die Welt scheint in rasendem Tempo zu drehen, und wir sind mittendrin in diesem Flirren. Aber wo genau?“

Diese Website und unsere Buchreihe, deren erster Band ebenfalls 2020 erschienen ist,

„sollen Wege durch das Dickicht der ständig neuen technologischen Entwicklungen gefunden werden, um souverän und selbstbestimmt durchs Leben zu gehen – ohne sich durch die digital entstandene neue Komplexität der Welt aus der Ruhe bringen zu lassen.“

Einige unserer Artikel sind eher typische Blogbeiträge, andere haben eher einen feuilletonistischen Charakter. Einige sind theoretischer, andere sollen praktische Tipps geben. Daneben gibt es immer mal wieder Interviews mit interessanten Personen. Im Folgenden möchte ich einige Artikel noch einmal besonders hervorheben.

Eine Auswahl interessanter Artikel

Gesellschaft / Medien / Kommunikation

Leben mit Technik

Umwelt und Nachhaltigkeit

Leben und Corona

Bücher und Filme

Neben den hier aufgeführten Artikeln gibt es noch eine ganze Menge mehr — über das Kategorien-Menü, das Archiv auf der rechten Seite und die Schlagwort-Wolke kann man sie durchstöbern.

„Wir müssen uns alle fragen, was wir zur Welt beitragen“ Interview mit Zach Barth & Matthew Burns über Eliza & Co.

Vor kurzem habe ich Zachtronics‘ Visual Novel Eliza vorgestellt, in der wir der Protagonistin Evelyn dabei helfen, sich zur Entwicklung neuer KI-Systeme zu verhalten. Vor Eliza waren Zachtronics vor allem für komplexe Puzzle-Spiele mit IT-Thematik bekannt — in Titeln wie EXAPUNKS, SHENZHEN I/O oder TIS-100 schreiben wir kurze Programme im Assembler-Stil, um Rätsel zu lösen — ein spielerischer Zugang zu Code Literacy, der gleichzeitig tolle Erfolgerlebnisse erzeugt. Die Entwickler Zach Barth und Matthew S. Burns haben mir dazu per E-Mail einige Fragen beantwortet.

Könnt ihr zuerst bitte kurz etwas zu Zachtronics sagen — könnt Ihr vom Spiele entwickeln leben?

Zach Barth (links), Matthew S. Burns (rechts) / Bild: Wikipedia

Zach: Momentan arbeiten fünf Leute bei Zachtronics, obwohl sich das über die Jahre immer mal wieder verändert hat, seit wir 2011 angefangen haben. Spiele zu entwickeln ist für uns alle ein Vollzeitjob.

Viele Zachtronics-Spiele rufen eine ziemlich atmosphärische, fiktionale Computernostalgie hervor — zum Beispiel die Assembler-artigen Puzzles im 1970er-Jahre-Stil in TIS-100; die 1990er-Cyberpunk-Atmosphäre in EXAPUNKS; sogar die Referenzen zu Weizenbaums originalem ELIZA in Eliza. Habt ihr einen beruflichen Hintergrund, der bis in diese frühen Jahre der Computertechnik zurückreicht?

Zach: Nein, definitiv nicht. Die meisten von uns sind mit Computern in den 1980ern und 1990ern aufgewachsen und interessieren sich für die Geschichte von Computern und für Grafikdesign. Das sind die Hauptzutaten für ein Spiel wie SHENZHEN I/O oder EXAPUNKS. Ich vermute, da ist wohl viel falsch platzierte Nostalgie dabei.

In EXAPUNKS (hier noch ein Einführungspuzzle) schreiben wir Programme (links), damit unsere kleinen roboterartigen Exas in Computersysteme eindringen und dort diverse, meist illegale Manipulationen vornehmen (rechts)

TIS-100, SHENZHEN I/O und EXAPUNKS ermöglichen den Computer-Nerds in uns, rein zum Spaß Programmieraufgaben zu lösen — wir lösen die Probleme nicht für einen Job, sondern einfach, weil es Freude bereitet. Das erinnert mich an meine Teenagerzeit. Eure Spiele bringen diese Atmosphäre zurück. Dazu trägt auch die Dokumentation der Spiele bei — wie das TIS-100-Handbuch oder die Hacking-Fanzines von EXAPUNKS. Anders als bei vielen anderen heutigen Spielen muss man diese Dokumente wirklich lesen, ansonsten wäre man nicht in der Lage, die Spiele zu gewinnen. Habt ihr eine persönliche Vorliebe für diesen alten, haptischen Stil von Computertechnik, wo man sich in Bücher versenkt, Quellcode ausdruckt, richtige Tastaturen benutzt, usw.?

Zach: Physische Sachen machen Spaß, aber vielleicht ist Spaß nicht genug, um der Grund zu sein. Wir haben das TIS-100-Handbuch geschrieben, weil es angemessener und interessanter war als ein Schritt-für-Schritt-Tutorial im Spiel selbst.

Ich denke auch, dass es für Spieler*innen so einfacher als Referenz zu nutzen ist; egal, ob man sich es ausdruckt oder als PDF anschaut, es geht schneller, zwischen Spiel und Dokumentation zu wechseln als zwischen Tutorial und richtigen Puzzles im Spiel.

Nachdem wir dieses Konzept etabliert hatten, hatten wir damit noch mehr Spaß in SHENZHEN I/O und EXAPUNKS, und weiteten dabei auch seine Nutzung als erzählerisches Mittel aus.

EXAPUNKS bringt Untergrund-Hacker-Magazine mit, die gleichzeitig als Spielanleitung dienen. In ihnen erlernen wir die Programmiersprache, die wir benötigen, um die Puzzles im Spiel erfolgreich zu lösen. Aber auch die fiktionale Werbung der Fantasie-1990er ist cool.

Die meisten eurer Spiele sind Puzzlespiele. Sehr tiefgehende Puzzlespiele. Wahrscheinlich sogar dazu geeignet, zu lernen, wie Computer im Inneren funktionieren. Ich habe bemerkt, dass ihr eure Spiele für Schulen und Bildungseinrichtungen kostenlos anbietet. Nutzen Lehrer*innen sie im Informatikunterricht? Wie reagieren Schüler*innen auf die Spiele?

Zach: In den letzten anderthalb Jahren haben wir Spiele im Wert von fast 350.000 US-Dollar an Schulen verschenkt, obwohl das nur der Preis der Spiele selbst ist und offensichtlich mehr als jede Schule tatsächlich bezahlt hätte.

Ich habe nicht von vielen Lehrer*innen gehört, also vermute ich, dass die Spiele nur ab und zu als Auflockerung für die Schüler*innen eingesetzt werden, falls sie überhaupt verwendet werden. Trotzdem ist es es wert … Schulen müssen Geld für viele weit wichtigere Dinge als uns bezahlen.

In TIS-100 schreibt man beschädigte Programmteile neu, um den gleichnamigen, fiktiven Computer zu reparieren und seine Geheimnisse zu entlocken — TIS steht für Tesselated Intelligence System …

Aus eurem Portfolio sticht Eliza hervor. Das ist kein Puzzle, sondern eine Visual Novel, und dadurch erscheint das Spiel wie ein Kommentar zu euren anderen Spielen. Ein Spiel wie EXAPUNKS erzeugt den Eindruck: „Wow, Computer sind cool. Sowas will ich machen!“ Zwar erzeugt auch Eliza teilweise diese Faszination (zum Beispiel, wenn es um Rainers Ambitionen geht, die schwache Machine-Learning-KI auszubauen). Aber Eliza erzeugt auch Zweifel — das ist eine sehr starke Seite des Spiels. Es bietet durch seine Charaktere die Chance zum Perspektivwechsel und lässt uns damit nachdenklich zurück: Wohin wird uns all die Technologie führen? Wollen wir dabei eine aktive Rolle spielen oder verschließen wir lieber unsere Augen davor? Matthew, du bist der Hauptentwickler von Eliza. Beschäftigst du dich mit solchen Fragen auch anderweitg?

Matthew: Ich denke über diese Themen viel nach, teilweise weil ich in Seattle lebe und es dort eine Menge Leute von Amazon, Microsoft, Facebook und Google gibt. In den letzten zehn Jahren habe ich beobachtet, wie diese Firmen die Stadt dramatisch verändert haben, allein mit ihrer Präsenz. Wenn ich nur die Straße entlang gehe, kann ich nicht anders als zu denken, wofür ist das alles gut? Wohin führt es uns?

Außerdem arbeite ich in der Spielebranche, was ähnliche Fragen aufwirft. In den früheren Jahren meiner Karriere habe ich an teuren, gewalttätigen First Person Shootern gearbeitet. Nach einer Weile begann ich mich zu fragen, ob ich wirklich so eine Art von Ding auf die Welt bringen wollte. Irgendwann habe ich entschieden, dass ich mich mit einer anderen Art von Spielen besser fühle, selbst wenn sich davon nicht so viele Exemplare verkaufen. Auf eine Art, egal ob wir in der Technologiebranche arbeiten oder nicht, müssen wir alle diese Entscheidung treffen — was wir zur Welt beitragen.

In Eliza hören wir uns die Probleme ziemlich vieler Leute an.

Kannst du ein paar Titel nennen, an denen du beteiligt warst? Sind zum Beispiel die Szenen in deiner Interactive Fiction The Writer Will Do Something von diesen Erfahrungen inspiriert?

Matthew: Ich habe bei Treyarch, Bungie und 343 Industries an den Serien Call of Duty, Halo und Destiny gearbeitet, aber nicht in einer kreativen, sondern einer produzierenden Rolle. Das Spiel The Writer Will Do Something könnte davon beeinflusst sein, genauso wie von den Erfahrungen seines Co-Autors, Tom Bissell, der unter anderem an den Battlefield-, Gears of War- und Uncharted-Franchises gearbeitet hat, neben vielen anderen.

The Writer Will Do Something gehört zum Genre der Interactive Fiction, wo wir eine Geschichte lesen und an bestimmten Punkten Entscheidungen über den Fortgang der Geschichte treffen. Spielmechanisch hat Eliza als Visual Novel einige Ähnlichkeiten mit Interactive Fiction. Auf den ersten Blick könnte diese Form wie das Gegenteil zu Zachtronics anderen, sehr interaktiven Programmier-/Codingspielen erscheinen. Aber nach einer Weile merkt man, dass Eliza perfekt zu eurem Portfolio passt (weil es, wie angedeutet, eine Metaperspektive auf die Thematik einnimmt). Hattet ihr schon länger vor, eine Visual Novel zu schreiben und das war einfach ein passendes Thema, oder habt ihr die Form der Visual Novel speziell für Eliza gewählt, weil sie gut zur Erzählung des Spiels passt?

Matthew: Ich habe zuerst die Idee aufgeschrieben und das Visual-Novel-Format später gewählt. Wie du sagst, es schien der richtige Weg zu sein, die Gefühle der Haupt-Protagonistin wiederzugeben: Evelyn fühlt, wie die Verpflichtungen des Lebens an ihr zerren, ohne dass sie darüber viel Kontrolle ausüben kann. Die Form hat auch gut in den Therapiesitzungen funktioniert, wo man einfach das tut, was einem gesagt wird.

Während des Schreib- und Designprozesses habe ich über mehrere Wege nachgedacht, diese Geschichte zu erzählen, und es wurde deutlich, dass das der beste Weg ist. Visual Novels haben ein sehr etabliertes Format, also konnte ich mir das leicht vorstellen. Ich stellte mir vor, „die Grammatik der Visual Novel zu benutzen“, um meine spezifischen Ideen auszudrücken.

Der insgesamt sehr entspannte Eliza-Soundtrack wurde ebenfalls von Matthew S. Burns geschrieben.

In Eliza wird einiger Aufwand betrieben, um Noras (eine Freundin Evelyns) Faszination für elektronische Musik, Synthesizer, usw. rüberzubringen. Als ich das erste Mal Noras Track in dem Club hörte, konnte ich mit Evelyn mitfühlen — es war ein ziemlich intensiver Track, wie … ich musste an KI denken, die uns überwältigt, symbolisiert durch die elektronischen Beats. Es war auch anders als die Musik im Rest des Spiels, die meistens eine entspannte, fast meditative ‚Beratungsstimmung‘ erzeugt. Wie viel von dir selbst und deiner eigenen musikalischen Erfahrung und Zielen steckt in Nora?

Matthew: Noras Track soll definitiv Noras Charakter widerspiegeln. Ich hatte viel Spaß dabei, ihn zu schreiben, weil das nicht wirklich die Art von Musik ist, die ich für mich selbst mache, aber es war gut, um meinen Grenzen auszutesten. Ich denke, Nora repräsentiert die Art von Freiheit, die möglich ist, wenn du niemandem etwas schuldig bist und die Dinge verfolgen kannst, die du tun willst.

Ich bin ein Liebhaber analoger Synthesizer und habe früher bei einem Hersteller von Musiktechnik gearbeitet, aber meine Ziele unterscheiden sich von denen Noras. Zum Beispiel spiele ich keine Live-Shows, und ich interessiere mich viel mehr für zurückhaltene Ambient-Klanglandschaften.

Als Matthewせいじ veröffentlicht Matthew S. Burns eigene Musik, hier das Album PRISMAL SUBSTANT

Zach, in TIS-100, SHENZHEN I/O und EXAPUNKS kann man auf spielerische Weise lernen, wie ein Computer auf ganz basale Weise funktioniert. Ich finde sowas ziemlich wichtig, um eine „Code Literacy“ (wie Douglas Rushkoff das nannte) zu entwickeln, damit Individuen besser mit einer technologiezentrierten Gesellschaft zurechtkommen. Glaubst du, dass man etwas Ähnliches auch für neuere Konzepte tun könnte, etwa Machine Learning und Quantencomputer? Zum Beispiel ein Spiel, in dem man neuronale Netzwerke erstellen oder modifizieren muss, um ein bestimmtes Ziel zu erreichen, oder wo man Quantenschaltkreise aufbaut?

Zach: Nichts hindert einen daran, ein Spiel über Machine Learning oder Quantencomputer zu machen; für Machine Learning hat das auch schon jemand getan und er scheint damit ziemlich erfolgreich zu sein.

Ich habe mir schon öfter angeschaut, ob in Quantencomputer-Konzepten irgendwo ein Spiel drinsteckt, aber ich habe jedes Mal aufgehört, weil es nicht genug Möglichkeiten für interessante Puzzles gibt. Es ist sehr abstrakt und nicht wirklich vergleichbar zu anderen Formen der Computertechnik.

Ich mache Spiele vor allem, weil sie mich selbst interessieren.

Alles klar, völlig verständlich (und danke für den Hinweis auf das Machine-Learning-Spiel, das kannte ich nicht). Also, letzte Frage: Was kann man als nächstes von Zachtronics erwarten?

Zach: Voraussichtlich diesen Sommer werden wir ein weiteres innovatives Nicht-Puzzlespiel veröffentlichen. Und was dann kommt — wer weiß!

Ich bin gespannt! Danke schön, Zach, Matt, dass ihr euch die Zeit genommen habt, meine Fragen zu beantworten!

SHENZHEN I/O Trailer

Buch: Nutzerverhalten verstehen — Softwarenutzen optimieren: Kommunikationsanalyse bei der Softwareentwicklung

Im Juni 2020 erscheint bei Springer endlich mein Fachbuch über Kommunikationsanalyse bei der Softwareentwicklung — vorab ist bereits die eBook-Version verfügbar (auch für Kindle). Das Buch ist sozusagen der letzte Teil einer Trilogie zu diesem Thema, das mit der Veröffentlichung meiner Dissertation 2016 begann und 2019 als leicht verdauliches Sachbuch „Die Unschuld der Maschinen“ aufbereitet wurde. Mein neues Fachbuch ist nun die praktische Essenz aus meiner damaligen Untersuchungsmethodik.

Hier der Klappentext:

Software muss nicht nur technische Definitionen, Standards und Normen erfüllen, sondern von ihren Benutzern auch entsprechend wahrgenommen werden. Nutzer und Käufer erwarten eine bestimmte Leistung, die zu den eigenen Zielen passen muss und es ist Aufgabe der Softwareentwickler, diese Leistung zu liefern.

Da es hierbei nie eine vollständige Passung geben kann, entsteht ein Kommunikationsproblem – ein Kommunikationsproblem zwischen Menschen, das noch zu selten ernstgenommen wird. Über bekannte Ansätze hinausgehend zeigt das Buch anhand vieler praxisnaher Beispiele ein Verfahren, mit dem Sie Kommunikationsprobleme während der Entwicklung von Software aufdecken und bearbeiten und mit dem Sie auch nach der Veröffentlichung Ihrer Software Möglichkeiten der Optimierung identifizieren können.

Zusätzliche Fragen per App: Laden Sie die Springer Nature Flashcards-App kostenlos herunter und nutzen Sie exklusives Zusatzmaterial, um an weiteren Beispielen zu üben und Ihr Wissen zu prüfen.

Zur Position des Menschen im Über-Strom

Es gibt zwei prinzipielle Weisen, wie wir in der „nächsten Computergesellschaft“ (so nannte ich 2016 in einem Ausblick die Stufe nach der von Dirk Baecker für heute beschriebenen Computergesellschaft oder „nächster Gesellschaft“) oder eben: im Über-Strom leben und zu den technischen Systemen stehen können bzw. wie diese Gesellschaft gestaltet sein kann.

ENTWEDER:

Computer, KI-Systeme usw. werden weiter „zur zweiten Natur“, wie Luhmann für Technik allgemein sagte:

  • der Trend zur Geschlossenheit setzt sich fort, zur scheinbaren (vorgespielten) Einfachheit, zur Unscheinbarkeit, zur Uneinsehbarkeit der black box, zum Versteckspiel.
  • Die Nicht-Trivialität der meisten technischen Systeme wird weiterhin von „Trivialisierungsspezialisten“ (Heinz von Foerster, 1993) verschleiert. Der umgedrehte Transparenzbegriff der Informatik, nach dem oft gerade die Vorgänge als transparent bezeichnet werden, die Nutzer*innen nicht sehen, wird als Ideal angesehen und daher ins Extrem getrieben: Auch die Entwicklung, inkl. Design und Test, neuer Technik findet automatisiert und unsichtbar statt.
  • Die Folge ist ein quasi-schamanistisches Verhältnis einer neuen Stammesgesellschaft zur Technik (wenigstens zur nicht-trivialen Technik), wie es schon Erich Schneider Anfang der 1990er geschildert hat: ein Zugang zu Technik als Naturgewalt, bei der am Ende nur geahnt und geglaubt wird, dass Technik funktioniert, aber nicht gewusst, wie und unter welchen Voraussetzungen sie das tut, und in der Technologie (als technikphilosophisch gemeinte Reflexionsweise zu Technik) keine Rolle mehr spielt.

ODER:

Wir erkennen, dass unsere Mündigkeit als Individuen im Über-Strom davon abhängt, eine echte Transparenz nicht-trivialer Technik immer wieder ein- und herauszufordern, gerade dann, wenn es nicht möglich scheint:

  • Wir entwickeln mehr, nicht weniger Interesse am Wie technischer Leistungen, und wir geben nicht dem Reiz der Trivialisierung nach.
  • Wir opfern Bequemlichkeit für Handlungsfähigkeit.
  • Als Entwickler*innen von Software ermöglichen wir stets Einblicke in die Funktionsweise unserer Produkte und sorgen jederzeit für die Möglichkeit (!) von Transparenz, etwa hinsichtlich der Genese von Berechnungsergebnissen oder der Nachvollziehbarkeit von KI-Entscheidungen.
  • Als Nutzer*innen bilden wir nicht nur technikbezogene Skills aus (als bloße Anwender*innen), sondern verstehen die Forderung nach „Code Literacy“ (Douglas Rushkoff) als umfassenden Bildungsauftrag, der Technik und Technologie vor dem Hintergrund subjektiver Wahrnehmung und Erfahrung sowie der Einbindung des Individuums in die Gesellschaft ernst nimmt.

Es geht letztlich um die Entscheidung zwischen Fremd- und Selbstbestimmung. Es handelt sich um eine Grundsatzentscheidung, der sich jede*r bald stellen muss, wenn sie*r nicht von ‚den Ereignissen‘ kalt erwischt werden will.

7 aus dem Strom: KW22/23

Forschung und Diskussionen zu Digitalisierung, Künstlicher Intelligenz, veränderter Mediennutzung oder neuen technologischen Entwicklungen wirken wie ein endloser Strom mit vielen Abzweigungen. Regelmäßig verlinken wir sieben besonders interessante Neuigkeiten.

Dass Frauen auch zu Beginn der Informatik eine wichtige Rolle spielten, wird glücklicherweise zunehmend bekannter. Das Quanta Magazine berichtet über die Mathematikerinnen und Programmiererinnen Margaret Hamilton und Ellen Fetter, die in den 1960er Jahren für die Programmierung des LGP-30-Computers zuständig waren, mit dem Edward Lorenz die Chaostheorie einläutete. Der Meteorologe und Mathematiker Lorenz modellierte mit dem LGP-30 Wettersysteme. Bekannt ist der sogenannte Schmetterlingseffekt, bei dem eine kleine Veränderung eines Systems eine große, unvorhersehbare Wirkung zeigen kann (wie eben der Flügelschlag, der weit entfernt einen Wirbelsturm auslöst).

Margaret Hamilton, neben Ausdrucken des Quelltextes der Apollo-Software (Bildnachweis: Wikipedia/gemeinfrei)

Hamilton arbeitete später an der Software für das Apollo-Projekt und für die Raumstation Skylab. Fetter widmete sich ihren Kindern; Versuche, später wieder in der Softwareentwicklung Fuß zu fassen, scheiterten offenbar an ihrem Alter: “They went with young, techy guys.” Edward Lorenz dankte beiden Frauen am Ende seiner Veröffentlichungen für ihre Unterstützung; als Co-Autorinnen wurden sie, dem wissenschaftlichen Zeitgeist entsprechend, aber nicht aufgeführt.


Alan Turing, ca. 1938 (Bildnachweis: Wikipedia, gemeinfrei)

In ihrer Serie „Overlooked No More“ bringt die New York Times verspätete Nachrufe über bemerkenswerte Persönlichkeiten, die zu ihren Lebzeiten oder zum Zeitpunkt ihres Todes in der Zeitung „übersehen“ wurden. Im aktuellen Teil geht es um den britischen Mathematiker Alan Turing, der im Zweiten Weltkrieg feindliche Verschlüsselungen knackte und der als Computerpionier gilt. Die Begriffe „Turing-Maschine“ (als theoretisches Modell) und „Turing-Vollständigkeit“ sind fester Teil der Informatik (mehr dazu hier), und der „Turing-Test“ (bei dem es darum geht, ob eine Maschine als Mensch durchgehen könnte) ist auch außerhalb der Informatik bekannt. Aufgrund seiner Homosexualität wurde Turing 1952 angeklagt und hatte die Wahl zwischen einer Haftstrafe oder einer Hormon-Behandlung; er entschied sich für die Behandlung. In der Folge erkrankte Turing an Depressionen. Er starb 1954 offenbar an einem vergifteten Apfel; es wird davon ausgegangen, dass es sich um Suizid in Folge der Anklage, der Hormon-Behandlung und der Depressionen handelte. Im Jahr 2009 entschuldigte sich die britische Regierung posthum, und erst 2013 wurde Turing begnadigt.


Der Standard veröffentlichte ein kurzes, aber interessantes Interview zu KI mit dem Direktor des Tübinger Max-Planck-Instituts für intelligente Systeme, Bernhard Schölkopf.


Auf dem Treffen der G20-Finanzminister in Fukuoka/Japan wurden Regeln zur Entwicklung und Anwendung von Künstlicher Intelligenz beschlossen. Diese Regeln basieren laut Berichten auf den Empfehlungen, die im Mai 2019 von den 36 OECD-Mitgliedern und sechs weiteren Staaten verabschiedet wurden (Pressemitteilung; Download der kompletten Empfehlung als PDF). Darin wird der Mensch in den Mittelpunkt gerückt. Die OECD empfiehlt, „das Prinzip der Rechtsstaatlichkeit, die Menschenrechte und demokratische Werte [zu] achten […], u.a. Freiheit, Würde und Selbstbestimmung, Schutz der Privatsphäre und Datenschutz, Nichtdiskriminierung und Gleichbehandlung, Vielfalt, Fairness, soziale Gerechtigkeit und international anerkannte Arbeitsrechte“. Technische Systeme sollen entsprechende Schutzmaßnahmen beinhalten. Staaten, die der OECD-Empfehlung zustimmen, sollen „im Rahmen eines sozialen Dialogs, Maßnahmen ergreifen, die im Zuge der Einführung von KI eine für Arbeitskräfte faire Umstellung gewährleisten“. Die G20-Mitglieder Russland und China waren an dem OECD-Beschluss nicht beteiligt, scheinen aber im Rahmen der G20 den Empfehlungen nun auch zugestimmt zu haben. Inwieweit das mit insbesondere in China weit fortgeschrittenen Entwicklungen, etwa zum Social Scoring, zusammenpasst, bleibt wohl abzuwarten. (Ursprüngliche Quelle: Spiegel Online)


Auch in Deutschland wird das Recht auf Datenschutz zunehmend in Frage gestellt, zumindest wenn es um den Wunsch staatlicher Behörden geht, auf Daten zuzugreifen. Aktuell wurde über Forderungen berichtet, auf Aufzeichnungen von Sprachassistenten wie Amazons Alexa oder den Google-Assistenten zuzugreifen. In einem umfangreichen Bericht bei ZEIT online rekonstruieren Kai Biermann und Daniel Müller, dass konkrete Pläne dafür wohl (doch (noch)) nicht vorliegen, dass aber der Wunsch durchaus vorhanden ist. Die Autoren weisen darauf hin, dass gerade in letzter Zeit viele kleine Forderungen in verschiedenen Bereichen laut wurden, und sie vermuten, dass damit getestet werden könnte, wie weit die Bürger*innen zu gehen bereit sind.


Verstärkendes Lernen (Reinforcement Learning) ist ein Ansatz im Machine Learning, bei dem ein künstliches System durch den Erhalt von positiven oder negativen Belohnungen die situativ jeweils „beste“ Situation auswählt. Damit soll es in die Lage versetzt werden, wirklich eigenständig auf neue Bedingungen zu reagieren (am Beispiel des Gitarrenspielens wird das recht anschaulich im Statworx-Blog erklärt). Im Google AI-Blog wird nun eine Lernumgebung für verstärkendes Lernen vorgestellt, die sich am Fußballspiel orientiert.

Die Umgebung dient dazu, KI-Ansätze zu testen, die für selbstständige, sich an ihrer Umwelt orientierende Maschinen gedacht sind. Fußball sei dafür als Übungs- und Entwicklungsszenario besonders geeignet, weil ein erfolgreiches Spielen die Verknüpfung kurzfristiger Kontrollsituationen, erlernter Konzepte und längerfristiger Strategien erfordere (Download des Tools und Download des Papers als PDF).


Zur Rolle der Religion in der Computergesellschaft schrieb Dirk Baecker vor einigen Jahren, dass die Religion „von einer Welt [berichtet], die umso fremder auf den Menschen zurückschaut, je weiter dieser in sie hineinschaut.“ Im Standard wird über eine Studie mehrerer britischer Universitäten berichtet, die untersucht hat, wie Atheisten und Agnostiker zu Gott und anderen übernatürlichen Phänomenen stehen. Interessant ist dabei, dass das Nichtglauben an Gott oder Götter nicht bedeutet, auch andere übernatürliche Phänomene auszuschließen (S. 14 der Original-PDF).

Jeder an seinem Platz – Theresa Hannig: Die Optimierer

Theresa Hannigs Roman „Die Optimierer“ (2017) fühlt sich an wie „Der Prozess“ in der Computergesellschaft. Am 28.06.2019 veröffentlicht Hannig die Fortsetzung „Die Unvollkommenen“. Hier posten wir noch einmal die Rezension zum ersten Teil.

Vor einer Weile stieß ich auf zwei Romane deutschsprachiger Autoren, die eine durchoptimierte Gesellschaft beschreiben. Leif Randts „Planet Magnon“ (2015) präsentierte eine Gesellschaft, die dank scheinbar perfekter Computerkontrolle von allen Konflikten befreit ist. Unterschiedliche Lebensentwürfe sind in dieser Welt nur in Form entsprechender Kollektive möglich, ein austariertes System für diejenigen, die es nicht in Frage stellen. Freilich braucht es in solchen Romanen trotzdem einen Konflikt, und der wird durch das „Kollektiv der gebrochenen Herzen“ eingebracht, das sich mit dem System nicht anfreunden mag. Randts Roman spielt auf verschiedenen Planeten eines fremden Sonnensystems, ist aber eher Parabel als „harte“ Science Fiction. Im Vordergrund stehen politische Modelle und deren Auswirkungen auf Individuen, technische Details auch zur namensgebenden mysteriösen „Flüssigkeit Magnon“ gibt es keine. „Planet Magnon“ zieht seine Faszination in erster Linie aus der Beschreibung der unterschiedlichen Kollektive (die teilweise auch als Parodie des akademischen Betriebs lesbar sind) und der Hinweise darauf, wie der Computer („ActualSanity“) auf die Gesellschaft einwirkt. Am Ende stellt sich die Frage, ob das aggressive „Kollektiv der gebrochenen Herzen“ nicht sogar nötig (und durch ActualSanity gewollt) ist, um das Gleichgewicht der Gesellschaft zu erhalten.

In der Grundthematik ähnlich, aber in der Ausführung viel „realistischer“ ist Theresa Hannigs Roman „Die Optimierer“ (2017). Der Roman spielt im München des Jahres 2052. Anders als etwa in Carl Amerys Klassiker „Der Untergang der Stadt Passau“ (1975) ist Bayern kein Opfer postapokalyptischer Wirren, sondern wohlhabener Teil einer stabilen und nach außen abgeschotteten Bundesrepublik Europa (BEU). In der BEU wurde nach dem Kollaps der EU die soziale Marktwirtschaft durch eine „Optimalwohlökonomie“ ersetzt: Jeder erhält ein bedingungsloses Grundeinkommen, darüber hinausgehende Lebensentwürfe werden von einer Agentur nach dem fast kommunistisch anmutendem Motto „Jeder an seinem Platz“ verteilt, basierend auf Fähigkeiten, Interessen und bisherigen Leistungen, die in Sozialpunkten gezählt werden. Wer nicht arbeiten will oder kann, oder für wen das System keine optimale Verwendungsmöglichkeit findet, wird in die „Kontemplation“ geschickt, sozusagen ein aufgezwungenes zehnjähriges Sabbatical, bei dem man tun kann was man will — nichts, Hobbys frönen oder sich weiterbilden, falls man später erneut eine „Lebensberatung“ haben möchte, um doch noch einer geachteten Tätigkeit nachzugehen.

Der Mensch als Vollstrecker von Algorithmen

Anders als in „Planet Magnon“ sind es in „Die Optimierer“ noch Menschen, die Lebensberatungen für andere vornehmen, wenn auch unterstützt durch allgegenwärtige Daten zu allem und jedem, per Kontaktlinse ständig im Sichtfeld. Einer der Berater ist Samson Freitag, ein Beamter. Er lebt ein angesehenes Leben im Sinne des Systems, hat viele Sozialpunkte, die eine baldige Beförderung versprechen — insgesamt ein ruhiges, vorhersagbares Leben, inklusive der Option, es nach 85 Jahren freiwillig zu beenden, um der Gesellschaft nicht zur Last zu fallen. Diese Ordnung gerät aus den Fugen, als verschiedene Ereignisse zu immer schlechteren statistischen Bewertungen und Vorhersagen über Freitag führen — obwohl er, wie er selbst mehrfach betont, überhaupt nichts falsch gemacht hat, sondern im Gegenteil die Regeln des Systems buchstabengetreu befolgt.

Das von Hannig beschriebene System ist die logische Fortführung bereits heute absehbarer technischer Gegebenheiten: Big Data, Social Networks, Augmented Reality, Roboter — diese und andere Versatzstücke wurden schon oft dargestellt. Ich fühlte mich stark an Fernsehserien der 2010er Jahre erinnert, insbesondere „Continuum“ und „Caprica“. Der Zwang, den das System auf sich für angepasst haltende Individuen so lange ausübt, bis sich diese endlich vom System abwenden, ist aus älteren Dystopien bekannt, insbesondere „1984“ und „Fahrenheit 451“, teilweise auch „New York 1999“. Theresa Hannig gelingt es jedoch, so nah an der heutigen, spezifisch deutschen Gesellschaft zu bleiben und diese zugleich so zu verfremden, dass ihr Roman über technologisch-technokratische Oberflächlichkeiten hinausgeht. Die zunehmende Verlassenheit des Herrn F., pardon, des Samson Freitag erinnert an ein ganz anderes Individuum, das tragisch an übermächtigen Apparaten zugrunde geht: An Josef K. aus Franz Kafkas „Der Prozess“.

Die Ausgangslagen beider Protagonisten ähneln sich: Sowohl K. als auch Freitag arbeiten in ihren jeweiligen Institutionen auf mittlerer Ebene und haben es dort zu relativem Wohlstand gebracht; im privaten Bereich leben sie in Beziehungen. Beide bestimmen über den Erfolg anderer Menschen — Freitag in seinen verbindlichen Urteilen der Lebensberatung, K. in seiner Beteiligung an Verhandlungen mit Geschäftsleuten, die seine Bank aufsuchen. Beide sind auf die weitere Entwicklung ihrer Karriere bedacht und daher besorgt um ihr Ansehen bei Vorgesetzten und Umfeld. Dieses Ansehen wird durch unerwartete Begebenheiten und in der Folge getroffenen falschen Entscheidungen immer mehr gefährdet und schließlich zerstört. Wie K. ist auch Freitag Opfer eines nicht verstehbaren Systems aus Regeln und Urteilen, gegen die man sich nicht wehren kann.

Das Justizsystem im „Prozess“ ist durch seine Unzugänglichkeit und Verästelung in immer höhere Stufen gekennzeichnet. Jede Form möglicher Hilfe führt in eine weitere Sackgasse, weil letztlich niemand weiß, wie das System funktioniert, worauf dessen Urteile beruhen und wie man überhaupt zu ihm durchdringen kann. Im Gegensatz dazu ist das optimalwohlökonomische System in „Die Optimierer“ scheinbar ganz transparent. Anstatt stickiger Dachbodenkammern in unbekannten Stadtvierteln befindet sich die Zentrale der Münchner Lebensberatung in bester Lage und soll durch viel Glas Offenheit vermitteln. Jeder Bürger kann statistische Daten und Bewertungen über sich selbst einsehen und so theoretisch nachvollziehen, warum bestimmte Optionen gesellschaftlicher Teilhabe möglich oder ausgeschlossen sind. Anders als Josef K. muss sich Samson Freitag nicht ewig fragen, warum er sanktioniert wird. Er kriegt im Gegenteil sogar staatlicherseits Infomaterial zugeschickt, das ihm mögliche Handlungsweisen aufzeigt, um seinen Status wieder zu verbessern. Dazu zählt auch die Möglichkeit, Verbesserungsvorschläge zu jedem denkbaren Aspekt des Systems einzureichen, die oft sogar akzeptiert werden. Damit unterliegt das Individuum zwar dem Zugriff des Systems, aber es hält das System auch aktiv aufrecht. Für Freitag erscheint das verlässlich und fair. Niemand wird wirklich gezwungen, etwas zu tun oder zu lassen, sodass auch beim Lesen des Romans einem stellenweise der Gedanke kommen kann, dass das alles so schlecht nicht ist.

Ohnmacht trotz Transparenz

Bis man begreift, dass die wahren Spielregeln nicht die sind, die Freitag bisher stets eingehalten hat. Trotz all der Daten und Fakten, der Überwachung und der Algorithmen eines überbordenden Fürsorgestaates, für den Freitag selbst steht, muss Freitag erkennen, dass Fehler passieren, wenn man sich zu stark an die Regeln hält. Das Optimum für Person und Gesellschaft ist nicht zwangsläufig das, was die Algorithmen vorschlagen. Freitags Eltern, seine Freundin Melanie und sein Kollege Gordon wissen dies längst, doch Freitag wirkt davon überfordert. Zusätzlich stellt Freitag fest, dass es Bereiche gibt, die komplett außerhalb der offiziellen Spielregeln zu liegen scheinen. Es ist diese Erkenntnis individueller Ohnmacht dem System gegenüber, in der „Die Optimierer“ dem „Prozess“ besonders nahekommt. Josef K. wunderte sich über seine Verhaftung: „K. lebte doch in einem Rechtsstaat, überall herrschte Friede, alle Gesetze bestanden aufrecht“. K. musste erkennen, dass dieser Rechtsstaat und die bekannten Gesetze nur die Oberfläche waren; dass es darüber Mächte gab, deren Zugriff er sich nicht entziehen, die er aber auch nicht erreichen konnte. Samson Freitag macht in „Die Optimierer“ ähnliche Erfahrungen, die aber zeitweise wie ungewollte Nebenfolgen der allgegenwärtigen Algorithmen wirken — oder: Pech.

Theresa Hannigs Roman zeigt, dass die Verheißungen schon heute verfügbarer Technik gepaart mit technokratischen Politikstilen selbst bei Einsehbarkeit der Daten durch die Betroffenen und Feedback-Möglichkeiten eine ähnlich kafkaeske Gesellschaft erschaffen können wie Kafka selbst es gezeigt hat — nur dass die Wirkung auf aus dem System herausfallende Menschen noch ungleich stärker wäre, da der Kontrast zwischen scheinbarer absoluter Transparenz dieser Gesellschaft und tatsächlicher individueller Ohnmacht so groß wäre: Wenn alles offen ausgebreitet liegt, und jeder alles sehen kann, dann ist man auch allen ausgeliefert. Mit dieser Erkenntnis könnte die Geschichte enden, sie wäre dann ein Kommentar zu den Gefahren des selbstgewählten Überwachungsstaates einer hochgradig vernetzten Gesellschaft. Doch das durchaus überraschende und recht befriedigende Ende des Romans deutet an, dass es beim gezeigten Status Quo wohl nicht bleiben wird.

Und tatsächlich erscheint im Juni 2019 die Fortsetzung von Hannigs Roman unter dem Titel „Die Unvollkommenen“ — zumindest auf Grundlage des Werbetexts des Verlags darf man durchaus gespannt sein, wie die Autorin die Geschichte weiterstrickt.

Die Optimierer
 - Theresa Hannig - Taschenbuch
Bildnachweis: Bastei Lübbe (Shop)

Theresa Hannigs Roman „Die Optimierer“ ist im Oktober 2017 bei Bastei Lübbe erschienen. Leif Randts Roman „Planet Magnon“ erschien schon 2015 bei Kiepenheuer & Witsch, als Taschenbuch 2017. Am 28. Juni 2019 erscheint Hannigs Roman „Die Unvollkommenen“.

Anmerkung: Diese Rezension habe ich zuerst in meinem Blog in der Community von freitag.de veröffentlicht. Anlässlich der baldigen Fortsetzung habe ich die Rezension hier erneut gepostet.