#Coronaµdigkeit #NeunMonateTwitter #Grounded

Ich habe echt langsam keine Lust mehr auf Corona, und bin überzeugt, dass durch mehr Vernunft und Rationalität der derzeitige Anstieg der Zahlen vermeidbar gewesen wäre. Als generell vorsichtiger, oft sogar ängstlicher Mensch habe ich durchaus Verständnis für irrationale Sorgen. Ich verstehe auch, dass es für Leute, die kein naturgegebenes Talent für Mathe haben (auch so wie ich), schwer ist, statistische Zusammenhänge (Einordnung von Impfquoten, Beurteilung von Impfdurchbrüchen, usw.) zu durchdenken oder sich – immer noch, nach fast zwei Jahren Corona – exponentielle Anstiege von Fallzahlen vorzustellen. Aber das kann man alles lernen.

Ich hatte zum Beispiel sehr lange Flugangst, mit den typischen irrationalen Befürchtungen: „Gerade weil es so selten Abstürze gibt, muss es doch mich treffen!“ Durch Fliegen lernen, also nicht nur theoretisch oder am Simulator zu verstehen, wie ein Flugzeug fliegt, sondern durch das Erfahren am eigenen Leibe, ist es mir gelungen, diese Angst einzudämmen und zu kontrollieren.

[Leider bin ich aus finanziellen Gründen derzeit #Grounded, also erst mal für längere Zeit nicht mehr in der Luft, was mit einer für mich überraschenden Traurigkeit und einem echten Gefühl der Einschränkung der Bewegungsfreiheit auf nur noch zwei Dimensionen einhergeht, aber das ist ein anderes Thema und ließe sich auch gut unter Privilegienchecks diskutieren.]

Genauso jedenfalls kann man sich mit Corona-Tools (wie der Impfung) befassen und verstehen, warum sie nicht schlimm, sondern hilfreich ist. Aber sowas trifft mittlerweile häufig sofort auf Abwehr. Guckt man sich halt nicht an, versucht es nicht mal. Ein bisschen wie in Brechts „Leben des Galilei“, wenn man halt bei festen Überzeugungen bleibt, ohne empirische Fakten dagegen auch nur als potenziell gültig zu prüfen.

Vielleicht braucht es daher den Druck der Masse? #allesindenArm ist gerade ein Twitter-Trend, bei dem alle möglichen Leute dazu aufrufen, sich endlich impfen zu lassen. Zurzeit ist er bei 68.400 Tweets, was sehr viel ist, vor allem im Vergleich zu impfkritischen Hashtags (die ich nicht verlinke, was wiederum durch das Hashtag #FalseBalance begründet werden könnte). Es ist in gewisser Weise beruhigend zu sehen, dass ‚die Mehrheit‘ ähnlich denkt wie ich. Natürlich ist letzteres kein Wert an sich. Aber vor dem Hintergrund der rationalen Beschäftigung mit der Corona-Thematik macht es doch Hoffnung.

Seit Januar 2021 übrigens habe ich einen Twitter-Account, …

[Edit: äh … was dann 11 Monate sind, nicht 9 wie in der Überschrift … so viel zu meinem Mathetalent 😀 ]

… um auszuprobieren, wozu das gut ist und wie sich das anfühlt. Uta Buttkewitz hat ja in ihrem Buch kritisiert, dass es kurze folgenlose Kontakte sind, um die es in ’sozialen‘ Medien geht, aber das ist nicht immer so. Ich hatte auch positive Twittererlebnisse: Wenn Wissenschaftler*innen Erklärthreads zu diversen Themen posten; wenn (wie beim Historikertag neulich) parallel auf Twitter diskutiert werden kann, was ein schönes Gefühl der Teilhabe erzeugt; oder wenn man über interessante Veröffentlichungen und Veranstaltungen informiert wird. Auch als simpler Newsfeed der üblichen Zeitungen und Nachrichtensendungen lässt sich Twitter benutzen.

Aber, ja, wesentlich sind immer auch Selbstdarstellung (persönlich oder zu Werbezwecken), Affektentladung als Einzelne*r oder hinter Hash-getaggte Twitter-Trends versammelte Gruppe, sowie das kurzfristige Belohnungsgefühl eines „Likes“ (nett) oder gar eines „Retweets“ (viel besser). Gerade letzteres ist mir selten vergönnt, was vermutlich heißt, dass die Dinge, die ich dort schreibe oder verlinke, nicht relevant genug für meine derzeit 55 „Follower“ sind. 🙂

elementary OS 6 im Test: Freiheit für Minimalist*innen

Die Hoffnung auf „Linux auf dem Desktop“ ist nicht kleinzukriegen. Und so erschien am 10.08.2021 die Linux-Variante elementary OS in der nun schon sechsten Ausgabe. Durch bewusste Reduktion auf das Wesentliche verspricht elementary OS Einfachheit und Konsistenz. Aber wie gut funktioniert das im normalen Arbeitsalltag? Ich habe das System in einer Testversion bereits seit einigen Tagen auf meinem Schreib-Laptop im Einsatz. Hier sind meine Eindrücke von elementary OS 6 im Test.

Vorbemerkung

Wer sich aus Datenschutzgründen, intransparenter Produktkultur oder aus Prinzip nicht länger von großen Softwarefirmen abhängig machen will, hat zwar viel Auswahl, aber es trotzdem nicht leicht. Denn Windows (Microsoft) und macOS (Apple) sind im Heim- und Bürobereich Standard. Auch die großen Anwendungen im Bürobereich (Word, Excel, PowerPoint) und in der Medienbranche (Photoshop, InDesign, diverse DAWs, usw.) erscheinen nur für Windows und macOS. Freie Alternativen wie das in zig Varianten verfügbare Betriebssystem Linux sowie alternative Werkzeuge wie LibreOffice, Gimp, Scribus oder Ardour haben es schwer. Denn deren Nutzung setzt Neugier, Bereitschaft zum Verlernen alter Gewohnheiten und manchmal Bereitschaft zum Verzicht voraus.

Dieser Test richtet sich nicht an erfahrene Linux-Nutzer*innen; für diese gibt es Fachportale im Internet. Ich schreibe aus der Über/Strom-eigenen Perspektive, also für Menschen, die sich von der digitalen Gesellschaft schon das eine oder andere Mal gestresst fühlen, aber nicht grundsätzlich technikfeindlich sind. Personen, die ein modernes, auch optisch schönes und sicheres Betriebssystem möchten (ohne von großen Konzernen überwacht und gegängelt zu werden), die aber gleichzeitig nicht selbst Expert*in werden wollen.

Konkret geht es mir darum, ob elementary OS 6 mit seinen Versprechen von Einfachheit und Konsistenz für einen stressfreieren und sicheren Nutzungsalltag sorgen kann.

Ausprobiert habe ich elementary OS 6 auf einem gebrauchten ThinkPad T420 aus dem Jahr 2011, auf dem bis vor kurzem noch Windows 10 lief.


Übrigens: Am 17.08. erscheint mit Zorin OS 16 ein anderes Linux-Betriebssystem, das sich an Ein- und Umsteiger*innen richtet. Das schauen wir uns nächste Woche näher an.


Was ist elementary OS 6? Kurze Einordnung in die Linux-Welt

elementary OS ist ein Betriebssystem (Operating System, OS), ähnlich wie Windows oder macOS. Es sorgt also dafür, dass ein Computer überhaupt etwas tut.

Das System ist eine Variante der zahlreichen Linux-Betriebssysteme. Linux wird seit 1991 von Linus Torvalds entwickelt und ist konzeptuell dem noch viel älteren UNIX ähnlich (der Wikipedia-Eintrag zur Geschichte von Linux ist technikgeschichtlich sehr interessant). Linux war von vornherein als „freies“ Betriebssystem gedacht (frei wie in ‚Freiheit‘, nicht wie in ‚kostenlos‘, auch wenn viele Linuxe nichts kosten). Bekannte und traditionsreiche Linux-Distributionen sind zum Beispiel Slackware, Debian, openSUSE oder Fedora, es gab und gibt aber hunderte weitere. Eine Distribution ist der eigentliche Betriebssystemkern (Linux eben) plus eine Auswahl weiterer Programme. Manche Distributionen verlangen sehr viel technisches Wissen, andere richten sich an unerfahrenere Menschen.

Zu einigem Erfolg in dieser Kategorie hat es das auf Debian basierende Ubuntu gebracht, hinter dem seit 2004 die Firma Canonical steht. Canonical wurde vom ursprünglich aus Südafrika stammenden Unternehmer Mark Shuttleworth gegründet (übrigens jemand, der sich auch gut in einer Reihe mit Richard Branson, Jeff Bezos oder Elon Musk machen würde, denn Shuttleworth war 2002 der erst zweite Weltraumtourist und der erste Südafrikaner im Weltraum). Ubuntu hat viel dazu beigetragen, Linux aus der Nische der absoluten Hardcore-Nerds zu holen. Ein zeitweiliger Deal mit Amazon (bei der Suchfunktion wurden den Nutzer*innen Produktvorschläge angezeigt) brachte Ubuntu zwar viel Kritik und Shuttleworth 2013 den österreichischen Big Brother Award ein, aber die Funktion wurde 2016 abgeschaltet, und Ubuntu ist nach wie vor eine der wichtigsten Linux-Distributionen.

Regelmäßig werden neue Versionen von Ubuntu veröffentlicht, einige davon mit sogenanntem Langzeitsupport (Long Time Support, LTS), sodass man sicher sein kann, über mehrere Jahre hinweg mit Sicherheitsupdates versorgt zu werden. Unter anderem dies führte wiederum zu Varianten von Ubuntu (ja, der Stammbaum von Linux ist groß und verzweigt). Besonders beliebt ist seit einiger Zeit etwa Linux Mint. Aber auch kleinere Projekte gibt es, und elementary OS ist eines davon. Es entstand 2011 als eine eigene Distribution, die Ubuntu als (für Endnutzer*innen idealerweise unsichtbaren) Unterbau nutzt.

Wie wirkt elementary OS?

Bevor elementary OS eine Distribution wurde, war das Projekt als Elementary bekannt. Ziel war eine konsistente Sammlung von Programmen für Ubuntu. In der Designsprache orientierte man sich an Apples macOS. Und noch heute sind diese Wurzeln unverkennbar, wie der folgende Screenshot zeigt:

elementary OS 6 desktop
elementary OS 6

Ich würde nicht so weit gehen, zu sagen, dass alles wie Apple aussieht (und schon gar nicht so bedient wird), aber die Inspiration ist unverkennbar – wie auch die Liebe zum Detail ähnlich ist. Tatsächlich scheint sich das ganze System an Leute zu richten, die Wert auf Feinschliff legen und bereit sind, für ein konsistentes und elegantes Äußeres einige Kompromisse einzugehen.

Das Anwendungs- oder Startmenü zeigt standardmäßig eine alphabetische Symbolübersicht, die an Smartphones oder Tablets erinnert. Alternativ kann man es kompakter und in Kategorien sortiert anzeigen. Die Suchfunktion ist nichts weiter als die bekannte Tastenkombnation [ALT] + [F2]; sie findet Programme und kann einfache Matheaufgaben lösen, ist aber keine Volltextsuche.

An wen richtet sich elementary OS?

Elementary OS richtet sich an Menschen, die so wenig wie möglich mit dem Betriebssystem zu tun haben wollen. Es soll nicht kompliziert sein, es soll sicher sein, nicht ’nach Hause telefonieren‘, es soll ohne Aufwand gut aussehen und einen ansonsten in Ruhe lassen. Im Prinzip wären Apple-Nutzer die perfekte Zielgruppe, wenn da nicht noch das eingangs erwähnte Problem der fehlenden Standard-Anwendungsprogramme wäre.

Für Linux ist diese Ausrichtung aber Pro und Contra zugleich. Elementary OS ist auch in Version 6 nur in engen Grenzen an die eigenen Bedürfnisse anpassbar, zumindest dann, wenn man nicht in die Tiefen von Linux eindringen will. Wenn man das doch tut, dann kann man auch gleich eine der größeren Distributionen nutzen, die von vornherein mehr Auswahl lassen.

Nein, Elementary OS will genau so genommen werden, wie es ist, und es ist bewusst minimalistisch. Natürlich lässt sich das Hintergrundbild ändern, man kann einen Farbakzent auswählen und optional einen „Dark Mode“ aktivieren. Aber das war es fast schon. Im Fokus steht die eigentliche Nutzung des Computers, zum Schreiben, Surfen, Bilder bearbeiten, Musik hören, Programmieren und so weiter. Das Betriebssystem bleibt im Hintergrund und so der Faktor „Technik“ insgesamt.

Die Auswahl mitgelieferter Hintergrundbilder ist stilvoll und unterstützt wirkungsvoll das allgemeine Design.

Bewusster Verzicht, bewusste Wahl

Zumindest theoretisch. Denn in der Praxis braucht man eben auch nützliche Programme. Die unter Linux üblichen Anwendungen wie LibreOffice, Gimp, Inkscape oder Scribus sind zwar alle verfügbar. Aber nicht direkt nach dem Auspacken bzw. Installieren. Und wenn sie installiert sind, dann in deren je eigenen Designs, die sich nicht an die Vorgaben von elementary OS halten. Dann sind Farben, Symbole und Schriften dann doch wieder so vielfältig, wie unter Linux seit eh und je üblich.

Vielleicht aus diesem Grund ist das „App Center“ von elementary OS – quasi dessen App Store – anfangs noch sehr leer. Nur Programme, die sich an die recht strengen Gestaltungsrichtlinien des Systems halten und geprüft wurden, sind vorhanden. Leider sind das nur kleine Helferlein, aber nichts, mit dem man im Berufsalltag ernsthaft arbeiten könnte (außer, man ist Programmier*in; dafür ist der Texteditor Code recht brauchbar).

Das AppCenter von elementaryOS sieht wie ales im System sehr elegant und durchgestylt aus. Leider enhtält er zu Beginn nur eine sehr geringe Auswahl an einfachen Hilfsprogrammen. Aktualisierungen für installierte Programme sowie den Ubuntu-Unterbau lassen sich hier jedoch sehr einfach erledigen – bequemer als bei anderen Ubuntu-Derivaten.

Mehr Programme gibt es in sogenannten Flatpaks. Das ist eine seit einigen Jahren gebräuchliche Form, Linux-Programme so zu verbreiten, dass sie bequem installierbar und kein Sicherheitsrisiko sind. Jedes Programm läuft in seiner eigenen Sandbox und kann daher dem Rest des Systems nicht gefährlich werden.

Das AppCenter von elementary OS ist auf Flatpaks vorbereitet – aber dafür muss man zunächst ein einziges Mal ein Programm von der Website Flathub.org herunterladen und installieren. Dies schaltet dann die ganzen anderen verfügbaren Flatpaks im AppCenter frei.

Im Flathub gibt es viele bekannte Programme als Flatpaks. Wenn man hiervon eines installiert, sind danach all die anderen direkt im AppCenter erhältlich.

Als normale*r Nutzer*in, die*der sich nicht gerade in Fachforen rumtreibt, dürfte dies verwirrend sein, schließlich will man da einfach nur schnell eine brauchbare Anwendung zur Erledigung der je anfallenden Aufgaben haben. Das AppCenter könnte wenigstens einen Hinweis anzeigen, dass man auch mal im Flathub vorbeischauen sollte.

Wer als erfahrene*r Linux-Nutzer*in die traditionelle Art der Software-Installation bevorzugt (mittels eines sogenannten Paketmanagers), ist derzeit sogar auf das Terminal angewiesen. Da kommt man mit klassischen Befehlen wie sudo dpkg -i oder sudo apt-get install meist doch noch ans Ziel. Die so installierten Programme können anschließend auch über das AppCenter aktuell gehalten werden.

Traditionelle Programme im Debian-Paketformat .deb installiert man mit dem Konsolenbefehl dpkg. Eine grafische Paketverwaltung gibt es zurzeit nicht.

Man kann dies als unnötig komplizierte Einschränkung kritisieren, die dem Ziel der einfachen Verfügbarkeit vieler Anwendungen zuwider läuft. Oder man spricht positiv von einer ‚kuratierten Erfahrung‘, die bewusst auf eine große Auswahl verzichtet. Denn wo keine übertriebenen Wahlmöglichkeiten sind, da stellt sich auch keine diesbezügliche Überforderung ein.

Ungewohnte Bedienung

Auch elementary OS verwendet Fenster, die grundsätzlich ähnlich bedient werden wie in anderen Systemen auch. Allerdings etwas anders. Der Knopf zum Schließen liegt auf der linken Seite der Titelzeilen; auf der rechten Seite befindet sich ein Knopf zum Vergrößern auf Vollbild. Einen Knopf zum Minimieren gibt es nicht – stattdessen muss man entweder das Programmsymbol im Dock am unteren Bildschirmrand anklicken oder die Tastenkombination [SUPER] + [H] drücken (die Super-Taste ist auf PCs die Windows-Taste). Das ist ungewohnt, aber man gewöhnt sich daran schnell.

Eine Übersicht zu weiteren Tastenkombinationen wird durch alleiniges Drücken von [SUPER] angezeigt. So kann man den Umgang mit Fenstern, mehreren Desktops (Arbeitsflächen), Screenshots oder auch mit der Bildschirmlupe einfach mal ausprobieren. Wer nicht auf Tastaturkürzel steht, kann teilweise auch Mausgesten verwenden, oder die Maus in eine der vier Bildschirmecken bewegen. Dort können dann auch diverse Aktionen ausgelöst werden. Solche Optionen gibt es aber auch in anderen Linux-Varianten.

Auf dem Schreibtsch (Desktop) lassen sich keine Dateien und Ordner anlegen. Er dient wirklich nur als Hintergrund, vor dem die gerade aktiven Fenster angezeigt werden. Dem liegt offenbar das Konzept des ‚minimal desk‘ zu Grunde, nach dem auch auf einem echten Schreibtisch nur die gerade relevanten Aufgaben zu sehen sein sollten, aber kein ‚kreatives Chaos‘ herrschen und auch kein Missbrauch als Ablageort.

Wie arbeitet es sich mit elementary OS?

Wenn der Reiz des Neuen verflogen ist, kann man mit elementary OS ganz normale Büroarbeiten erledigen. Das ist ja letztlich das, was ich den ganzen Tag mache – schreiben, kommunizieren und ab und an programmieren. Halt ‚Irgendwas mit Medien‘ 😉 Das tue ich nun schon seit Sonntag Nachmittag und fühle mich dabei recht wohl.

Leider sind die mitgelieferten Programme für E-Mail und Web nicht optimal. Das E-Mail-Programm synchronisiert zeitweise nicht mit dem Server und der Browser ist ziemlich träge. Und mit dem überladenen LibreOffice bin ich ohnehin noch nie ganz glücklich geworden. Doch in wenigen Minuten hatte ich mir Flatpak-Alternativen im AppCenter oder per dpkg-Befehl eingerichtet.

Als Word-, Excel- und PowerPoint-Ersatz habe ich SoftMaker Office 2021 gekauft (das sieht zwar optisch nicht aus wie elementary OS, kann aber Microsofts Office-Dateien fast perfekt lesen und schreiben). Als Grafikprogramm nutze ich wieder mal Gimp (das benutze ich sowieso seit dem Jahr 2004, egal welches Betriebssystem). Als E-Mail-Programm habe ich Mozilla Thunderbird entstaubt (nicht gerade hübsch, aber funktioniert immer noch so gut wie früher). Nur als Browser, tja, da verwende ich die Linux-Version von … Microsoft Edge (ein Paradoxon für sich, aber da ich auf dem großen Windows-PC und dem Android-Tablet ebenfalls Edge nutze, will ich auf die Synchronisierung von Lesezeichen usw. nicht verzichten).

Bei Kalender und Aufgabenliste ist nichts Besonderes dabei. Und das ist keine Kritik.

Einschränkungen gibt es bei der Wiedergabe vieler Videoformate mit dem Standard-Videoprogramm. Zum Beispiel wurde selbst bei selbst aufgenommenen mp4-Videos (2016 bis 2019 mit dem Smartphone) nur der Ton abgespielt. Ich habe aus der Flatpak-Auswahl dafür das Programm Celluloid installiert, alternativ stünde auch der bekannte VLC-Player zur Verfügung. Die Streaming-Portale Netflix und Amazon Prime funktionieren nur mit Googles Chrome-Browser, aber nicht mit Edge oder gar dem Standardbrowser. Das ist etwas schade, aber da kann das Betriebssystem nichts für.

Lästige Fehler

Leider ist elementary OS 6 noch nicht so stabil, wie es gerne wäre. Ich habe beim Testen und im nun täglichen Gebrauch diverse lästige Bugs gefunden. Beispielsweise lässt sich der Laptop nicht stabil aus dem Ruhezustand wecken: Zwar kann man sich einloggen, aber der Bildschrim bleibt danach dunkel, nur die Maus ist zu sehen und kann bewegt werden. Ich habe deshalb momentan jegliche Ruhezustands-Funktionen abgeschaltet.

Ein anderes Problem: Das systemweit ausgeschaltete Bluetooth schaltet sich immer wieder ein, wenn man den Bildschirm sperrt und sich danach wieder anmeldet. Das ist aber eher lästig; ein einfacher Mausklick schaltet es wieder aus.

Einige Nutzer*innen in Foren berichten davon, dass sich das System gar nicht erst installieren lässt, v.a. wenn man es parallel zu einem bereits vorhandenen Betriebssystem testen will. Ich selbst habe es einfach meine ganze Festplatte formatieren lassen, das machte keine Schwierigkeiten. Aber wer elementary OS erstmal nur als Zweitsystem testen will, muss sich mit Linux bereits auskennen – die Zielgruppe wird hier momentan noch verfehlt.

Fazit

Elementary OS 6 kann auf der Website des Projekts, elementary.io, heruntergeladen werden. Nach dem Motto „Zahl, wie viel du willst“, bittet das Team um eine Spende, man kann aber auch 0 eingeben und das System kostenlos erhalten. Eine Installationsanleitung gibt es auch.

Grundsätzlich ist elementary OS 6 ein schönes, übersichtliches und gut nutzbares System. Durch den bewussten Minimalismus kommt man nicht in Versuchung, Ewigkeiten mit der Suche nach der perfekten Konfiguration zu verbringen. So kann man auch nur schwer irgendetwas kaputt machen.

Sicherheits- und Programmupdates gehen schnell und schmerzlos über die Bühne. Durch Ubuntu 20.04 (Long Time Support-Version) als Basis wird das System auch bis 2025 unterstützt. So ist man eine ganze Weile sicher vor Update-Stress.

Schattenseite ist, dass die Programmauswahl am Anfang künstlich begrenzt wird (so lange, bis man von flathub.org das erste Programm installiert hat) und dass einige Fehler den sonst so guten Eindruck trüben.

„Algorithmen werden erst verständlich, wenn man sie durch die menschliche Linse betrachten kann.“ Interview mit Anna Lena Schiller von Unding.de

Was tun, wenn ein Computer-Algorithmus eine Entscheidung trifft, die unser Leben beeinflusst? Wenn die Buchung des Corona-Impftermins nicht klappt, weil die Software in Arztpraxen und Behörden dafür nicht geeignet ist? Der wichtige Kredit abgelehnt wird, weil die SCHUFA aus intransparenten Gründen die Kreditwürdigkeit als zu gering einstuft? Oder ein Fotoautomat in Behörden nur für ‚weiße‘ Menschen funktioniert? Bei Firmen und Behörden selbst gegen falsche oder fragwürdige automatisierte Entscheidungen vorzugehen, ist oft aussichtslos, denn die menschlichen Ansprechpartner*innen können selbst oft nicht sehen, warum eine Entscheidung getroffen wurde — geschweige denn, diese übersteuern. Da fällt es schwer, Technik zu vertrauen. Das Unding-Projekt der Organisation AlgorithmWatch will hierbei helfen. Im E-Mail-Interview erklärt Unding-Managerin Anna Lena Schiller, wie das genau funktioniert und warum wir uns alle mit den Auswirkungen von Algorithmen befassen sollten.

Die Startseite von Unding.de

Können Sie bitte am Anfang kurz sagen, was das Unding-Projekt ist und wer die Macher*innen sind?

Unding ist die Anlaufstelle für Menschen, die durch automatisierte Entscheidungen benachteiligt oder diskriminiert worden sind. Dahinter steht die Organisation AlgorithmWatch, die sich seit 2016 dafür einsetzt, die Auswirkungen von automatisierten Entscheidungen auf die Gesellschaft zu beobachten und darüber zu berichten.

Das Projekt ist entstanden, weil uns aufgefallen ist, dass viele Firmen nicht verantwortlich sein wollen für die Auswirkungen ihrer Software. Die wenigen Beschwerdewege, die es gibt, sind entweder intransparent oder funktionieren gar nicht. Gleichzeitig gibt es keine unabhängigen Stellen, die Betroffenen helfen. Die Lücke wollen wir mit Unding schließen.

Wie muss man sich die offiziellen Beschwerdewege bei Firmen vorstellen? Sind das Kontaktformulare oder E-Mail-Adressen? Und antworten da dann einfache Servicekräfte, die selbst gar keine Befugnisse haben?

Die offiziellen Beschwerdewege gleichen meist Labyrinthen. Man schickt eine Nachricht über ein Online-Formular, und wenn man Glück hat, bekommt man eine Antwort aus Textbausteinen zurück. Wenn es schlecht läuft, versackt die Anfrage einfach irgendwo im Internet und man ist auch nicht schlauer als vorher. Wahrscheinlich nur noch genervter.

Bei öffentlichen Stellen wir Behörden sieht es etwas besser aus. Dort gibt es oft eine E-Mail oder sogar eine*n direkte*n Ansprechpartner*in. Vielleicht sogar eine Telefonnummer.

So oder so, es fühlt sich für viele nach einer ewigen Odyssee an, Ausgang ungewiss. Man könnte fast das Gefühl haben, Feedback sei gar nicht erwünscht. Wie immer, Ausnahmen bestätigen die Regel. Es gibt sicher auch gute Beschwerdewege und Mitarbeiter*innen, die helfen, die Probleme anzugehen.

Wie geht Unding vor, wenn man Sie einschaltet? Schreiben Sie die Unternehmen an? Und was erhalten Sie dann als Antwort? Oder gehen Sie andere Wege?

Aus der Nutzer*innen-Perspektive läuft das so ab: Man wählt ein Problem und wird durch einen Dialog geführt, der möglichst einfach als Chat dargestellt ist. Dadurch wird das Problem eingegrenzt und am Ende ein Anschreiben generiert. Das wiederum kann der*die Nutzer*in direkt an die verantwortliche Stelle schicken. Geht eine Antwort ein, wird man von Unding benachrichtigt und kann die Antwort auch gleich bewerten. Kommt nichts zurück, hakt Unding automatisch bei den Firmen nach.

Ein Problem bei Unding zu melden, ist sehr einfach. Über Hinweise zu neuen Problemkategorien freuen sich die Macher*innen sehr.

Sind Sie da auch auf die von Ihnen erwähnten offiziellen Kanäle angewiesen, oder gehen Sie da anders vor?

Die Technologie hinter Unding basiert auf E-Mail-Verkehr. Wir recherchieren für jeden Falltyp die richtigen Adressaten (Firmen, Behörden etc.) und die E-Mails gleich dazu. So umgehen wir zumindest die Schleife aus Online-Formularen, die man sonst oft bei Beschwerden verwenden muss. Es kann natürlich sein, dass auch von offiziellen E-Mails keine Antwort zurückkommt. Aber auf Unding kann man es im Gegensatz zu Formularen transparent machen, ob und wann eine Antwort eingegangen ist und wie nützlich sie für die Nutzer*innen war.

Für die Zukunft ist geplant, dass wir Bewertungen, Antwortzeiten und Anzahl der Beschwerden in einem Dashboard anzeigen können. Dadurch lässt sich dann einfach nachvollziehen, wie verantwortlich Firmen mit solchen Beschwerden umgehen. Und je mehr Bewertungen wir öffentlich machen können, desto mehr Druck kann Unding auf die Verantwortlichen ausüben, am Problem an sich etwas zu ändern.

Außerdem wollen wir die Unding-Technologie auch anderen Organisationen zugänglich machen, die Kontakt zu Betroffenen haben. Wir stellen uns z.B. vor, dass man direkt über Webseiten der Unding-Partner Fälle melden kann.

Und zu guter Letzt planen wir auch Nicht-Betroffene mit einzubeziehen. Zum Beispiel durch Umfragen, Datenspenden oder Crowd-Recherchen, in denen sich die Erfahrungen der Menschen mit automatisierten Entscheidungen und Algorithmen widerspiegeln.

Wie funktioniert das Nachhaken von Unding bei den Firmen?

Das Nachhaken funktioniert auch automatisch. Das System schaut, wo noch keine Antwort eingegangen ist, und verschickt dann ohne Zutun eine Erinnerungsmail an die Adressaten.

Arbeiten Sie mit Verbraucherschutzorganisationen oder Anwält*innen zusammen?

Wir arbeiten momentan an einem Partner*innenprogramm, dass wir ab Herbst 2021 umsetzen wollen. Wir möchten gerne schneller und direkter mit Betroffenen in Kontakt kommen. Und dafür sind etablierte Akteure und Organisationen natürlich sehr hilfreich, weil die oft schon in Verbindung stehen mit solchen Personen.

Da die Falltypen bei uns thematisch sehr vielfältig sind, halten wir momentan breit Ausschau nach potenziellen Partner*innen, die mit Unding kooperieren möchte. Wer sich hier angesprochen fühlt und Interesse hat, soll sich sehr gerne bei mir melden! Verbraucherschutzorganisationen oder Anwält*innen natürlich eingeschlossen.

Bisher kann man bei Ihnen Probleme mit der Google-Vorschlägen, der SCHUFA, rassistischen Fotoautomaten, Probleme bei der Impfterminvergabe in Berlin und unsinnigen Routen von Navigationssystemen melden.  Wovon hängt es ab, ob ein „neues“ Unding aufgenommen werden kann?

Es gibt zwei Wege, neue Undinge aufzuspüren: entweder über unsere Recherche (da hilft AlgorithmWatch als Mutterorganisation mit viel Erfahrung und Wissen), oder über Hinweise von Nutzer*innen, die in den letzten Monaten auch schon fleißig eingegangen sind.

Dann fragen wir, ob das Problem skalieren kann. Betrifft es möglicherweise viele Menschen? Dann hat es das Potenzial zum Unding.

Wichtig ist auch noch, ob wir die Story dahinter erzählen können. Warum ist das ein Problem? Wen betrifft das? Was sind die Auswirkungen? Algorithmen werden oft erst verständlich, wenn man sie durch die menschliche Linse betrachten kann.

Können Sie ein Beispiel für so eine „Story“ geben? Etwas, wo ganz prägnant wird, wie jemand unter falschen Algorithmen- oder Prozessauswirkungen Nachteile erleiden musste?

Zwei Beispiele fallen mir da aus Recherche für Unding ein.

Das erste wäre Thieshope, ein kleiner Ort in Niedersachsen. Ich nenne es manchmal auch das Gallische Dorf der Navi-Ära. Thieshope hat das Pech, gleich an der A7 zu liegen. Und in unmittelbarer Nachbarschaft auch noch die A1 und die A39 zu haben. Wenn man in solch einem Autobahndreieck wohnt, lernt man schnell die Nachteile von Navigationssystemen kennen. Gibt es einen Stau auf der Autobahn, dann bieten die Navis alternative Routen an. Das Problem dahinter: Es wird nicht immer die offizielle Umleitung angezeigt, sondern der kürzeste Weg zum Ziel. Und der führt oft durch solche Orte wie Thieshope, die auf Autobahn-Blechlawinen von LKWs und PKWs gar nicht ausgelegt sind. Das führt zu Lärmbelästigung und Ärger bei den Anwohner*innen vor Ort. Es ging sogar einmal so weit, dass die Polizei einschreiten musste, weil die Anwohner sich mit den Autofahrern angelegt haben.

Ort wie Thieshope gibt es zu Dutzenden, wahrscheinlich Hunderten in Deutschland. Und wir wollen mit Unding die Menschen unterstützen, sich gegen die Benachteiligung zu wehren. Wer also das gleiche Problem vor Ort hat, bitte melden.

Das zweite Beispiel dreht sich um Fotoautomaten in Behörden. 2015 kam es zum ersten Mal ans Licht der Öffentlichkeit, dass manche dieser Fotoautomaten, die in Ämtern aufgestellt sind, Schwarze Menschen nicht erkennen. Das war leider kein Einzelfall, denn in den Jahren darauf hörte man immer wieder von solchen Vorkommnissen. Zum Beispiel erging es auch Audrey K. so. Deren Geschichte haben die Zeit und die taz sehr gut aufbereitet. Sie wollte in der Führerscheinbehörde Hamburg ein biometrisches Foto von sich machen, aber der Automat erkannte ihr Gesicht nicht. Die von Menschen mit hellerer Haut allerdings schon. Auch in Fotoautomaten und Bild- bzw. Gesichtserkennung steckt Software. Und die kann wie in diesem Fall diskriminieren, wenn die dahinter liegenden Daten nicht repräsentativ genug sind.

Gibt es Ihrer Erfahrung nach genügend Bewusstsein in der Gesellschaft darüber, dass wir von automatisierten Entscheidungen, Algorithmen, KI-Einstufungen usw. betroffen sind, oder merkt man das meist erst, wenn es einen selber mal trifft?

Genügend Bewusstsein? Ein klares Nein. Automatisierte Entscheidungen sind ja auch nicht per se schlecht. Und wenn Digitalisierung unser Leben bequemer macht, dann zweifeln wir das in den seltensten Fällen an.

Routingsoftware z.B. kann den Alltag ungemein erleichtern. Aber es hat eben auch seine Schattenseiten, wenn LKWs kleine Dorfstraßen verstopfen und man in der Fahrradstraße nicht mehr durchkommt, weil alles voll mit Autos ist, die dort per Software hin navigiert wurden.

Oder die Routingsoftware das Auto in den See lotst – wobei man da wohl auch hinterfragen muss, bis zu welcher Stelle man dem dann noch vertrauen würde

Gesellschaftlich fehlt uns noch der differenzierte Blick auf die Auswirkungen von Algorithmen. Vorteile und Nachteile gleichzeitig sehen, die Ambivalenz von Technologie aushalten, nicht dem Glauben an die Neutralität der Software verfallen, automatisierte Systeme erkennen und hinterfragen. Das sind Kompetenzen, die wir uns gesellschaftlich aneignen müssen, um souverän mit Algorithmen umgehen zu können.

Sind Politik und Verbraucherschutzorganisationen hier bereits genügend sensibilisiert? Gerade letztere sind ja die traditionellen Anlaufstellen, wenn Verbraucher*innen Probleme mit Firmen haben.

Das Thema haben sowohl die Politik als auch der Verbraucherschutz auf dem Zettel. Ich würde die Antidiskriminierungsstellen auch noch dazu zählen. Aber es bräuchte Unding ja nicht, wenn das alles schon rund liefe. Ein Grund dieses Projekt zu starten war, dass die Auswirkungen von algorithmischen Entscheidungssystemen noch nicht hoch genug auf der Agenda dieser Akteure stehen. Oft braucht es mehrere Punkte, die Druck ausüben. Verbraucher*innen, Diskriminierte und Betroffene, zivilgesellschaftliche Organisationen und Verbände.

Wir versuchen unseren Teil dazu beizutragen, damit das Thema stärker in den Fokus gerät. Um breiter wirken zu können, wollen wir das gerne mit anderen im Verbund machen. Dazu das bereits erwähnte Partner*innenprogramm. Und natürlich sprechen wir in diesem Rahmen u.a. auch mit dem Verbraucherschutz und Politiker*innen.

Wie kann man Menschen, die sich nicht beruflich oder aus persönlichem Interesse mit der Problematik befassen, ihre eigene Betroffenheit bewusst machen?

Gute Frage! Ich teste das immer an meinen Eltern. Die sind so halb-digital und nutzen Chat-Apps und Online-Banking, aber Algorithmen sind dann doch nicht mehr auf ihrem Radar. Ich versuche Beispiele zu finden, die sehr nah an deren Alltag sind. Zum Beispiel warum ältere Menschen oft automatisch bei Krediten abgelehnt werden. Oder ganz aktuell: wie die Impfterminvergabe durch Algorithmen beeinflusst wird. Und was dabei schieflaufen kann.

Die größte Herausforderung für „Normalos“ ist dabei, überhaupt zu erkennen, wo automatisch entschieden wurde und wo nicht. Das sieht man ja nicht immer so einfach von außen. Wenn ich mich z.B. auf einen neuen Job bewerbe – woher kann ich wissen, ob mein Lebenslauf von einem Programm ausgelesen wurde und ich deshalb die Stelle (nicht) bekommen habe? Oder steckt da doch ein Mensch dahinter? Oder beides?

Um den KI-Blick zu schulen, braucht es Beispiele, Geschichten und immer wieder Aufklärung. Meine Mutter schneidet mir inzwischen Artikel aus ihrer Tageszeitung aus, in der es um Algorithmen geht. Das finde ich eine wunderbare Übung. Falls sie dann wirklich mal Algorithmen-Opfer werden sollte, merkt sie das dadurch hoffentlich schneller. Und kann ihren Fall gleich auf unding.de melden.

Sie haben schon AlgorithmWatch erwähnt – worin besteht da ihr Arbeitsalltag? Auf der Website werden verschiedene Projekte genannt – kann man sich das so ähnlich wie Forschungs- und Entwicklungsprojekte an Unis oder Forschungseinrichtungen vorstellen? Oder betreibt AlgorithmWatch v.a. journalistische Arbeit? Und steht auch Bildungsarbeit (in Schulen, Unis, Volkshochschulen) auf Ihrem Programm?

AlgorithmWatch hat mehrere Säulen. Ich beschreibe die Organisation mal aus dem Blick meiner Rolle als Unding-Projektmanagerin, dann ist es vielleicht am besten nachzuvollziehen.

Anna Lena Schiller ist bei AlgorithmWatch für Undinge zuständig (Foto: Julia Bornkessel, CC BY 4.0)

Zuallererst darf ich mich ums große Ganze kümmern. Mit anderen zusammen die Strategie für Unding bauen, und davon Maßnahmen ableiten, wie das Partner*innenprogramm. Die Umsetzung liegt dann ebenso in meiner Verantwortung. Das macht Spaß, denn so habe ich direkt Einfluss auf die Entwicklung des Projekts.

Dann hat AlgorithmWatch noch Softwareentwickler. Die sind immens wichtig, denn einige unserer Projekte, wie z.B. Unding, sind eine konkrete digitale Dienstleistung, die erstmal gebaut werden muss.

Unding soll natürlich auch bekannt gemacht werden, z.B. über Öffentlichkeitsarbeit, wie dieses Interview hier, aber auch Betreuung von Unding-Social Media-Kanälen. Dafür spreche ich mich mit der PR-Abteilung ab, die übergreifend alle Projekte betreut.

Dann wäre noch die Frage, wie wir auf neue Fälle für Unding kommen. Das geht über unsere Journalisten, die die Hintergründe recherchieren und aufbereiten. Gerade heute habe ich einen Hinweis über verunglückte Automatisierung bei einer Jobplattform erhalten. Da recherchiert der Kollege jetzt weiter.

Unsere Policy- und Advocacy-Abteilung beobachtet, was politisch passiert. Das Team formuliert dafür z.B. Forderungen zur Regulierung von Automated Decision Making? Wir überlegen aber auch, ob Policy-Entwicklungen wie das neue KI-Gesetz Auswirkungen haben, auf die wir mit Unding antworten können.

Zu guter Letzt gibt es noch den wissenschaftlichen Teil. Der ist bei Unding nicht so ausgeprägt, bei anderen Projekten dafür wesentlich stärker. Wir arbeiten in einem internationalen Netzwerk mit Wissenschaftler*innen, Universitäten und Forschungsorganisationen zusammen.

Bildungsarbeit kommt auch immer mal wieder vor, z.B. durch Anfragen von Bildungsinstitutionen für Workshops oder Paneldiskussionen.

Kann man abseits von Geldspenden und als Tippgeber*in bei AlgorithmWatch aktiv werden?

Wir veröffentlichen gerade ein neues Produkt namens Dataskop. Dabei geht es auch um Spenden, allerdings nicht finanzieller Natur, sondern Datenspenden. Den Ansatz der Datenspende haben wir jetzt in mehreren Projekten erfolgreich ausprobiert (z.B. OpenSchufa). Dieses Mal geht es um YouTube-Daten und ganz konkret um die Videoempfehlungen rund um die Bundestagswahl. Auch mit Unding sind Datenspenden geplant.

Wer sich gerne in die Richtung engagieren möchte, kann dafür den AlgorithmWatch-Newsletter abonnieren – und bekommt rechtzeitig Bescheid zu neuen Initiativen. Darüber hinaus freuen uns über alle, die uns längerfristig mit Dauerspenden fördern wollen.

Und natürlich Undinge melden!


(Titelbild: local_doctor / Shutterstock.com)

Windows 11 und das Problem fehlender Technik-Transparenz

Microsofts kommendes Windows-Update „Windows 11“ war in technikaffinen Medien zuletzt häufig Thema. Unter anderem, weil Microsoft eher undeutlich kommuniziert, auf welchen Computern das Betriebssystem überhaupt funktioniert und so implizit nahelegt, sicherheitshalber Geld für neue Hardware auszugeben. Aber Windows 11 steht auch stellvertretend für einen jahrelangen Trend zu immer mehr Abgeschlossenheit von Computern. Bei GameStar Plus (leider Paywall) hat Georg Löschner einen sehr guten, etwas sarkastischen Kommentar geschrieben, der auf den Punkt bringt, was das Problem bei den Produkten großer Computerkonzerne heute ist: Konzerne wie Microsoft und Apple stellen nur noch hübsche, glattgebügelte Oberflächen bereit, die kaum noch echte Eingriffe seitens der Nutzer*innen zulassen.

Die zunehmende Abgeschlossenheit von Computern bei ihrer gleichzeitig immer größeren Verbreitung in verschiedenen Formen ist ein Problem, das auch bei Über/Strom immer wieder Thema ist, und mit dem ich mich seit Jahren befasse. In meinem Buch „Nutzerverhalten verstehen – Softwareenutzen optimieren“ schreibe ich:

„Transparent gegenüber Nutzer∗innen ist Software, wenn Nutzer∗innen jederzeit die Möglichkeit haben, sich über Hintergründe und Aktivitäten der Software in der aktuellen Situation sowie über das Zustandekommen der Berechnungs- oder Verarbeitungsergebnisse zu informieren. Die undurchsichtige Blackbox Software soll also ein Stück weit transparent gemacht werden.“ (S. 18).

Diese Art von Transparenz halte ich für wichtig, wenn wir als Nutzer*innen nicht nur Konsument*innen sein wollen, sondern weiter selbstbestimmt handeln. Und ja, das ist mit Arbeit verbunden, sowohl für Entwickler*innen als auch für Nutzer*innen:

Nutzer∗innen haben gewissermaßen eine Holschuld, indem sie bereit sein müssen, grundlegende Funktionsprinzipien von Software verstehen zu lernen. Anstatt mal indifferent, mitunter staunend, oft fluchend vor den Ausgaben eines Programms zu sitzen, sollten sie eine Vorstellung davon entwickeln wollen, was das Programm gerade für sie tut. Auf der anderen Seite haben Entwickler∗innen eine Bringschuld, indem sie Software so gestalten, dass Nutzer∗innen sie verstehen können(Hervorh. M.D., S. 19).

Ist Techniktransparenz elitär?

Aber das sehen nicht alle so. Der Nutzer „Zwart“ kommentierte unter Löschners Artikel:Elitärer Bullshit. Dass der Betrieb von PC immer einfacher wird und immer mehr Menschen dazu befähigt, das Potential zu nutzen, ist eine gute Entwicklung.“ (Hervorh. M.D.; Tippfehler habe ich im Zitat korrigiert). Auf den ersten Blick könnte man Löschners Artikel tatsächlich so sehen. Schreibt da nicht nur jemand, den es nervt, dass sein eigenes Expertentum heute nicht mehr gebraucht wird, weil heute eben jede*r einen Computer benutzen kann?

Aber der Kommentar übersieht den Kerngedanken des Artikels: Die Leute sollen heute gar nicht mehr tun wollen, was abseits schicker Oberflächen eigentlich möglich wäre. Je abgeschlossener und „glatter“ Technik wird und je weniger echte Einblick- und Eingriffsmöglichkeiten sie bietet, desto weniger wissen Menschen, welches Potenzial da eigentlich vorhanden wäre. Genau dadurch entsteht dann erst das Elitäre. Sie kommen auch gar nicht auf die Idee.

Meine Frau, die Lehrerin an einer berufsbildenden Schule ist, hat mir neulich erzählt, dass ein u.a. Technik unterrichtender Kollege festgestellt hat, dass Schüler*innen heute gar nicht mehr auf die Idee kommen, technische Geräte einfach mal auseinander zu nehmen und nachzugucken, wie die innen drin aufgebaut sind. Klar – wieso sollten sie auch? Technik lädt ja nicht mehr dazu ein. Smartphones und Tablets sind meistens verklebt, keine Schrauben oder große Lüftungsschlitze trüben das Bild. Nichtmal Akkus lassen sich wechseln.

Techno-Schamanismus?

Also ist die Technik halt da, und sie ist, wie sie ist. Georg Löschner schreibt in seinem Artikel:

„Wir beten den Rechner an, weil er läuft, ohne dass wir darüber nachdenken müssen, warum. Und wie bei jeder göttlichen Anhimmelung inklusive Selbstaufgabe stehen wir dumm da, wenn dann mal irgendwas nicht funktioniert. Denn heutzutage wird das Suchen nach dem Fehler hinter schicken ‚Ich helfe Dir! (kurz nach Hause telemetrieren, brb)‘-Mitteillungen versteckt, aber mangels Wissen, was da wo rödelt … denkt euch euern Teil.“

Die religiöse Metapher ist nicht neu, aber immer noch treffend. Schon Anfang der 1990er gab es dahingehend in einem Usenet-Posting eine dystopische „Vision“: Irgendwann wäre Software so verbreitet und verschlossen, dass wir sie nur noch wie eine Naturgewalt wahrnehmen. Nur sogenannte Techno-Schaman*innen wären in der Lage, sie im Auftrag ihres Stammes zu beherrschen. Sie wissen zwar nicht mehr, warum bestimmte Handlungen funktionieren (das hat die Gesellschaft insgesamt längst vergessen), aber zumindest, dass sie funktionieren, was für den Alltag der neuen Stammesgesellschaft ausreicht.

Unterscheiden lernen

Auch der Soziologe Niklas Luhmann sprach von Technik als Umwelt und als „zweiter Natur“, aber ganz so düster wie in o.g. Vision hat Luhmann das meines Wissens nicht ausgemalt. Technik war für Luhmann Umwelt von Gesellschaft, aber für seine eigenen Analysen noch nicht im Zentrum. Luhmann-Schüler Dirk Baecker hat das Thema seit den 2000ern dankbar aufgegriffen und theoretisch erarbeitet, wie sich Kommunikation in der „Computergesellschaft“ verändert.

In meiner Dissertation (ein kostenloses Druckexemplar schicke ich auf Anfrage gerne zu … ehrlich, die müssen weg) habe ich vor ein paar Jahren Baeckers „Formen der Kommunikation“ (2004) angewendet, um Nutzer*innen bei der Computernutzung zu beobachten und ihr Handeln besser zu verstehen. Ich habe also aufgezeichnet, was sie tun und das dann interpretiert. Systemtheoretisch ausgedrückt: Ich habe das Treffen von Unterscheidungen von Nutzer*innen-Systemen beobachtet, d.h. wie sie mit Selektionen bestimmte Elemente der Nutzungssituation vor dem Hintergrund der Situation unterschieden und damit andere Möglichkeiten ausschließen.

(Das klingt komplizierter, als es ist, darum hab ich ja auch später das oben erwähnte andere Buch geschrieben 😉 ).

Im Fazit der Arbeit schrieb ich jedenfalls:

„es [ist] nicht ausreichend, den Umgang mit Strukturen der Software zu ‚erlernen‘ oder möglichst effiziente Modelle von Nutzerhandeln zu entwickeln. Erfolgreiche Nutzung benötigt die immer wieder neue Erschließung der Software im jeweiligen Einsatzkontext. Immer wieder muss während der Nutzung erkannt werden, vor welchen Hintergründen die Nutzung weitergehen kann – grundsätzlich, und im Falle von Problemen ganz besonders. Das verlangt, sich (a) zu orientieren über die Möglichkeiten; (b) die Möglichkeiten auf ihre Eignung zum je aktuellen Zeitpunkt zu prüfen; und (c) sich zu entscheiden für eine Möglichkeit, was neue zu prüfende Möglichkeiten mit sich bringt. […] [Dazu] ist [es] nötig, das hinter der Oberfläche verborgene Funktionsprinzip der Software zu durchschauen. […] Nur wenn hinterfragt wird, was geschieht, wenn eine bestimmte sichtbare Option ausgewählt wird, kann geprüft werden, ob die Option eine geeignete Selektion wäre. (Hervorh. M.D., S. 325f.)

Früher war alles besser?

Der Trend geht freilich in genau die entgegengesetzte Richtung. Technik wird immer glatter und ihre Funktionsweise wird immer mehr versteckt. In den großen Consumer-Systemen Windows und macOS wird man kaum mehr motiviert, hinter die Oberfläche zu blicken, und weil sich Nutzer*innen daran gewöhnen, wird das auch gar nicht mehr hinterfragt oder nachgefragt. Selbstironisch stellt sich Georg Löschner im Autorenkasten seines Artikels als aus der Zeit gefallen dar. Er

„ist ein grummeliger alter Sack. Influencer und das laute Geschrei von Social Media nerven ihn, und dass die jetzt (wahrscheinlich) auch noch das neue Windows zuspammen dürfen, beschert ihm mehr Puls als ein achtfacher Espresso auf nüchternen Magen. Er kommt nämlich noch aus einer Zeit, als Rechner sich so zurechtpfriemeln ließen, wie man das gerne hätte.“

War also früher alles besser? Nein, natürlich nicht. Früher war es eine Grundvoraussetzung, zu wissen, wie ein Computer im Innern funktioniert, um ihn zu benutzen. Das war gesellschaftlich nicht gut, weil es viele Leute ausschloss.

Aber heute haben wir das andere Extrem – durch die einfachen, funktional einschränkenden Oberflächen sind Computer zwar so verbreitet wie noch nie. Aber sie sind jetzt so „einfach“, dass man gar nicht mehr auf die Idee kommt, hinter die Oberfläche zu blicken und oft nicht hinterfragt, ob das, was einem da vorgesetzt wird, wirklich wünschenswert ist.

Auch heute sind Expert*innen die einzigen, die das können; das ist nicht anders als früher. Und nach wie vor sorgt das nicht nur für Stress und Frustration, sondern – und das ist eben das Neue – für große Unklarheit darüber, was ein Computer eigentlich gerade mit unseren Daten tut. Die Hürde, das zu kontrollieren, ist hoch, und die einzige echte Wahl besteht heute nur noch darin, abzuschalten, sich mit alternatien Systemen wie Linux anzufreunden (was aber, wenn es kontrolliert sein soll, Wissen voraussetzt, das man aus genannten Gründen heute nicht mehr voraussetzen kann, also wiederum in Abhängigkeit von Expert*innen drängt) oder einfach mitzumachen in der schönen glatten durchdesignten Welt.


(Titelbild: sdx15 / shutterstock.com)

Lesetipp zum Verstehen von Komplexität: Tobias Moebert zur Wahrnehmung von Mensch-Technik-Interaktionen

Forderungen an Entwickler*innen, Technik transparent zu gestalten, sowie Forderungen an Nutzer*innen, sich aktiv um ein Verständnis von Technik zu bemühen, sind zwei Seiten einer Medaille: Es geht um Handlungsfähigkeit in einer technisierten Welt. Statt jede neue Technologie (bzw. deren konkrete Ausprägung als technisches Werkzeug) immer naiv zu begrüßen oder Technik gleich grundsätzlich abzulehnen, geht es um einen reflektierten Umgang, der Vor- und Nachteile bewusst erkennt, abwägt und entsprechende Handlungsoptionen identifiziert. Das ist gerade in unserer heutigen Gesellschaft wichtig, in der es immer mehr technische Systeme gibt, die unseren Alltag auf vielfältige Weise prägen, die aber uneinsehbar erscheinen, etwa Systeme maschinellen Lernens bzw. Künstlicher Intelligenz oder erste Ansätze zum Transhumanismus.

Der vom Soziologen Niklas Luhmann gern genutzte Begriff der Blackbox, des uneinsehbaren schwarzen Kastens, ist eine bequeme Metapher, um ein grundlegendes Wahrnehmungsproblem von Technik zu bezeichnen: Wir können als bloße Nutzer*innen nicht einfach in die internen Abläufe eines Computers reinschauen. Wir können auch die Wechselwirkung technischer Systeme mit ihrer Umwelt nicht immer einfach erkennen. Und selbst Expert*innen sind mitunter von den Ergebnissen maschinellen Lernens überrascht, weil zum Beispiel künstliche neuronale Netze so viele Schichten aufweisen, dass die Funktionsweise des Netzes zwar theoretisch erklärbar, aber das Zustandekommen eines konkreten Ergebnisses nicht mehr herleitbar ist. Es ist eben alles sehr komplex mit (post)moderner Technik.

Es ist kompliziert. Oder?

Aber was genau heißt das überhaupt — Komplexität in Mensch-Technik-Zusammenhängen? Was ist der Unterschied zu Kompliziertheit? Und wie nehmen Entwickler*innen und Nutzer*innen beides wahr? Das ist eine Fragestellung, die an der Schnittstelle von Kommunikationssoziologie und Informatik angesiedelt ist und noch viel zu wenig bearbeitet wird.

Sie deutet sich an in der bekannten Arbeit der amerikanischen Anthropologin Lucy Suchman, die in „Plans and Situated Actions“ in den 1980ern ethnomethodologisch untersucht hat, wie Menschen mit Kopiergeräten umgehen. Suchman hatte das konkrete Handeln der Nutzer*innen beobachtet und analysiert und so einige Grundkonzepte menschlicher Erwartungen an Technik aufgedeckt. Insbesondere die „What’s next?“-Erwartung ist da zentral — wir neigen dazu, eine Ausgabe einer Maschine sinnhaft zu interpretieren und daraus den nächsten möglichen Handlungsschritt abzuleiten.

Wir fragen uns also „Wie geht es weiter?“ um die Nutzung aufrechtzuerhalten, ganz ähnlich wie wir auch in menschlicher Kommunikation davon ausgehen, dass unsere Partner*innen etwa entsprechend des Grice’schen Kooperationsprinzips agieren und wir deren Äußerungen sinnhaft einordnen. Problematisch wird es, wenn wir da ‚auf dem Holzweg‘ sind (Suchman nennt das „garden path“), wir also entweder eine falsche Erwartung haben oder wir glauben, wir hätten etwas falsch gemacht, obwohl wir das gar nicht haben. Solche Missverständnisse entstehen, wenn die Maschine nicht transparent und verstehbar kommuniziert, wie ihre Situationsdefinition gerade aussieht.

Doch technische Systeme sind keine Menschen und die Grundannahmen ihrer Entwickler*innen liegen selten offen. Wieso reagiert der Computer nicht auf meinen Mausklick? Wieso druckt der Drucker nicht? Und „was macht er denn jetzt schon wieder?“ — der Legende nach eine häufige Frage von Airbus-Pilot*innen, wenn der Bordcomputer des Flugzeugs wieder mal was anderes tut, als man erwartet. Wir nehmen also an, dass das System auf unsere Eingabe hin etwas Bestimmtes tut, aber dann macht es doch etwas anderes oder gleich gar nichts.

Durch die enttäuschte Erwartung kann die Nutzungssituation kompliziert, komplex, sogar chaotisch erscheinen. Das führt zum Erleben von Ungewissheit, die die fortgesetzte Nutzung gefährdet und sich nebenbei auch phänomenologisch zeigen sowie psychische Auswirkungen haben kann. Diese Beobachtung sowie deren Einbettung in aktuelle soziologische Annahmen zur Unsicherheit der Gesellschaft — ob wir sie nun mit Dirk Baecker als Computergesellschaft, mit Ulrich Beck als Risikogesellschaft oder mit Andreas Reckwitz als Gesellschaft der Singularitäten bezeichnen — war vor einigen Jahren die Grundannahme meiner eigenen Disseration zur Softwarenutzung (gibt’s auf Nachfrage aus kostenlos von mir); Ungewissheit der Softwarenutzung liegt auch meinem 2020 erschienenen Fachbuch zugrunde. In beiden Büchern plädiere ich für die direkte Beobachtung von Nutzungssituationen, um die Merkmale der Situationen außerhalb des Labors herauszuarbeiten — und die Schwierigkeiten beim Umgang mit konkreter Technik.

Wie ‚es weitergeht‘ war für Lucy Suchman eine entscheidende Frage, die wir uns als Technik-Nutzer*innen bei jedem Nutzungsschritt beantworten müssen. Daran hat sich bis heute nichts geändert. Die dabei entstehende Komplexität wird nun durch eine Arbeit von Tobias Moebert (Universität Potsdam) untersucht. (Bild: Razmik Badalyan / Pixabay.com)

Doch was Kompliziertheit und Komplexität in diesem Zusammenhang eigentlich sind, war trotz bestehender Arbeiten bisher ein Desiderat. Natürlich gibt es unterschiedliche Definitionen dieser Begriffe, doch wie beides beim ganz konkreten Umgang mit Technik wahrgenommen wird und sich auf die Nutzungssituation aus Sicht der Betroffenen auswirkt, ließ sich bislang nur indirekt aus früheren Ergebnissen ableiten. Umso positiver, dass an der Universität Potsdam am Institut für Informatik und Computational Science nun eine Dissertation zum Thema erschienen ist, die genau in diese Lücke vordringt.

Tobias Moebert: Zum Einfluss von Adaptivität auf die Wahrnehmung von Komplexität in der Mensch-Technik-Interaktion

Der Informatiker Tobias Moebert hat im März 2021 seine Arbeit „Zum Einfluss von Adaptivität auf die Wahrnehmung von Komplexität in der Mensch-Technik-Interaktion. Dargestellt am Beispiel Bildungstechnologie“ vorgelegt (Download als PDF über den Publikationsserver der Uni Potsdam). Moebert entwickelt darin „ein Werkzeug“, um zu untersuchen, wie Menschen Komplexität der Techniknutzung wahrnehmen und so auch den Begriff für seinen Anwendungsbereich näher einzugrenzen. Wer aber bei einer Informatik-Dissertation unter „Werkzeug“ nur ein weiteres Computerprogramm oder ein weiteres, in einer Techniker*innenblase entstandenes Vorgehensmodell erwartet, oder auch eine bloße Studie zur Benutzbarkeit eines Produkts (Usability), wird positiv überrascht. Denn Moebert hat sich intensiv mit soziologischen und sozialwissenschaftlichen Perspektiven auf Komplexität und Techniknutzung auseinandergesetzt. Konkret fragt der Autor:

„Wie nehmen Menschen Komplexität wahr? Welche Ursachen hat die Wahrnehmung von Komplexität? Welche Folgen hat die Konfrontation mit Komplexität?“ (S. 164)

Zur Beantwortung der Fragen wurden Leitfadeninterviews mit Studierenden und Wissenschaftler*innen aus Informatik, Soziologie und Psychologie durchgeführt und die erhaltenen Aussagen anschließend inhaltsanalytisch (nach Mayring) interpretiert. Die befragten Personen waren allesamt mit zwei beispielhaft untersuchten Softwarewerkzeugen aus dem Bildungsbereich befasst — Software, deren Einsatz zu genau den erwähnten komplexen, mithin ungewissen, Nutzungssituationen führen kann, zumal sich diese Software auch wechselnden Nutzungskontexten anpassen sollte (Adaptivität).

Theoriegeleiteter Ausgangspunkt der Untersuchung war, dass komplexe Situationen dynamisch sind und dass die der Situation zugrundeliegenden Ursache-Wirkungs-Beziehungen und die Handlungsfolgen der Nutzer*innen unvorhersehbar sind. Dies lässt sich durch mehrere Indikatoren ausdrücken, etwa die Wahrnehmung einer Software als „kontraintuitiv“ (Ursache/Wirkung ist nicht allein durch Intuition erfassbar und steht oft im Widerspruch zu unseren Erwartungen, S. 27) oder als „interventionsbeständig“ (weil ein System komplexer ist als unsere Fähigkeit, es zu verstehen, scheitern Eingriffe in das System oder führen zu unerwarteten Folgen, ebd.). In der Inhaltsanalyse zeigte sich nun, dass insbesondere das Merkmal der Kontraintuitivität in allen untersuchten Beispielen auftrat.

Das Problem der Intransparenz

Interessant ist in diesem Zusammenhang der Verweis auf die Wahrnehmung von Intransparenz:

„Diese Kontraintuitivität war in der Regel darauf zurückzuführen, dass den Beteiligten entscheidendes Wissen über die zugrundeliegenden Zusammenhänge der Situation gefehlt haben. Entweder war dieses Wissen generell nicht verfügbar oder durch die Intransparenz des Systems versteckt. [Hervorh. M.D.] Als Folge konnten die Beteiligten […] oft nicht richtig intuitiv beziehungsweise zielführend handeln und es war zu erwarten, dass unerwartete Handlungsfolgen auftreten würden“ (S. 165).

Gerade der Versuch, die Software als kontextsensitiv (adaptiv) zu gestalten, führte zu Transparenzproblemen:

„Auch wenn in beiden Anwendungen grundsätzliche Bemühungen vorgenommen wurden, um die basale Funktionsweise des Adaptierungsmechanismus sichtbar zu machen, bleiben viele konkrete Details jedoch im Verborgenen (z. B. Auswahl von Lehrinhalten, getroffene Annahmen etc.)“ (S. 166)

Dies führte nach Moebert zu einem für Nutzer*innen „unerreichbare[n] Detailwissen […], das lediglich dem Konstruktionskonsortium“, sprich: den Entwickler*innen bekannt war (ebd.). Genau das ist das Problem, das bei der meist üblichen intransparenten Technik häufig der Fall ist: Wir verstehen sie nicht, wir können ihre Entscheidungen nicht nachvollzuziehen, gerade wenn die Technik Fehlverhalten zeigt:

„Als Folge haben es die Nutzenden zuweilen schwer, die Adaptierungen nachzuvollziehen. Dies trifft ganz besonders dann zu, wenn Kontexterfassung und/oder Adaptierung fehlerhaft funktionieren“ (ebd.).

Moeberts Untersuchung deckte noch einige weitere typische Problemfelder auf, die sich in anderen Untersuchungen andeuteten, aber bisher, soweit mir bekannt, zumindest nicht in dieser Stringenz empirisch untersucht wurden.

Der Autor bietet im Anschluss Orientierungspunkte für Entwickler*innen, unter anderem, um intransparentes Systemverhalten zu verbessern. Moebert empfiehlt, „zwar weiterhin die komplizierten internen Mechanismen [einer adaptiven Software] außen vor zu lassen, aber Nutzenden die Möglichkeit zu geben, adaptive Entscheidungen nachzuvollziehen“ (S. 173).

Das heißt konkret, man muss als Nutzer*in nicht im Detail die Algorithmen und Modelle offengelegt bekommen, nach denen eine Software sich an einen Kontext anpasst (und wir könnten verallgemeinern: nach denen eine Software Entscheidungen trifft und Ergebnisse ermittelt). Aber die Software kann all dies durchaus in Alltagssprache verdeutlichen, und zwar nicht versteckt in der Dokumentation, sondern an der Stelle während der Nutzung, an der ein entsprechender Hinweis auch relevant ist. In dem Zusammenhang dürfte auch Moeberts Empfehlung, „die Offenheit und Ungewissheit menschlicher Lebenserfahrungen“ (S. 169) stärker zu berücksichtigen, von Bedeutung sein.

Fazit: Nicht nur für Informatiker*innen

Die Stoßrichtung von Moeberts Untersuchung und seiner abgeleiteten Empfehlungen ist unbedingt zu unterstützen und sollte weiter ausgebaut werden. Dass ich Technik-Transparenz als gesellschaftliches Ideal ansehe, habe ich erst kürzlich wieder betont. Für das Feld der KI-Forschung kennen wir die Richtung der Explainable Artificial Intelligence. Doch auch nicht-KI-basierte Technik kann komplex sein und bedarf entsprechender transparenter Unterstützung für ihre Nutzer*innen. Dies ist etwas anderes als früher übliche Forschungen zu Usability (Benutzbarkeit) und User Experience (Benutzererfahrung). Es geht um Erklärbarkeit des Handelns mit Technik in einer Situation. Hier ist noch viel zu tun, und Moeberts Arbeit ist ein wichtiges Puzzlestück dazu.

Verwandte offene Fragen sind, welche Rolle „Trivialisierungsexperten“ wie Handbuch-Autor*innen, Technik-Journalist*innen, technikbezogene Influencer*innen, die Werbung oder der technische Kundendienst in dem Kontext spielen. All diese Instanzen können Transparenz entweder fördern oder aber Komplexität bloß verschleiern. Auch eine phänomenologische Perspektive auf die Wahrnehmung von Techniknutzung ist noch ein Desiderat.

Abschließend ein Hinweis. Wie erwähnt, handelt es sich um eine Dissertation und damit eine wissenschaftliche Qualifikationsarbeit im Fach Informatik; entsprechend formal ist der Stil. Doch davon sollte sich niemand, die*der am Thema interessiert ist, abschrecken lassen. Der Text ist durchgehend gut lesbar und technisch wird es vor allem bei der Beschreibung der Fallbeispiele. Für Nicht-Techniker*innen mögen diese Kapitel etwas ermüdend sein, aber sie sind nötig, weil sie der Hintergrund sind, vor dem sich die empirischen Ergebnisse der Inhaltsanalyse erst abheben, also verstehbar werden. Und einen letzten Vorteil hat das Format der Dissertation: Die Rohdaten der Interviews (Transkripte) sind vollständig im Anhang vorhanden und ermöglichen so einerseits den direkten Nachvollzug der Ergebnisse und andererseits laden sie geradezu zu weiteren Forschungen ein.


Titelbild: Gerd Altmann / Pixabay.com

Corona-Tools und das Bedürfnis nach transparenter Technik

Wenn es an den eigenen Körper geht, werden Menschen schnell vorsichtig. Während wir vielen Technologien und Techniken im Alltag sonst schnell vertrauen (oder dank effektiver Werbung gar nicht erst die Vertrauensfrage stellen), verspüren wir bei Werkzeugen, die unser Leben im engen Sinne betreffen — unsere Gesundheit –, Unbehagen. Wenigstens, solange das jeweilige Werkzeug sich nicht als sicher herausgestellt hat, oder solange nicht klar ist, dass seine Urheber*innen es (und unsere Daten, die bei der Nutzung anfallen) nicht für hintergründige Zwecke missbrauchen. Gerade kann man das sehr gut an diversen Diskussionen um Corona-Tools nachvollziehen: letztes Jahr die erfreulich offene Debatte um die Ausgestaltung der ‚offiziellen‘ Corona-Warn-App, dieses Jahr die Frage, ob die Luca-App zu vorsichtigen Öffnungen von Geschäften, Restaurants oder Kulturveranstaltungen taugt, oder auch die Ängste vor den neuen Impfstoffen gegen COVID19.

Beispiel 1: Luca-Quellcode: Missglückter Transparenzversuch

Beim IT-Portal golem.de erschein kürzlich ein sehr negativer Kommentar zur Luca-App. Insbesondere wurde die Intransparenz bemängelt. Zwar wurde der Quellcode der Luca-Android-App öffentlich einsehbar gemacht, durfte aber zunächst nicht bearbeitet oder verbreitet werden. Selbst Zitate aus dem Code, etwa in Analysen, die Probleme aufdecken würden, waren verboten. Nach starker Kritik wurde die Lizenz des veröffentlichten Codes auf die bekannte GPL (GNU General Public License) geändert.

Problematisch bleibt, dass der Code nicht exakt derselbe ist, auf dem die aktuelle Android-App auf den Smartphones der Nutzer*innen beruht. Der Code der iOS-Version ist bisher gar nicht öffentlich, ebenso wenig der Code für die ‚Gegenstelle‘, also die Server des Betreibers. Das ist alles nur ein Open Source ‚Light‘ und wirkt eher wie ein Feigenblatt, das nur oberflächlich Vertrauen schaffen kann.

Zwar kann der Quellcode von Software ohnehin nur von Menschen verstanden werden, die selbst in der jeweiligen Sprache programmieren können und die Systemzusammenhänge durchschauen. Aber davon gibt es durchaus genug. Doch wenn der Quellcode nicht aktuell ist, stellt die Herstellerfirma nur scheinbare Transparenz her, und gerade das weckt Zweifel. Kommunikativ ist das nicht gerade geschickt. Statt Vertrauen erzeugt das Vorgehen der Luca-Entwickler*innen bisher eher Misstrauen, selbst wenn die Herstellerfirma und ihr PR-Gesicht, der Rapper Smudo, nur das Beste wollen.

Beispiel 2: RNA-Code des BioNTech-Impfstoffes

Bei der Weltgesundheitsorganisation war die RNA-Sequenz des COVID-Impfstoffes von BioNTech eine ganze Weile als Word-Datei verfügbar. Mittlerweile ist der Link veraltet, aber im Internetarchiv gibt es noch eine Kopie: https://web.archive.org/web/20210110172535/https://mednet-communities.net/inn/db/media/docs/11889.doc ). Wenn man mal von der Grundsatzdiskussion absieht, ob DNA und RNA mit Software-Quellcode vergleichbar sind, dann können solche Veröffentlichungen genauso nützlich sein wie veröffentlichter Quellcode — wiederum nicht direkt für Laien, aber für jene „Trivialisierungsexperten“ (Luhmann), die ihn stellvertretend für uns einschätzen und erklären. Für den BioNTech-Impfstoff hat das der niederländische Softwareentwickler Bert Hubert getan (oben auf der Seite sind auch Übersetzungen des Artikels in andere Sprachen verlinkt, u.a. Deutsch). Eine faszinierende Lektüre, die nebenbei zeigt, wie technisch mit biologischen Mechanismen umgegangen wird.

Trivialisierungsexpert*innen sind diejenigen Instanzen, denen wir stellvertretend vertrauen, wenn wir den durch sie trivialisierten Zusammenhängen selbst nicht vertrauen können, weil diese zu komplex sind, als dass wir sie als Laien ohne unverhältnismäßig hohen Lernaufwand nachvollziehen könnten. Aber wenn ein*e Trivialisierungsexpert*in in der Lage ist, die Zusammenhänge und die Folgen von Technik auf eine Weise zu kommunizieren, dass sie auch für Laien anschlussfähig wird, dann kann sich viel unnötiges Misstrauen (mit all seinen mitunter stressigen Auswirkungen) auflösen. Lehrer*innen und Wissenschaftsjournalist*innen sind typische Beispiele.

Natürlich funktioniert der Vertrauensaufbau über Trivialisierungsexpert*innen nur, wenn wir diesen Menschen trauen. Wer sowieso jedes Vertrauen in etablierte Instanzen verloren hat, wird im RNA-Beispiel auch nach der Erklärung Huberts weiter misstrauisch bleiben, etwa weiter glauben, dass der Impfstoff die menschliche DNA verändert, obwohl das rein technisch gar nicht geht. Allerdings ist so eine misstrauische Grundstimmung, wie wir sie heute oft in sozialen Medien erleben, auch eine Folge einer jahrzehntelang erlernten Blackbox-Sicht auf komplexe Technik. Glücklicherweise ändert sich das seit einiger Zeit.

Technik-Transparenz als gesellschaftliches Ideal

In meinem Buch „Nutzerverhalten verstehen — Softwarenutzen optimieren“ (2020) habe ich Technik-Transparenz als Forderung an eine Gesellschaft gestellt, „in der Menschen nicht nur als Konsumenten von Produkten funktionieren“ (S. 19). Ich bezog mich im Buch nur auf Software im engeren Sinne, aber man kann das auch auf Technik insgesamt ausweiten.

„Transparent gegenüber Nutzer*innen ist Software, wenn Nutzer*innen jederzeit die Möglichkeit haben, sich über Hintergründe und Aktivitäten der Software in der aktuellen Situation sowie über das Zustandekommen der Berechnungs- oder Verarbeitungsprozesse zu informieren“ (S. 18).

Das ist aber nicht nur eine Bringschuld der Entwickler*innen von Software bzw. Technik, sondern auch wir Nutzer*innen, wir Laien, sind gefordert, uns mit Technik beschäftigen zu wollen, zumindest wenn wir als selbstbestimmte Menschen handlungsfähig bleiben wollen. Es braucht also einerseits eine lernförderliche Umgebung — Technik, die uns einlädt, sich tiefer mit ihr zu befassen — und andererseits unseren Wunsch, zu lernen und zu verstehen.

Das „Ideal transparenter Software“ hatte ich im Buch in einer einfachen Grafik zusammengefasst:

Das Ideal transparenter Software (aus meinem Buch „Nutzerverhalten verstehen – Softwarenutzung optimieren“, 2020, S. 20)

Was da für Software dargestellt wird, gilt in Wahrheit für Technik insgesamt. Es gibt bei jeder Technik (ob nun konkret ‚anfassbare‘ Sachtechnik oder Technik im Sinne eines Verfahrens) immer die Oberflächenstruktur, mit der wir auf Technik zu-greifen oder sie verwenden, und dahinter liegende Annahmen und Modelle, die bestimmen, was wir im Zu-griff tun können und wie wir das, was wir da eigentlich tun, verstehen können.

Ich plädiere für einen stärkeren Fokus auf die Vermittlungsebene. Es reicht nicht, eine Technik nur nach ergonomischen Kriterien, Effizienzgedanken oder auch Nutzungsfreude (Joy of Use) zu gestalten. Schon bei Planung und Entwicklung sollten Wege mitgedacht werden, wie Nutzer*innen bei Bedarf auf die Tiefenstruktur zugreifen können.

(Titelbild: SplitShire / Pixabay.com)

Machine Learning als Laie verstehen — Zwei Buchtipps zur Einführung und Übung

Ab und zu spiele ich gegen meinen Computer Schach. Ich bin nicht gut darin, aber trotzdem macht es mir Spaß. Das Brettspiel ist schon sehr lange gut durch Computer spielbar, da es auch allein durch bloße Rechenkraft beherrschbar ist. Das erste Schachprogramm für das normale 8×8-Spielbrett entstand bereits 1958. Immer schnellere Computer mit immer größerer Speicherkapazität erlangten im Lauf der Jahrzehnte immer größere Spielstärke. Doch mittlerweile werden neue Ansätze versucht: Künstliche Intelligenz, die auf neuronalen Netzen basiert, hat es mittlerweile in Schachprogramme für den Hausgebrauch geschafft, als Open-Source-Software Leela Chess Zero (LC0). Der Hersteller der bekannten Schachsoftware Fritz hat LC0 genutzt, um ein künstliches neuronales Netz namens Fat Fritz aufzubauen, das 2019 in Fritz 17 integriert wurde. Eine halbwegs aktuelle Grafikkarte vorausgesetzt (die nicht für die visuelle Darstellung des Spiels, sondern für die Zugberechnung genutzt wird), kann so jede*r selbst gegen eine ‚richtige‘ KI spielen. Aus Laiensicht fühlt sich das erstmal ziemlich ‚cool‘ an — ein neuronales Netz, eine K I ! Klingt beeindruckend und je nach technischem Urvertrauen vielleicht auch beunruhigend.

Allerdings ist das, was heute als Künstliche Intelligenz bezeichnet wird, nicht wirklich intelligent. Die Programme sind keine Bewusstseine, die irgendetwas von dem verstehen würden, was sie am Ende als Ergebnis ausspucken. Tatsächlich werden bei der Erstellung und beim Training künstlicher neuronaler Netze überraschend einfache Rechenoperationen vollzogen — einfach, wenn man die einzelnen Neuronen betrachtet. Die Komplexität und die oft beeindruckenden, mitunter überraschenden Ergebnisse kommen durch das Zusammenspiel einer Vielzahl von Neuronenschichten zustande. Die Prinzipien dahinter kann man lernen und so besser verstehen, was hinter vielen Machine-Learning-Verfahren steckt — und das ist gar nicht so schwer.

In diesem Artikel möchte ich zwei Bücher vorstellen, die sehr hilfreich dabei sein können. Es sind keine Bücher, in denen über gesellschaftliche Folgen von KI nachgedacht oder das Vertrauen in Technik beleuchtet wird (wie ich es 2019 in „Die Unschuld der Maschinen“ tat), sondern die Autoren behandeln die praktische Seite von KI. Beide Bände sind Praxisbücher. Sie zeigen, wie wir selbst mit einfachen Mitteln Machine-Learning-Systeme und künstliche neuronale Netze entwickeln können, und sie tun das so verständlich, dass man kein „Data Scientist“ werden wollen muss, um daraus Nutzen zu ziehen. Nach der Lektüre und idealerweise eigenen praktischen Übungen versteht man viel besser, was Machine Learning eigentlich tut, wo dessen Grenzen liegen und warum es am Ende doch wichtig ist, immer die möglichen Folgen für die Menschen im Blick zu behalten.


Tariq Rashid: Neuronale Netze selbst programmieren (2017)

Wer keinerlei Erfahrung mit Programmierung hat, aber trotzdem von dem Thema fasziniert ist und keine Angst vor ein bisschen Mathematik hat, findet in Rashids Werk eine sehr verständliche Einführung. Nach einer kurzen Einleitung erklärt der Autor zunächst, was es für einen Computer bedeutet, etwas vorherzusagen und zu klassifizieren — am Beispiel von Raupen und Marienkäfern. Wie kann ein Computer anhand von Breite und Länge der Insekten erkennen, um welches Tier es sich handelt? Rashid geht Schritt für Schritt vor und illustriert jeden Schritt. Sobald es mathematisch(er) wird, führt er auch die Bedeutung entsprechender Symbole und Abkürzungen ein. Im Anhang gibt es zudem eine Einführung in die Analysis (die ich mir in der Form damals in der Schule gewünscht hätte).

So vorbereitet, geht es anschließend an das Konzept der künstlichen neuronalen Netze. Nach einer kurzen Herleitung aus der Biologie folgt wieder die schrittweise Einführung dieses für Machine Learning so wichtigen Konzepts. Aus Laiensicht ernüchternd ist vielleicht, dass das einzelne künstliche Neuron nichts weiter macht, als drei Eingangssignale a, b und c (alles Zahlenwerte) zu addieren und die Summe x dann in eine sogenannte Aktivierungsfunktion einzusetzen (Rashid verwendet eine Sigmoidfunktion, denn die sorgt dafür, dass zu niedrige Summen nicht weitergegeben werden, das Neuron also nicht ‚feuert‘). Das Ergebnis der Funktion, y, ist das Ausgangssignal (wieder eine Zahl). Es kann an ein weiteres Neuron als Eingangssignal weitergegeben werden.

Spannend wird es, wenn mehrere dieser Neuronen in mehreren Schichten nacheinander aufeinanderfolgen und ihre Signale (Berechnungsergebnisse) an die jeweils nächste Schicht weiterleiten. Diese Neuronenverknüpfungen sind gewichtet — ein höheres Gewicht verstärkt ein Signal, ein niedrigeres Gewicht schwächt das Signal ab. Zu Beginn sind diese Gewichte meist zufällig festgelegt, aber das bleibt nicht so — denn das Netzwerk ‚lernt‘. Auch dies stellt Rashid Schritt für Schritt dar — das ist wichtig, denn so wird das Funktionsprinzip deutlich, das bei tatsächlich im Einsatz befindlichen neuronalen Netzen von außen nur schwer nachvollziehen ist (weil die eben sehr viele Neuronen in sehr vielen Schichten haben; Explainable AI, also die Ergebnisse von KIs für Menschen nachvollziehbar machen, ist ein eigener Forschungszweig).

An der Stelle wird auch das wichtige Konzept der Backpropagation (Fehlerrückführung) eingeführt. Das meint, dass die Ergebnisse der Berechnung am Ende mit einem Vorgabewert verglichen werden. Die Abweichung der Ergebnisse von der Vorgabe (der Fehler) wird dann in die Verknüpfungsgewichte zwischen den Neuronen zurückgeführt, sodass sich die Berechnungsergebnisse beim nächsten Durchlauf verfeinern, so lange, bis die ausgegebenen Ergebnisse den erwarteten Ergebnissen möglichst entsprechen — das ist das Lernen, das beim Trainieren neuer Netzwerke geschieht und das so fasziniert, wenn wir in den Medien davon hören, ein Computer hätte sich selbst das Schach spielen oder das Spiel Go beigebracht. Rashids verständliche Erklärung zeigt, dass dieses Lernen mit menschenähnlichem Verstehen nichts zu tun hat, sondern reine Mathematik ist.

Um das alles auch praktisch auszuprobieren, gibt Rashid ab der zweiten Hälfte eine Einführung ins Programmieren mit der Sprache Python. Anders als viele andere Bücher zum Thema (die Programmierlaien nahelegen, sich die Grundlagen erstmal anderswo beizubringen) fängt Rashid auch hier ganz am Anfang an — wer noch nie ein Programm geschrieben hat, kann es danach, und der Autor braucht dafür nicht einmal 15 Seiten, bevor er im Rest des Buches zeigt, wie das nun zur Erstellung neuronaler Netze verwendet wird.

Schön finde ich, dass der Programmier’crashkurs‘ unabsichtlich das ganze Thema des Machine Learnings in den Kontext klassischer Programmierung einbettet, bei der man ja dem Computer eine genaue Verarbeitungsvorschrift vorgibt (den Algorithmus) — während genau das beim Machine Learning nicht geschieht. Das, was man dabei programmiert, dient nicht dazu, am Ende das eigentlich interessierende Ergebnis auszugeben, sondern ’nur‘ dazu, das neuronale Netzwerk zu erschaffen, das dann selbstständig zum Ergebnis kommt. Als Anwendungsbeispiel hat Rashid das schöne Thema der Handschriftenerkennung ausgewählt — wie kann man den Computer dazu bringen, handgeschriebene Buchstaben zu erkennen?

Rashids Buch ist nur 211 Seiten stark, was aber für seine Zielgruppe — eben absolute Laien, die sich für das Thema interessieren — völlig ausreicht. Spezialthemen oder besondere neuere Entwicklungen und Trends werden ausgeklammert, was gut ist, denn das würde zu Beginn nur Verwirrung stiften.

Neuronale Netze selbst programmieren. Eine verständliche Einführung mit Python, von Tariq Rashid, Übersetzung von Frank Langenau, O’Reilly 2017, 26,90 EUR.


David Foster: Generatives Deep Learning. Maschinen das Malen, Schreiben und Komponieren beibringen (2019)

Eines der faszinierendsten Computerbücher meiner Jugend war Horst Völz‘ „Computer und Kunst“, das 1988 im ostdeutschen Urania-Verlag erschien. Völz, der sich als Professor intensiv mit Informationstheorie beschäftigt hat und immer noch dazu publiziert, zeigte in dem kleinen Bändchen einerseits, wie man mit einfachen programmiertechnischen Mitteln — damals war auf den in der DDR erhältlichen Computern die einfache Programmiersprache BASIC sehr verbreitet — ästhetisch ansprechende visuelle und klangliche Ausgaben erzeugen kann, etwa Fraktale, Musik oder Gedichte mit Zufallselementen. Andererseits diskutierte der Autor auch, ob das denn überhaupt Kunst sein könne, und was Kunst mit Information, Wahrscheinlichkeit und Entropie zu tun hat.

An dieses Buch musste ich denken, als ich kürzlich David Fosters Fachbuch „Generatives Deep Learning“ (2019) in die Hand nahm — der Untertitel ist vielversprechend: „Maschinen das Malen, Schreiben und Komponieren beibringen“, und tatsächlich zeigt Foster genau das — wie kann mit Hilfe künstlicher neuronaler Netze ein Computer selbstständig Bilder, Texte und Musik erzeugen. In den letzten Jahren gingen entsprechende Beispiele durch die Medien, zuletzt das Programm GPT-3, das täuschend echte, kohärente und inhaltlich sinnvolle Texte generieren kann — so gut, dass der Zugang zu dem Programm stark eingeschränkt ist, um Missbrauch zu vermeiden (Foster geht in seinem Buch am Ende kurz auf die Funktionsweise des Vorgängers, GPT-2, ein).

Im Unterschied zum bloßen Klassifizieren von Daten (etwa: Zeigt das Foto ein Auto oder einen Hydranten?) geht es Foster um das Generieren neuer Daten, die zwar in einem ähnlichen Stil wie die Trainingsdaten vorliegen, mit denen das neuronale Netz gelernt hat, die aber doch etwas ganz Eigenständiges darstellen. Eindrucksvoll wird dies im Kapitel zum Malen demonstriert — aus einem Foto und einem Gemälde (einem ‚Stilbild‘) wird ein Filter entwickelt, der dafür sorgt, dass das Foto ebenfalls wie ein Gemälde desselben Stils wirkt. Natürlich gab es ähnliche Versuche schon früher in Form dieser unsäglichen Photoshop-Filter — aber die Qualität und die ‚Echtheit‘ von per Deep Learning erzeugten Verfahren ist wesentlich beeindruckender.

Fosters Buch geht wesentlich mehr in die Tiefe als Rashids Einführung und benötigt daher auch mehr Vorwissen. Erstens sollte man bereits wissen, wie man in Python programmiert (was Rashid, wie erwähnt, von Grund auf erklärt) und wie man darin neuronale Netze aufbauen und trainieren kann (und natürlich auch, was künstliche neuronale Netze sind). Wer vorher Rashids Band gelesen hat, sollte damit zurechtkommen. Zweitens sind jedoch auch mehr mathematische Kenntnisse erforderlich — man sollte vor Wahrscheinlichkeitsberechnungen keine Angst haben und idealerweise auch längere Formeln lesen können. Ich selbst kann insbesondere letzteres nur mit Mühe bzw. ab einem gewissen Punkt gar nicht mehr.

Dass ich Fosters Buch dennoch mit Vergnügen gelesen habe, liegt daran, dass trotzdem erkennbar wird, nach welchen Prinzipien Texterzeugungs-KIs wie GPT-3 oder Programme, die täuschend echte Fotos menschlicher Gesichter erzeugen, funktionieren — und das wird in den nächsten Jahren immer relevanter werden, Stichwort: Deepfake. Es ist eine neue Form der von Douglas Rushkoff vor einigen Jahren geforderten „Code Literacy“. „Program or be programmed“, forderte Rushkoff 2010 im gleichnamigen Buch — lern‘ zu programmieren oder werde selbst programmiert.

Doch programmieren allein — im Sinne des Festlegens eines Algorithmus, der zum gewünschten Ergebnis führt, wie das noch zu Völz‘ Zeiten der Fall war — ist heute nicht mehr ausreichend. Dazu muss heute auch die Beschäftigung mit Mechanismen des Machine Learnings kommen, wenn man nicht nur staunend vor immer neuen Sensationsmeldungen stehen will. Dazu sollte man auch als Nicht-Techniker*in keine Scheu vor entsprechender Literatur haben. Ein so zugängliches Thema wie Malerei, Literatur und Musik, wie Foster es wählt, fasziniert und macht den Einstieg interessant.

Generatives Deep Learning. Maschinen das Malen, Schreiben und Komponieren beibringen, von David Foster, Übersetzung von Marcus Fraaß und Konstantin Mack, O’Reilly 2019, 39,90 EUR


(Titelbild: Wolfgang Mennel / Pixabay.com)

Tipps gegen Update-Stress

Wir leben in der Zeit der „ewigen Beta“. Die Programme, die heute auf unseren Computern, Tablets und Smartphones laufen, werden immer weniger als fertiges Produkt angesehen, sondern als Dienstleistung — „Software as a Service“. Wir bezahlen keine Ware, sondern erwerben eine Nutzungslizenz, oder wir schließen Abonnements ab. Eine neue Version der Software wird so oft nicht mehr explizit erworben, sondern kommt automatisch, und wenn wir ein Programm starten, um einfach damit zu arbeiten, müssen wir mitunter erstmal minutenlang warten, bis es sich aktualisiert hat.

Bekanntestes Beispiel ist Microsofts Betriebssystem Windows 10, das ca. zwei Mal im Jahr ein großes Update erhält und dazwischen mehrere kleine. Die lassen sich zwar für einige Tage verschieben, sind aber schließlich zwingend zu installieren. Auch Apple hat Mitte 2020 in seinem Betriebssystem macOS die Möglichkeit entfernt, Updates zu ignorieren. Das mobile Betriebssystem Android, viele Spiele und Anwendungsprogramme (oder „Apps“) erscheinen ebenfalls als „rolling release“ ohne absehbaren Endzustand.

Beispiele für Update-Stress

Solch regelmäßige Aktualisierungen beheben heute nicht nur Fehler, damit am Ende ein möglichst ‚rundes‘ Produkt entsteht. Oft fügen sie neue Funktionen hinzu, verändern oder entfernen bekannte Funktionen und bringen leider auch neue Fehler mit. Das alles kann auf Nutzer*innen-Seite echten Stress verursachen.

Nicht nur an mir selbst, auch in meinen diversen Kundenservice-Erfahrungen erlebe ich immer wieder Kombinationen von Situationen wie den folgenden:

  • Ein Update verändert Bezeichnungen, Symbole oder die Anordnung von Bedienelementen so, dass bekannte Funktionen nicht mehr wiedergefunden oder nicht mehr korrekt bedient werden können, obwohl sie ansonsten weiter vorhanden sind. Das bereitet Menschen große Schwierigkeiten, die sich mit Mühe in eine Nutzerschnittstelle eingearbeitet hatten und nun umlernen müssen. Das betrifft mehr Leute, als man als computeraffiner Mensch glaubt.
  • Ein Update verändert bekannte Funktionen so, dass die Leistungen dieser Funktionen (ihre Ergebnisse oder Effekte) anders sind als zuvor. Funktion A hatte vor dem Update Effekt 1 und 2, nach dem Update hat sie vielleicht noch Effekt 3, oder Effekt 2 wurde entfernt, weil dafür nun eine neue Funktion B eingeführt wurde.
  • Ein Update verändert die ‚harten‘ technischen Voraussetzungen, die nötig sind, damit das Programm vernünftig läuft — es benötigt auf einmal mehr Speicher, einen besseren Prozessor oder eine bessere Grafikkarte, um genauso schnell wie zuvor auf unsere Wünsche zu reagieren. Im schlimmsten Fall stellen wir dann fest, dass wir auch die Hardware selbst aktualisieren müssen, damit alles wieder gut funktioniert.
  • Ein automatisches Update wird genau dann durchgeführt, wenn man es gerade am wenigsten brauchen kann — statt einfach schnell die jeweilige Aufgabe zu erledigen, muss man erstmal warten, bis das Update fertig ist. Wenn dafür auch noch lange Downloads nötig sind, während der Internetzugang vielleicht gerade durch andere Haushaltsmitglieder ausgelastet ist, kann das sehr frustrierend sein.
  • Ein automatisches Update ist nicht verhinderbar („Zwangsupdate“) oder kann nicht auf einen geeigneteren Zeitpunkt verschoben werden.
  • Es wird nicht verständlich erklärt, was ein Update für Änderungen zur Folge hat, und ob es wichtig oder unwichtig für meine eigene, ganz konkrete Nutzungssituation ist.

Ihnen fallen sicher noch andere Punkte ein. Jedenfalls kann all das ‚ganz schön stressig‘ sein.

Tipps gegen den Updatestress

Auf Updates zu verzichten, ist keine gute Idee, denn oft sind die Änderungen positiv und wichtige Fehlerquellen oder Sicherheitslücken (die sich eben nie ganz im Vorfeld verhindern lassen) werden behoben. Auch Zwangsupdates können sinnvoll sein, um gegen akute Sicherheitsprobleme oder Fehler mit großen Auswirkungen vorzugehen. In diesen Fällen mag das — eigentlich ziemlich übergriffige — Verhalten der großen Softwarefirmen gerechtfertigt erscheinen, denn ein nicht aktuell gehaltenes System wird im Internet auch zur Gefahr für andere.

Daher folgen nun einige einfache Tipps, wie man Updatestress vorbeugen kann.

  1. Vereinfachung I: Man muss nicht gleich „Digital Detox“ machen, aber was nicht installiert ist, braucht auch keine Updates. Viele Geräte werden von Anfang an mit Software geliefert, die man gar nicht verwendet. Misten Sie Ihre Geräte daher regelmäßig aus und vermeiden Sie es, irgendwelche Programme aus dem Internet oder Apps aus dem Appstore runterzuladen, nur weil die Werbung irgendwelche Wunder verspricht oder ein neues Programm toller aussieht als das alte. Neu ist nicht immer besser.
  2. Vereinfachung II: Im Laufe der Zeit sammeln sich heute ziemlich viele Geräte an. Das ist nicht nur ein Problem für die natürlichen Ressourcen der Erde, das Klima und die Stromrechnung. Jedes Gerät will gewartet sein, und gerade Geräte, die wir nur selten verwenden, sind beim nächsten Mal erstmal lange mit Aktualisierungen beschäftigt. Beschränken Sie sich daher auf wenige, möglichst langlebige Geräte, die Sie wirklich brauchen und regelmäßig verwenden.
  3. Erkennen Sie Ihren Bedarf: Um zu ermitteln, welche Geräte und Programme wir ‚wirklich brauchen‘, hilft es, mal einen Monat Tagebuch über die eigenen Nutzungsgewohnheiten zu führen. Was tue ich in welchem Umfang mit meinem Smartphone, meinem Tablet, meinem PC und meinem Laptop? Kann ich eventuell bei der nächsten Mobilfunkvertragsverlängerung auf ein neues Gerät verzichten? Kann das Tablet möglicherweise PC und Laptop ersetzen? Muss das Telefon wirklich ’smart‘ sein, wenn ich daneben auch ein Tablet habe? Verzichte ich vielleicht sogar ganz auf Smartphone und Tablet, um die Computer dorthin zu verbannen, wo sie hingehören (nämlich auf den Schreibtisch statt auf die Couch oder neben das Bett)? Habe ich das Gefühl, dass die Verwendung von Gerät A, Programm B oder App C mir einen echten Nutzen oder Freude bringt? Wenn nicht, weg damit.
  4. Legen Sie Updates auf eine günstige Zeit: Um zu vermeiden, dass sich Updates gerade dann in den Vordergrund drängen, wenn Ihnen das gar nicht passt, planen Sie regelmäßige Zeitfenster für Updates ein — so wie für den Hausputz. Der ist übrigens eine gute Zeit, um größere Updates durchzuführen (besser, als Geräte dafür nachts angeschaltet zu lassen, während wir schlafen). Während wir Staub saugen, das Bad putzen oder abwaschen, können parallel Updates runtergeladen und installiert werden — die Geräte nutzen wir da ohnehin nicht und wenn wir mit der Hausarbeit fertig sind, dürften die meisten Updates auch abgeschlossen sein. Falls zwischendurch ein Neustart nötig ist, ist der auch schnell erledigt.
  5. Verschieben Sie brandneue Updates eine Weile, wenn möglich: Wenn es nicht gerade um wichtige Sicherheitslücken geht, warten Sie einige Tage ab. Schon öfter hatten etwa Nutzer*innen von Windows 10 das Problem, dass der Computer nach Updates nicht mehr startete; der Hersteller zog dann diese Updates zurück und brachte später korrigierte Versionen heraus. Mittlerweile kann man eine „Update-Pause“ für bis zu 35 Tage in Windows 10 einstellen; unter Umständen ist das sinnvoll.
  6. Informieren Sie sich im Internet, ob ein Update Probleme bereiten könnte. Seriöse Seiten sind dafür etwa technische Nachrichtenportale wie heise.de oder golem.de; Social Media und Foren verbreiten hingegen oft auch oft Halbwissen und Mythen.
  7. Machen Sie Backups: Wertvolle Texte, Fotos, Musik, usw. sollten regelmäßig gesichert werden — das geht zwar in der Cloud, aber falls das Internet mal ausfällt, schadet es auch nicht, traditionelle Backups auf externen Datenträgern zu haben. Das nimmt die Sorge davor, alles zu verlieren, wenn mal etwas schiefgeht. Sie müssen dazu keine komplexe Backupstrategie mit zig Versionen einführen. Machen Sie einfach jede Woche eine Sicherung der wichtigsten Ordner und löschen Sie nach vier Wochen die jeweils älteste Sicherung. Auch dies lässt sich übrigens mit dem Hausputztermin kombinieren.

Fazit

Natürlich könnte man noch viel weitergehen. Man könnte selbst zum ‚Techniknerd‘ werden, ein freies Betriebssystem wie Linux installieren und so eine fast vollständige Kontrolle über die eigenen Geräte und Programme erlangen. Dies jedoch verschiebt den eigenen Fokus von der möglichst einfachen Nutzung und verlangt zeitaufwendige Einarbeitung (an deren Ende zwar ebenfalls eine elegante Form von Einfachheit stehen kann, aber der Weg dahin braucht etwas Zeit und Lernwillen). Die genannten Tipps hingegen — sie dienen letztlich der Systematisierung und dem Gewinnen eines Überblicks — lassen sich auch in einem ’normalen‘ Nutzungsalltag umsetzen.

(Titelbild: mohamed_Hassan / Pixabay.com)

Urlaub in Night City: Reisetagebuch zu Cyberpunk 2077 (Teil I)

Endlich ein ausgedehnter Städtetrip, trotz Corona, ganz ohne Maskenpflicht und Abstandsregeln, und mit Keanu Reeves als ständiger Begleiter – morgen ist wohl das Spieleereignis des Jahres: Da erscheint Cyberpunk 2077 der polnischen Entwickler CD Projekt RED, die für ihre überaus erfolgreiche Witcher-Reihe bekannt sind. Millionen Spieler*innen weltweit werden sich jetzt für Tage oder Wochen in das retro-futuristische Open-World-Spiel versenken, jeden Winkel der Spielwelt erkunden und gegen den Konzernkapitalismus antreten, der so typisch für das Science-Fiction-Subgenre „Cyberpunk“ ist. Ich auch. Und in diesem und in folgenden Blogartikeln werde ich Eindrücke dieser Reise teilen.

Trailer zur Veröffentlichung von Cyberpunk 2077

In Cyberpunk-Spielen treten Spieler*innen aktiv in die Fußstapfen der Protagonist*innen genreprägender Literatur der 1980er wie Neuromancer (William Gibson), Snow Crash (Neal Stephenson) oder Mirrorshades (Bruce Sterling) – dystopische heruntergekommene Szenarien, in denen Hacker*innen sich transhumanistisch mit technischen Implantaten aufrüsten und in gesicherte Netzwerke eindringen. Wer zu den teils sperrig geschriebenen Texten und teils recht maskulinen Szenarien keinen Zugang fand, konnte in Filmen wie Blade Runner oder Matrix zumindest atmosphärisch und visuell in typische Cyberpunk-Motive reinschnuppern – auch wenn 1999, als Matrix rauskam, Cyberpunk als Genre fast schon wieder vorbei war. Das reale Internet hatte da schon die ziemlich rückständig wirkenden Visionen der 1980er und frühen 1990er überholt.

Heute ist der Unterschied noch deutlicher, unsere Computertechnik wird von Unsichtbarkeit und Glätte dominiert. Die Realität ist nicht mehr so haptisch wie früher, was den Philosophen Byung-Chul Han vor einigen Jahren zu einer deutlichen Kritik der „Transparenzgesellschaft“ veranlasst hatte. Unsere technische Umwelt dreht sich um WiFi, 5G, Cloud und Touchscreen; dagegen wirken Netzwerkkabel, Festnetz-Telefon, Diskette und sogar Tastatur wie Relikte einer vergangenen Ära. Digitale Vernetzung war damals neu und aufregend, heute ist sie für viele Leute zur Trivialität geworden. Nur Künstliche Intelligenz war damals wie heute Thema (zuletzt in Gibsons neuem Roman Agency).

Aber genau die zumindest teilweise noch handfeste Technik ist ein Grund, warum Cyberpunk-Motive jetzt wieder an Reiz gewinnen. Ein Spiel wie Cyberpunk 2077 ist nicht nur mit einem Kino-Blockbuster vergleichbar und dürfte allein deshalb erfolgreich werden, sondern führt uns auch zurück in „die gute alte Zeit“. Es zeigt uns nicht nur eine fiktive Zukunft, sondern erinnert uns daran, wie wir uns früher die Zukunft vorgestellt hatten – damals, als wir selbst noch jünger waren und vielleicht den ersten eigenen Heimcomputer ausprobierten – und was seitdem verloren ging.

Und das ist neben der Hardware, der „harten“ Technik, vor allem das Versprechen, darüber Kontrolle erlangen zu können.

Im nächsten Teil: Cyberpunk als Weg zurück in die „irgendwie doch sichereren“ 1980er und -90er

(Titelbild: CD Projekt / IGDB)

Cyborg gegen KI? Elon Musks „Neuralink“

Auf den Unternehmer Elon Musk scheint der etwas abgegriffene Begriffs des „Machers“ noch zu passen: Elektroautos nicht nur bauen, sondern als attraktiv vermarkten? Das tut Musk mit seiner Firma Tesla, in die er seit 2004 investiert. Dafür in Windeseile eine Fabrik in Brandenburg hochziehen? Scheinbar trotz Protesten kein Problem. Eine private Alternative zur staatlichen US-Raumfahrt bieten? Musk und SpaceX tun das seit 2002; vor ein paar Monaten erstmals auch mit zwei Astronauten an Bord. Menschen und Fracht mit fast Schallgeschwindigkeit durch Tunnelröhren transportieren? Daran arbeitet seit 2013 Musks Hyperloop-Projekt.

Doch neben Transportmitteln interessiert sich Elon Musk auch für die Natur des Menschen selbst: Seit 2016 untersucht Musks Firma Neuralink Möglichkeiten, Computerchips in menschliche Gehirne einzupflanzen. Gehirnchips, die unsere Fähigkeiten erweitern – für die einen Horrorvorstellung, für die anderen nur Beginn transhumanistischer Sehnsucht. Den Prototypen eines Gehirnchips stellte Musk im Juli 2019 vor, und in einem Livestream präsentierte er am Samstag einige Fortschritte bezüglich der Implantation des Chips selbst – 1.024 Elektroden werden von einem Roboter implantiert, angeblich sanfter als bei früheren Methoden (Bericht bei golem.de).

Soll es am Anfang noch um Unterstützung für körperlich beeinträchtigte Menschen gehen, ist Musks Fernziel, die kognitiven Fähigkeiten von Menschen so zu steigern, dass wir mit Künstlicher Intelligenz (KI) mithalten können. Musk hat schon früher betont, dass er KI als zwar nützlich, aber auch als potenzielle Bedrohung ansieht; er unterstützt deshalb die Non-Profit-Organisation OpenAI, die im März mit GPT-3 die bislang am erfolgreichsten funktionierende KI zur Erzeugung längerer englischsprachiger Texte vorgestellt hat.

Die Philosophin Susan Schneider warnte 2019 nach Musks Ankündigung vor den Gefahren, die Musks Pläne für den menschlichen Geist bedeuten würden. In der Financial Times und in der New York Times warnte Schneider vor einem „Selbstmord des menschlichen Geistes“ (näher ausgeführt hat Schneider das etwas später in ihrem Buch „Artificial You: AI and the Future of Your Mind“). Erstaunlicherweise wurde in den Medien aber kaum über Musks Ausgangsthese gesprochen, die ja besagt, dass wir von KI bedroht werden und gleichsam aufrüsten müssen, um dieser Bedrohung Herr zu werden. Dabei ist gerade das Verhältnis von Mensch und KI eine Frage, die zu klären wäre, bevor wir ihretwegen wahlweise zu Cyborgs werden oder jegliche transhumanistische Idee sofort abtun.

Ist also KI für uns Technik wie jede andere, die wir als mündige Nutzer*innen verwenden, um ein konkretes Problem zu lösen?

Oder ist KI etwas, der wir uns einfach nicht werden entziehen können, von deren Leistungen wir abhängig werden (zumindest, wenn wir gesellschaftlich nicht ‚abgehängt‘ werden wollen), und die uns deswegen auch fremdbestimmen wird?

Die Antwort hängt davon ab, welche Einstellung wir modernen Technologien gegenüber einnehmen. Stehen wir ihnen optimistisch gegenüber, oder nehmen wir sie als Bedrohung wahr?

Unbehagliche Umweltkomplexität

Dass wir uns als Menschen von Technik bedroht fühlen, ist nichts Ungewöhnliches. Das betrifft uns sowohl als Gesellschaft (etwa hinsichtlich Umweltfragen und der Gefahr des Arbeitsplatzverlustes) als auch als Individuen. Insbesondere Technik, deren innerer Aufbau und deren Funktionsweise nicht auf den ersten Blick ersichtlich ist, kann zu Unbehagen führen. Das betrifft erstens ihren Einsatz, wenn wir direkt mit ihr zu tun haben, und zweitens Nebenfolgen, von denen wir als Dritte betroffen sein könnten. Denken wir etwa an das Fliegen:

  1. Viele Menschen haben Flugangst. Die Gründe dafür können vielfältig sein, aber eine der Ursachen können wir als ungläubiges Staunen vor einer als unbegreiflich empfundenen Technik beschreiben: Man ist gleichermaßen fasziniert von der Technik wie man besorgt ist, ob sie auch wirklich wie versprochen funktioniert. Wie kann es sein, dass ein Flugzeug bei Triebwerksausfall nicht einfach vom Himmel fällt? Erst wenn man Funktionsweise und Kontext der am Fliegen beteiligten Techniken und physikalischen Zusammenhänge kennt, kann man Risiken rational abschätzen und begründen.
  2. Neben dem Mitfliegen als Passagier*in sind wir vom Fliegen betroffen, weil es in unserer Umwelt stattfindet und diese Umwelt teils massiv verändert. Darauf reagieren Menschen: Denken wir etwa an Flugscham, an Proteste bei Flughafen-Ausbauten oder an Lärmbeschwerden von Anwohner*innen in Flughafennähe. Nicht das Fliegen selbst wird hier als Bedrohung gesehen, sondern die Folgen und die Voraussetzungen des Fliegens werden als Bedrohung Umwelt und der eigenen Gesundheit wahrgenommen.

Ganz ähnlich ist unsere Beziehung zu Technik insgesamt. Wir sehen uns Technik gegenüber: Wir sitzen als klar abgegrenzte Akteur*innen im Flugzeug, vor dem Computer, wir halten die Bohrmaschine in der Hand, und so weiter. Systemtheoretisch ist das eine Leistungsbeziehung zwischen System und Umwelt. Technik ist Umwelt gesellschaftlicher Systeme, wie Wirtschaft, Politik und Wissenschaft, aber auch einzelner Nutzer*innen. Nach Niklas Luhmann ist die Leistung von Technik, Komplexität zu verringern. Technik wird von ihren Entwickler*innen so eingerichtet, dass sie diese Leistung in den als am wahrscheinlichsten angenommenen Situationen erbringen kann. Um Technik zu nutzen, müssen wir nur gewisse Grundkenntnisse erwerben und können ansonsten darauf vertrauen, dass die Technik unsere Erwartungen erfüllt (wir müssen freilich auch mit Enttäuschung dieses Vertrauens umgehen).

Die systemtheoretische Perspektive auf Nutzer*in und Technik passt gut auf Verhältnisse, in denen man als Beobachter*in unterschiedliche Systeme und ihre Umwelten klar voneinander abgrenzen kann. Schwierig wird es jedoch, wo diese klare Trennung schwer fällt. Künstlicher Intelligenz etwa stehen wir nicht als gewöhnliche Nutzer*in gegenüber wie einer Bohrmaschine oder einer Textverarbeitung. Womöglich wissen wir gar nicht, dass KI hinter einer erbrachten Leistung steckt.

Im Sommer 2019 füllte die „FaceApp“ kurzzeitig das journalistische Sommerloch. Damit können Sie das Foto eines Gesichts mit KI-Hilfe und Bildverarbeitung verändern, zum Beispiel aus einem jungen Mann einen weise aussehenden älteren Herrn zu machen. Oder aus einer jungen Frau eine nette, gütige „Oma“. Andere, technisch ähnliche Anwendungen, erlauben die Generierung fiktionaler Gesichter, die ebenfalls absolut lebensecht aussehen. Das erleichtert Identitätsbetrug.

Ein noch fiktives bedrohliches Szenario könnte die behördlich angeordnete Einschränkung Ihrer Bewegungsfreiheit sein, weil Sie laut KI-Prognose bald eine Straftat begehen werden, von der Sie selbst noch gar nichts wissen. Womöglich könnten Sie Widerspruch gegen die Entscheidung einlegen, hören dann aber nur die Antwort „Es tut mir leid, aber unsere Risiko-KI hat das so entschieden.“ Dann fühlen Sie sich so hilflos wie einst Josef K. in Franz Kafkas Roman „Der Prozess“ – einem System ausgeliefert, dessen Entscheidungen man nicht versteht und gegen die man nichts, aber auch gar nichts, tun kann.

So eine KI wäre zwar immer noch Umwelt der anderen Systeme, aber ihre Leistungen kämen eher einer Naturgewalt gleich statt einer kontrollierbaren Technik. Die KI würde eher Umweltkomplexität erzeugen statt sie zu verringern. Wer mag es einem Elon Musk da verdenken, dass er Menschen mittels Chip im Kopf die Möglichkeit geben will, einer KI quasi auf Augenhöhe zu begegnen?

Zum jetzigen Zeitpunkt ist das Hauptproblem an Musks Ansatz nicht die technische Machbarkeit. Es ist auch nicht die – philosophisch sicher spannende – Frage, ob ein Chip im Gehirn den menschlichen Geist erweitert, so wie es etwa Andy Clark und David J. Chalmers 2013 in ihrer Extended Mind Theory schon für einfache Techniken wie ein Notizbuch behaupteten (und ähnlich schon früher die Medientheorie Marshall McLuhans), oder ob Susan Schneider mit ihrer Selbstmord-These Recht hat. Wenn wir wirklich von KI bedroht sein sollten, ist das Hauptproblem derzeit, ob Musks Ansatz geeignet ist, das Problem zu lösen, oder ob es nicht auch einfacher geht.

Statt Gehirnchips: Verstehen und Intervention

Eine Alternative finden wir in der Forderung, in Bezug auf Digitalisierung eine „Code Literacy“ auszubilden (so Douglas Rushkoff in seinem Buch „Program or be Programmed“), also verstehen zu lernen, wie Computer und Algorithmen mit unseren Daten umgehen, damit wir mündige Nutzer*innen sein können. In Bezug auf KI denke ich dabei an drei Aspekte:

  • die Fähigkeit, zu erkennen, dass wir in einer bestimmten Situation von KI betroffen sind;
  • das Wissen darüber, was eine KI grundsätzlich tun kann oder nicht – wo also ihre realistischen Fähigkeiten und Grenzen liegen;
  • das Wissen darüber, was Menschen, die eine KI einsetzen, mit ihrer Hilfe tun können oder nicht.

Es geht, kurz gesagt, darum, die System-Umwelt-Verhältnisse der beteiligten menschlichen, gesellschaftlichen und technischen Systeme zu klären und die erwarteten und erbrachten Leistungen einzuordnen. Dann ist es möglich, Interventionsmöglichkeiten zu identifizieren und, anders als Josef K. in Kafkas Roman, KI nicht als mystische Macht wahrzunehmen, die irgendwo im Hintergrund lauert, sondern als Technik wie jede andere auch. Die Ausbildung dieser auf KI erweiterten Code Literacy führt zu einer Demystifizierung, die schon Max Weber in Bezug auf Wahrheitsansprüche gefordert hatte, und an die zu erinnern mir mittlerweile auch für das Alltagsleben geboten erscheint.

Aktuelle KI-Systeme sind lediglich mathematische Modelle, deren Einzelteile fast lächerlich einfach erscheinen können (z.B. das einzelne künstliche Neuron eines neuronalen Netzes). Nur dank der großen Zahl der Einzelteile (z.B. aller Neuronen des Netzes) und mehrfach wiederholter Berechnungsdurchgänge entstehen Ergebnisse, die mitunter selbst die Entwickler*innen überraschen. Aber es ist nach wie vor bloße Mathematik, und eine KI kann nicht, wie in der Science Fiction, auf geradezu magische Art über sich hinauswachsen. Entwickler*innen wählen Trainingsdaten aus, legen Aktivierungsfunktionen und Gewichtungen fest, markieren Ergebnisse als gewünscht, um eine Abbruchbedingung für die Berechnung zu haben, und entwickeln Algorithmen, die selbst bei KI-Systemen auf einer basalen Ebene existieren. Daher tut auch eine KI nur das, wofür sie programmiert wurde. Sie ‚trifft‘ keine eigenen Entscheidungen.

Die Verantwortung für Fehlentscheidungen tragen Menschen, und an die müssen wir uns bei Fehlentscheidungen wenden. Zu verstehen, wie KI funktioniert und zu was sie in der Lage ist (und wozu nicht), hilft dabei. Neben bereits bestehenden Arbeiten zur menschenfreundlichen Darstellung von KI-Entscheidungsprozessen wäre es wünschenswert, wenn die Modelle und Datenbasen einer KI einer Open-Source-Pflicht unterliegen würden. Darüber hinaus bedarf es gesellschaftlicher Organisationsformen als Entlastungsfunktion – zum Beispiel in Form spezieller Abteilungen in Unternehmen und Behörden, die unsere Widersprüche gegen KI-Entscheidungen bearbeiten und KI-Entscheidungen übersteuern können, sowie neutraler Schiedsstellen, an die wir uns wenden können, wenn eine andere Einigung nicht möglich ist. Ein zu erwartender Wegfall von Arbeitsplätzen durch KI muss gesellschaftlich bearbeitet werden – von Fortbildungsprogrammen bis hin zu Grundeinkommensmodellen (denn trotz Fortbildung wird nicht jede*r eine andere Tätigkeit finden), ebenso wie mögliche ökologische Folgen des Energieverbrauchs.

Dies wären Ansatzpunkte für eine menschliche Umgangsweise mit Herausforderungen von KI-Einsatz – zwar kritisch und durchaus der Gefahren bewusst, aber unaufgeregt und grundsätzlich technik-optimistisch. KI hingegen als quasi naturgegebene Macht anzusehen, der wir uns nur durch technische Aufrüstung im Gehirn erwehren können, kommt der Bekämpfung von Feuer mit Öl gleich. Neuralinks Produkt wäre für diesen Einsatzzweck eine Technik, die mehr Komplexität schafft als sie verringert, und zumindest in dieser Hinsicht widersinnig. Nicht nur aus Machbarkeitsgründen wäre es sinnvoller, den Fokus auf die viel naheliegenderen medizinischen Möglichkeiten solcher Chips zu legen, die Musk aber nur als Einstieg sieht.

Titelbild: chenspec / pixabay.com

Den Artikel habe ich zeitgleich in meinem Blog in der Freitag.de-Community gepostet.