Retro, aber kein altes Eisen: KC85-Entwicklung heute. Interview mit Mario Leubner

Über nostalgische Retro-Computer-Erfahrungen habe ich in Bezug auf Textverarbeitung schon hier und hier berichtet; letztes Jahr schrieb ich bei VSG.de außerdem einen Artikel über Retro-Programmiererlebnisse. Da ich in Ostdeutschland groß geworden bin, ist mein Bezugspunkt da nicht der bekannte Commodore C64, sondern der Kleincomputer KC85/3. Aber der KC und seine Software werden immer noch weiterentwickelt — auch 30 Jahre nach der Wende. Im Umfeld des KC-Clubs und des KC-Labors entstehen neue Betriebsssystem-Varianten, die mittlerweile auch Festplatten und USB-Sticks unterstützen, sowie Hardware-Zusatzmodule, mit denen sich u.a. Musik abspielen oder manche Internetdienste nutzen lassen. In den letzten Wochen habe ich zu dieser Thematik mit einem der aktivsten heutigen KC-Entwickler, Mario Leubner, ein E-Mail-Interview geführt.

Der KC85/4 war der letzte offiziell produzierte KC85 in der DDR. Inoffiziell wurde er in den KC85/5 weiterentwickelt. (Bild: Wikipedia)

Kannst du kurz sagen, wer du bist und warum du dich auch im Jahr 2022 (!) immer noch aktiv mit der Verbesserung des KC-Systems beschäftigst?

Die Computer haben mich bereits in den 1980er Jahren fasziniert. Damals habe ich mir die Radio-Sendungen von Prof. Dr. Horst Völz und Dr. Joachim Baumann auf Radio DDR II oder Jugendradio DT64 reingezogen und teilweise auch mitgeschnitten sowie sämtliches Begleitmaterial zu den Sendungen zuschicken lassen. Zu dem Zeitpunkt hatte ich noch nicht einmal einen KC. Die waren anfangs ja gar nicht zu bekommen und dann ziemlich teuer. Erst als sie von 4.600 (Ost-)Mark auf 2.150 Mark gesenkt worden sind, habe ich mir meinen KC85/4 gekauft.

Wie alt warst du damals denn?

Damals war ich 25.

Worin besteht heute die Faszination?

Was mich bis heute an dem KC85-System reizt, ist die universelle Erweiterbarkeit mit Modulen. Damit kann man einfach fast alles realisieren. Auch Sachen, die früher überhaupt nicht denkbar waren wie USB, Netzwerk oder Festplatte. Und dann kann ich sagen, dass ich inzwischen beim KC fast jedes Bit persönlich kenne 😉 und weiß, wofür es da ist.

Heutige Computer haben Taktfrequenzen im GHz-Bereich und riesige Speicherkapazitäten. So ein KC85 mit seinen 1,77 MHz Taktfrequenz, dem 8 Bit-Prozessor und 64 K Adressraum liegt davon Welten entfernt. Und dennoch kann man auf diesen alten Kisten wunderbare Sachen machen.

Das ist eben ein Hobby und das soll es auch bleiben, solange es mir Spaß macht.

Gerade du hast ja wirklich sehr viel gemacht: signifikante Updates für Betriebssysteme, Tools oder auch WordPro 6. Bist du mehr der Programmierer oder bastelst du auch an Hardware rum?

Eigentlich bin ich mehr der Programmierer. Ich mache aber auch gern einmal etwas Hardware. Denn beides gehört ja irgendwie zusammen. Was nützt das USB-Modul ohne dazugehörige Software?

WordPro 7 von Mario Leubner wird in Kürze veröffentlicht. Es ist ein Update von WordPro 6 (bis 2007) und eine umfangreiche Weiterentwicklung des originalen WordPro ’86 von Klaus und Stefan Schlenzig, dessen kompletter Quelltext ursprünglich in Buchform zum Abtippen vertrieben wurde.

Auf welches deiner Projekte bist du am meisten stolz und warum?

Das kann ich so nicht beantworten. Manchmal sind es auch kleine Dinge, die einem Freude bereiten.

Wirklich gut gelungen finde ich zum Beispiel die Treiberverwaltung im Grundgerät, während im D004/D008 das Betriebssystem CP/M läuft oder auch die Device-Umschaltung zwischen Kassette, Diskette oder USB seit CAOS 4.7.

CAOS 4.8 ist die neueste, 2021 erschienene, Version eines Betriebssystems aus den 1980ern. Im Emulator JKCEMU können neue Features wie Festplatten- und USB-Unterstützung auch ohne echten KC ausprobiert werden.

Neue Möglichkeiten

Dieses „CAOS“ ist das Betriebssystem des KC85 und steht eigentlich für kassettengestütztes Betriebssystem (Cassette Aided Operation System) – auch wenn mittlerweile die von dir erwähnten anderen Speichermedien unterstützt werden. Mit deiner im September 2021 veröffentlichten Version 4.8 (letztes Update: 01.01.2022) dürfte CAOS wohl auch eines der ältesten noch aktiv weiterentwickelten Betriebssysteme sein. Und die Textverarbeitung WordPro (bald Version 7) ist eine der ältesten noch aktiv entwickelten Anwendungen. Wird der KC85 denn noch für Alltagsaufgaben genutzt, die nichts mit KC-Entwicklung zu tun haben (schreiben, verwalten, Berechnungen durchführen)? Oder ist es halt vorwiegend der Spaß am Basteln und Ausreizen bzw. Erweitern der Möglichkeiten?

Für mich persönlich ist es mehr das Ausreizen der Möglichkeiten und der Spaß an der Freude. Aber gern auch einmal ein Spielchen zwischendurch oder, seitdem es das Soundmodul gibt, etwas Retro-Musik hören. Alltagsaufgaben sind für mich noch das Programmieren von EPROMs – aber das ist ja auch eher etwas für die KC-Entwicklung.

Mit der DEVICE-Umschaltung von CAOS 4.8 und dem komfortablen Laden/Speichern auf USB-Sticks macht das alles auch noch viel mehr Spaß, da die Ladezeiten sehr viel kürzer geworden sind.

Wie viel von der Rechenarbeit, die für das Abspielen von Musik oder für den Zugriff auf USB-Sticks nötig ist, macht der KC85 selbst und wie viel wird an spezialisierte Chips in den Erweiterungsmodulen ausgelagert?

Im Soundmodul befindet sich ein Programmierbarer Soundgenerator-Chip AY-3-8910 (PSG), so wie in vielen anderen (hauptsächlich westlichen) Heimcomputern auch. Der KC übernimmt dabei die Decodierung der Sound-Dateien und die Programmierung des PSG. Die Rechenleistung des KC reicht dazu parallel noch für eine recht ansprechende grafische Anzeige aus.

Im USB-Modul verrichtet die Kommunikation mit dem USB-Stick oder der Tastatur ein VNC1 bzw. VNC2 von FTDI. Hier schickt der KC nur die entsprechenden Befehle zum Lesen oder Schreiben der Daten an den Spezial-Chip.

Man kann durchaus sagen, dass in vielen Erweiterungsmodulen mehr Rechenleistung steckt als im KC-Grundgerät selbst.

Mario Leubners KC-Commander ist ein komfortables Tool zur Dateiverwaltung, das man in ähnlicher Form sonst nur von größeren Computern aus westlicher Produktion kennt.

Ebenfalls realisiert habt ihr das TCP/IP-Protokoll und FTP. Wäre es — vielleicht zumindest auf dem KC85/5 — denkbar, das HTTP-Protokoll oder das GEMINI-Protokoll zu implementieren?

Mittels FTP kann man KC-Programme direkt von einem Server aus dem Internet laden. Das ist durchaus eine sinnvolle Ergänzung. TCP/IP ist jedoch nicht so mein Fachgebiet. Aber was willst du auf dem KC damit anstellen?

Einen einfachen E-Mail-Client für Textnachrichten könnte ich mir noch vorstellen. Von GEMINI habe ich vorher noch nie etwas gehört. Wenn ich das richtig recherchiert habe, handelt es sich hierbei um ein Netzwerkprotokoll zum Abrufen von Text-Dokumenten über das Internet. Es nutzt dabei ausschließlich verschlüsselte Verbindungen, was schon wieder eine Herausforderung für den KC darstellen könnte. Das wäre aber auch mit FTP machbar.

HTTP(S) und dessen Hauptanwendung World Wide Web halte ich dagegen auf dem KC für nicht realistisch, denn heutzutage geht im WWW fast nichts ohne Grafiken und Animationen. Dazu ist die Bildschirmauflösung des KC einfach nicht ausgelegt.

Offenheit für Kreativität

Wie würdest du die „KC-Szene“ (wenn man das so nennen kann) beschreiben? Sind das Leute, die schon früher mit dem KC gearbeitet oder gespielt und halt einfach nie aufgehört haben – oder ist da auch viel von der aktuellen „Retro“-Welle dabei, die man auch bei anderen Computern sieht?

Ich denke, das ist eine Mischung unterschiedlicher Leute.

Zum einen kenne ich viele, die sich schon jahrelang mit dem KC befassen und zum Kern des KC-Clubs zählen.

Dann gibt es auch Leute, die früher einmal mit dem KC gearbeitet/gespielt haben und diesen gerade wieder neu entdecken oder ihren Kindern bzw. Enkeln zeigen wollen, wie früher die Computer waren.

Es gibt aber auch Neueinsteiger. Dabei Menschen, die wesentlich jünger als so ein KC sind.

Grundsätzlich könnte man bei den alten Computern auch noch eine Unterteilung in zwei Gruppen vornehmen. Die einen möchten die Geräte möglichst unverändert erhalten und defekte Geräte wieder in Ordnung bringen. Die anderen erweitern ihre Geräte auch mit neuer Technik. Die „KC-Szene“ würde ich größtenteils in der zweiten Gruppe sehen.

Hast du eine Idee, woran das liegen könnte?

Vermutlich an der bereits vom Hersteller in Mühlhausen vorgesehenen Erweiterbarkeit des KC-Systems.

CAOS 4.8 enthält auch einen vernünftigen Texteditor, der auch 80 Zeichen pro Zeile unterstützt. Die 80-Zeichen-Routine wurde erstmals 1986 in WordPro von Klaus und Stefan Schlenzig vorgestellt; WordPro wurde nach der Wende von Mario Leubner bis Version 6 weiterentwickelt und in Kürze soll Version 7 erscheinen.

Verstehe – das heißt, die recht offene Konzeption des KC-Systems motiviert besonders zum Basteln. Das ist heute ja oft nicht mehr gegeben. Geschlossene Systeme wie Tablets und Smartphones, oder kommerzielle Betriebssysteme wie Windows 11 oder macOS verstecken technische Abläufe eher, als dass sie zur aktiven Auseinandersetzung einladen würden. Stattdessen nimmt man als Einstieg in die Technik dann eher kleine Rechner wie den Raspberry Pi oder auch Arduinos. Aber der Z80-Prozessor wird ja heute noch in modernisierter Form hergestellt, und das Modulsystem des KC hat ja schon zu sehr kreativen Arbeiten geführt. Wäre ein modernisierter KC85 nicht eigentlich heute auch ein super Lernsystem?

Auf jeden Fall. Der Z80 bzw. dessen DDR-Nachbau U880 eignet sich hervorragend zum Erlernen von Computertechnik. Es gibt zum U880/Z80 auch sehr viele gute Literatur. Und wie ich bereits erwähnt habe, kann man beim KC noch alle Hard- und Software-Details verstehen und damit eben auch erklären. Zudem ist der KC hauptsächlich mit Standard-TTL-Bausteinen aufgebaut und die meisten sind bis heute noch erhältlich.

Wäre es möglich, mit heute erhältlichen Teilen einen KC nachzubauen?

Das ist sogar schon gemacht worden, siehe hier diesen Bericht im Forum von robotrontechnik.de.

Ich danke dir für das Interview und wünsche dir ein frohes Jahr 2022 mit hoffentlich schönen KC-Erlebnissen 🙂


Wer den KC85 mal selbst ausprobieren will, kann das am besten in Jens Müllers Emulator JKCEMU tun. Damit läuft auch das CAOS 4.8 von Mario Leubner.

Im Emulator JKCEMU kann man so gut wie alle Neuheiten der letzten dreißig Jahre ausprobieren. Und wünscht sich, das hätte es alles schon damals gegeben …

Und zu dem im Interview erwähnten KC85-Neubau gibt es bei YouTube dieses Video:

Zurück zu den Wurzeln: Gemini als kleiner ‚Zwilling‘ des Internets

Nicht nur wir bei Über/Strom leiden mitunter am digitalen Overload, wie es Uta gestern formuliert hat. Im Fokus unserer Kritik stehen oft Online-Konferenzen oder Social-Media-Dienste, wo es also um Kommunikation zwischen Menschen geht. Aber auch das World Wide Web (WWW) fühlt sich mitunter überladen an, was nicht nur an der vielen Werbung liegt. Was als Möglichkeit zum akademischen Austausch begann und in den Neunzigern noch gern als Realisierung von Vannevar Bushs Memex-Konzept (1945) gesehen wurde, ist heute Alltag — ein nie endender Strom von Texten, Bildern, Musik, Videos, in dem man sich leicht verlieren kann: Über/Strom eben. Eine bis heute existierende Alternative zum WWW, Gopher, hat auch wegen technischer Unzulänglichkeiten an Bedeutung verloren. An der Stelle stieg 2019 das Gemini-Projekt ein.

Minimalismus

Das Gemini Protocol ist ein Daten-Übertragungsprotokoll ähnlich dem Hypertext Transfer Protocol (HTTP), das dem WWW zugrundeliegt. Adressen fangen bei Gemini nicht mit http:// oder https:// an, sondern werden mit gemini:// eingeleitet. Normale Webbrowser verstehen das noch nicht, aber es gibt eine Menge spezieller Gemini-Browser.

Screenshot von Lagrange, einem Gemini-Browser für Windows, Linux und macOS

Der Name des Protokolls bezieht sich auf die US-amerikanischen Gemini-Raumschiffe (1961-1966). Gemini-Websites werden daher auch Kapsel / capsule genannt. Wie beim WWW wird ein Browser benutzt, um Gemini-Seiten zu betrachten (vgl. Screenshot oben). Wer sich keinen extra Browser installieren will, kann Gemini-Adressen auch über einen Proxy aufrufen, zum Beispiel https://proxy.vulpes.one — darüber können Sie sich zum Beispiel die Projektbeschreibung von Über/Strom auf unserer brandneuen Gemini-Kapsel anschauen (eventuell werden dort künftig als Experiment ausgewählte Artikel unserer Zeitschrift gespiegelt. Die Gemini-URL ist dann: gemini://ueberstrom.flounder.online ).

Statt der im WWW üblichen Auszeichnungssprache HTML (Hypertext Markup Language) oder gar komplexen Formatierungen mit CSS und für besondere Funktionen nötigen Skriptsprachen wie JavaScript besteht der Geminispace aus einfachen Textdateien, die lediglich mit wenigen Befehlen formatiert sein können. Das Format wird Gemtext genannt. Die Dateiendung ist .gmi statt .html.

Neben normalem Text erlaubt Gemtext Überschriften (maximal drei Ebenen), unnummerierte Listen (nicht verschachtelt), Blockzitate und vorformatierten Text — das war’s. Hyperlinks werden nicht innerhalb des Texts eingefügt, sondern separat als einzelne Zeile. Cookies, Formulare, eingebettetes Multimedia, also das ganze Zeug, das das WWW so vielfältig, aber auch so anstrengend macht, gibt es nicht.

Wie auf Zeitreise

Entsprechend liegt der mögliche Nutzen von Gemini vor allem im Präsentieren von Hypertexten im engeren Sinne. Ein guter Browser formatiert diese Texte so, dass sie angenehm lesbar sind. Gemini ist dahingehend quasi das Äquivalent zum distraktionsfreien Schreiben, wie es in diversen mittlerweile recht beliebten Markdown-Editoren wie Typora möglich ist.

Den mit derzeit ca. 209.000 einzelnen Seiten noch recht überschaubaren Geminispace zu erkunden, versetzt ein wenig zurück in die Anfangszeit des WWW — als das noch neu und aufregend war, als man nicht wusste, was sich wohl hinter dem nächsten Link verbirgt, und als noch keine großen Konzerne das Web dominierten. Daher gibt es auch noch etwas, das im WWW längst keine Bedeutung mehr hat: von Hand gepflegte Seitenverzeichnisse.

Klickt man sich da durch, findet man neben inoffiziellen Spiegelungen von Nachrichten-Websites vor allem eine Menge Seiten, auf denen Leute ihre Kochrezepte, Lieblingsbücher, Musikvorlieben, Linklisten und persönliche Tagebucheinträge teilen. Viele Kapseln sind sehr techniklastig, mitunter mischt sich darunter ein anti-kapitalistischer bis anarchistischer Vibe.

Sinnsuche

Das alles erinnert an die Frühzeit des Internet. Man fragt sich durchaus, welchen konkreten Zweck Gemini erfüllen soll und kann. Zwar lassen sich darüber Textdokumente ressourcensparend verteilen und lesen, und das kann aus klimatechnischer Sicht ein Argument sein. Aber den Ansprüchen unserer hyperkommunikativen Zeit, wo es oft nicht um den Text geht, sondern um die Reaktion darauf (Klick, Like, Share), wird das nicht gerecht. Und will es ja auch nicht. Auch ein „Darknet“ kann Gemini nicht werden, denn es ist ja öffentlich.

Wozu also?

Vielleicht einfach, „weil man es kann“. Weil Erschöpfung vom normalen WWW nicht bedeutet, ganz auf Vernetzung verzichten zu wollen. Und technischer Spieltrieb Ziele braucht. Inhaltlich erscheint der Geminispace aber vor allem als Versuch, sich diese seltsame Halböffentlichkeit zurückzuholen, die das WWW anfangs ausgezeichnet hat:

„Ich habe jetzt eine eigene Homepage!“

„Aha. Hast du schon Hausaufgaben gemacht?“

elementary OS 6 im Test: Freiheit für Minimalist*innen

Die Hoffnung auf „Linux auf dem Desktop“ ist nicht kleinzukriegen. Und so erschien am 10.08.2021 die Linux-Variante elementary OS in der nun schon sechsten Ausgabe. Durch bewusste Reduktion auf das Wesentliche verspricht elementary OS Einfachheit und Konsistenz. Aber wie gut funktioniert das im normalen Arbeitsalltag? Ich habe das System in einer Testversion bereits seit einigen Tagen auf meinem Schreib-Laptop im Einsatz. Hier sind meine Eindrücke von elementary OS 6 im Test.

Vorbemerkung

Wer sich aus Datenschutzgründen, intransparenter Produktkultur oder aus Prinzip nicht länger von großen Softwarefirmen abhängig machen will, hat zwar viel Auswahl, aber es trotzdem nicht leicht. Denn Windows (Microsoft) und macOS (Apple) sind im Heim- und Bürobereich Standard. Auch die großen Anwendungen im Bürobereich (Word, Excel, PowerPoint) und in der Medienbranche (Photoshop, InDesign, diverse DAWs, usw.) erscheinen nur für Windows und macOS. Freie Alternativen wie das in zig Varianten verfügbare Betriebssystem Linux sowie alternative Werkzeuge wie LibreOffice, Gimp, Scribus oder Ardour haben es schwer. Denn deren Nutzung setzt Neugier, Bereitschaft zum Verlernen alter Gewohnheiten und manchmal Bereitschaft zum Verzicht voraus.

Dieser Test richtet sich nicht an erfahrene Linux-Nutzer*innen; für diese gibt es Fachportale im Internet. Ich schreibe aus der Über/Strom-eigenen Perspektive, also für Menschen, die sich von der digitalen Gesellschaft schon das eine oder andere Mal gestresst fühlen, aber nicht grundsätzlich technikfeindlich sind. Personen, die ein modernes, auch optisch schönes und sicheres Betriebssystem möchten (ohne von großen Konzernen überwacht und gegängelt zu werden), die aber gleichzeitig nicht selbst Expert*in werden wollen.

Konkret geht es mir darum, ob elementary OS 6 mit seinen Versprechen von Einfachheit und Konsistenz für einen stressfreieren und sicheren Nutzungsalltag sorgen kann.

Ausprobiert habe ich elementary OS 6 auf einem gebrauchten ThinkPad T420 aus dem Jahr 2011, auf dem bis vor kurzem noch Windows 10 lief.


Übrigens: Am 17.08. erscheint mit Zorin OS 16 ein anderes Linux-Betriebssystem, das sich an Ein- und Umsteiger*innen richtet. Das schauen wir uns nächste Woche näher an.


Was ist elementary OS 6? Kurze Einordnung in die Linux-Welt

elementary OS ist ein Betriebssystem (Operating System, OS), ähnlich wie Windows oder macOS. Es sorgt also dafür, dass ein Computer überhaupt etwas tut.

Das System ist eine Variante der zahlreichen Linux-Betriebssysteme. Linux wird seit 1991 von Linus Torvalds entwickelt und ist konzeptuell dem noch viel älteren UNIX ähnlich (der Wikipedia-Eintrag zur Geschichte von Linux ist technikgeschichtlich sehr interessant). Linux war von vornherein als „freies“ Betriebssystem gedacht (frei wie in ‚Freiheit‘, nicht wie in ‚kostenlos‘, auch wenn viele Linuxe nichts kosten). Bekannte und traditionsreiche Linux-Distributionen sind zum Beispiel Slackware, Debian, openSUSE oder Fedora, es gab und gibt aber hunderte weitere. Eine Distribution ist der eigentliche Betriebssystemkern (Linux eben) plus eine Auswahl weiterer Programme. Manche Distributionen verlangen sehr viel technisches Wissen, andere richten sich an unerfahrenere Menschen.

Zu einigem Erfolg in dieser Kategorie hat es das auf Debian basierende Ubuntu gebracht, hinter dem seit 2004 die Firma Canonical steht. Canonical wurde vom ursprünglich aus Südafrika stammenden Unternehmer Mark Shuttleworth gegründet (übrigens jemand, der sich auch gut in einer Reihe mit Richard Branson, Jeff Bezos oder Elon Musk machen würde, denn Shuttleworth war 2002 der erst zweite Weltraumtourist und der erste Südafrikaner im Weltraum). Ubuntu hat viel dazu beigetragen, Linux aus der Nische der absoluten Hardcore-Nerds zu holen. Ein zeitweiliger Deal mit Amazon (bei der Suchfunktion wurden den Nutzer*innen Produktvorschläge angezeigt) brachte Ubuntu zwar viel Kritik und Shuttleworth 2013 den österreichischen Big Brother Award ein, aber die Funktion wurde 2016 abgeschaltet, und Ubuntu ist nach wie vor eine der wichtigsten Linux-Distributionen.

Regelmäßig werden neue Versionen von Ubuntu veröffentlicht, einige davon mit sogenanntem Langzeitsupport (Long Time Support, LTS), sodass man sicher sein kann, über mehrere Jahre hinweg mit Sicherheitsupdates versorgt zu werden. Unter anderem dies führte wiederum zu Varianten von Ubuntu (ja, der Stammbaum von Linux ist groß und verzweigt). Besonders beliebt ist seit einiger Zeit etwa Linux Mint. Aber auch kleinere Projekte gibt es, und elementary OS ist eines davon. Es entstand 2011 als eine eigene Distribution, die Ubuntu als (für Endnutzer*innen idealerweise unsichtbaren) Unterbau nutzt.

Wie wirkt elementary OS?

Bevor elementary OS eine Distribution wurde, war das Projekt als Elementary bekannt. Ziel war eine konsistente Sammlung von Programmen für Ubuntu. In der Designsprache orientierte man sich an Apples macOS. Und noch heute sind diese Wurzeln unverkennbar, wie der folgende Screenshot zeigt:

elementary OS 6 desktop
elementary OS 6

Ich würde nicht so weit gehen, zu sagen, dass alles wie Apple aussieht (und schon gar nicht so bedient wird), aber die Inspiration ist unverkennbar – wie auch die Liebe zum Detail ähnlich ist. Tatsächlich scheint sich das ganze System an Leute zu richten, die Wert auf Feinschliff legen und bereit sind, für ein konsistentes und elegantes Äußeres einige Kompromisse einzugehen.

Das Anwendungs- oder Startmenü zeigt standardmäßig eine alphabetische Symbolübersicht, die an Smartphones oder Tablets erinnert. Alternativ kann man es kompakter und in Kategorien sortiert anzeigen. Die Suchfunktion ist nichts weiter als die bekannte Tastenkombnation [ALT] + [F2]; sie findet Programme und kann einfache Matheaufgaben lösen, ist aber keine Volltextsuche.

An wen richtet sich elementary OS?

Elementary OS richtet sich an Menschen, die so wenig wie möglich mit dem Betriebssystem zu tun haben wollen. Es soll nicht kompliziert sein, es soll sicher sein, nicht ’nach Hause telefonieren‘, es soll ohne Aufwand gut aussehen und einen ansonsten in Ruhe lassen. Im Prinzip wären Apple-Nutzer die perfekte Zielgruppe, wenn da nicht noch das eingangs erwähnte Problem der fehlenden Standard-Anwendungsprogramme wäre.

Für Linux ist diese Ausrichtung aber Pro und Contra zugleich. Elementary OS ist auch in Version 6 nur in engen Grenzen an die eigenen Bedürfnisse anpassbar, zumindest dann, wenn man nicht in die Tiefen von Linux eindringen will. Wenn man das doch tut, dann kann man auch gleich eine der größeren Distributionen nutzen, die von vornherein mehr Auswahl lassen.

Nein, Elementary OS will genau so genommen werden, wie es ist, und es ist bewusst minimalistisch. Natürlich lässt sich das Hintergrundbild ändern, man kann einen Farbakzent auswählen und optional einen „Dark Mode“ aktivieren. Aber das war es fast schon. Im Fokus steht die eigentliche Nutzung des Computers, zum Schreiben, Surfen, Bilder bearbeiten, Musik hören, Programmieren und so weiter. Das Betriebssystem bleibt im Hintergrund und so der Faktor „Technik“ insgesamt.

Die Auswahl mitgelieferter Hintergrundbilder ist stilvoll und unterstützt wirkungsvoll das allgemeine Design.

Bewusster Verzicht, bewusste Wahl

Zumindest theoretisch. Denn in der Praxis braucht man eben auch nützliche Programme. Die unter Linux üblichen Anwendungen wie LibreOffice, Gimp, Inkscape oder Scribus sind zwar alle verfügbar. Aber nicht direkt nach dem Auspacken bzw. Installieren. Und wenn sie installiert sind, dann in deren je eigenen Designs, die sich nicht an die Vorgaben von elementary OS halten. Dann sind Farben, Symbole und Schriften dann doch wieder so vielfältig, wie unter Linux seit eh und je üblich.

Vielleicht aus diesem Grund ist das „App Center“ von elementary OS – quasi dessen App Store – anfangs noch sehr leer. Nur Programme, die sich an die recht strengen Gestaltungsrichtlinien des Systems halten und geprüft wurden, sind vorhanden. Leider sind das nur kleine Helferlein, aber nichts, mit dem man im Berufsalltag ernsthaft arbeiten könnte (außer, man ist Programmier*in; dafür ist der Texteditor Code recht brauchbar).

Das AppCenter von elementaryOS sieht wie ales im System sehr elegant und durchgestylt aus. Leider enhtält er zu Beginn nur eine sehr geringe Auswahl an einfachen Hilfsprogrammen. Aktualisierungen für installierte Programme sowie den Ubuntu-Unterbau lassen sich hier jedoch sehr einfach erledigen – bequemer als bei anderen Ubuntu-Derivaten.

Mehr Programme gibt es in sogenannten Flatpaks. Das ist eine seit einigen Jahren gebräuchliche Form, Linux-Programme so zu verbreiten, dass sie bequem installierbar und kein Sicherheitsrisiko sind. Jedes Programm läuft in seiner eigenen Sandbox und kann daher dem Rest des Systems nicht gefährlich werden.

Das AppCenter von elementary OS ist auf Flatpaks vorbereitet – aber dafür muss man zunächst ein einziges Mal ein Programm von der Website Flathub.org herunterladen und installieren. Dies schaltet dann die ganzen anderen verfügbaren Flatpaks im AppCenter frei.

Im Flathub gibt es viele bekannte Programme als Flatpaks. Wenn man hiervon eines installiert, sind danach all die anderen direkt im AppCenter erhältlich.

Als normale*r Nutzer*in, die*der sich nicht gerade in Fachforen rumtreibt, dürfte dies verwirrend sein, schließlich will man da einfach nur schnell eine brauchbare Anwendung zur Erledigung der je anfallenden Aufgaben haben. Das AppCenter könnte wenigstens einen Hinweis anzeigen, dass man auch mal im Flathub vorbeischauen sollte.

Wer als erfahrene*r Linux-Nutzer*in die traditionelle Art der Software-Installation bevorzugt (mittels eines sogenannten Paketmanagers), ist derzeit sogar auf das Terminal angewiesen. Da kommt man mit klassischen Befehlen wie sudo dpkg -i oder sudo apt-get install meist doch noch ans Ziel. Die so installierten Programme können anschließend auch über das AppCenter aktuell gehalten werden.

Traditionelle Programme im Debian-Paketformat .deb installiert man mit dem Konsolenbefehl dpkg. Eine grafische Paketverwaltung gibt es zurzeit nicht.

Man kann dies als unnötig komplizierte Einschränkung kritisieren, die dem Ziel der einfachen Verfügbarkeit vieler Anwendungen zuwider läuft. Oder man spricht positiv von einer ‚kuratierten Erfahrung‘, die bewusst auf eine große Auswahl verzichtet. Denn wo keine übertriebenen Wahlmöglichkeiten sind, da stellt sich auch keine diesbezügliche Überforderung ein.

Ungewohnte Bedienung

Auch elementary OS verwendet Fenster, die grundsätzlich ähnlich bedient werden wie in anderen Systemen auch. Allerdings etwas anders. Der Knopf zum Schließen liegt auf der linken Seite der Titelzeilen; auf der rechten Seite befindet sich ein Knopf zum Vergrößern auf Vollbild. Einen Knopf zum Minimieren gibt es nicht – stattdessen muss man entweder das Programmsymbol im Dock am unteren Bildschirmrand anklicken oder die Tastenkombination [SUPER] + [H] drücken (die Super-Taste ist auf PCs die Windows-Taste). Das ist ungewohnt, aber man gewöhnt sich daran schnell.

Eine Übersicht zu weiteren Tastenkombinationen wird durch alleiniges Drücken von [SUPER] angezeigt. So kann man den Umgang mit Fenstern, mehreren Desktops (Arbeitsflächen), Screenshots oder auch mit der Bildschirmlupe einfach mal ausprobieren. Wer nicht auf Tastaturkürzel steht, kann teilweise auch Mausgesten verwenden, oder die Maus in eine der vier Bildschirmecken bewegen. Dort können dann auch diverse Aktionen ausgelöst werden. Solche Optionen gibt es aber auch in anderen Linux-Varianten.

Auf dem Schreibtsch (Desktop) lassen sich keine Dateien und Ordner anlegen. Er dient wirklich nur als Hintergrund, vor dem die gerade aktiven Fenster angezeigt werden. Dem liegt offenbar das Konzept des ‚minimal desk‘ zu Grunde, nach dem auch auf einem echten Schreibtisch nur die gerade relevanten Aufgaben zu sehen sein sollten, aber kein ‚kreatives Chaos‘ herrschen und auch kein Missbrauch als Ablageort.

Wie arbeitet es sich mit elementary OS?

Wenn der Reiz des Neuen verflogen ist, kann man mit elementary OS ganz normale Büroarbeiten erledigen. Das ist ja letztlich das, was ich den ganzen Tag mache – schreiben, kommunizieren und ab und an programmieren. Halt ‚Irgendwas mit Medien‘ 😉 Das tue ich nun schon seit Sonntag Nachmittag und fühle mich dabei recht wohl.

Leider sind die mitgelieferten Programme für E-Mail und Web nicht optimal. Das E-Mail-Programm synchronisiert zeitweise nicht mit dem Server und der Browser ist ziemlich träge. Und mit dem überladenen LibreOffice bin ich ohnehin noch nie ganz glücklich geworden. Doch in wenigen Minuten hatte ich mir Flatpak-Alternativen im AppCenter oder per dpkg-Befehl eingerichtet.

Als Word-, Excel- und PowerPoint-Ersatz habe ich SoftMaker Office 2021 gekauft (das sieht zwar optisch nicht aus wie elementary OS, kann aber Microsofts Office-Dateien fast perfekt lesen und schreiben). Als Grafikprogramm nutze ich wieder mal Gimp (das benutze ich sowieso seit dem Jahr 2004, egal welches Betriebssystem). Als E-Mail-Programm habe ich Mozilla Thunderbird entstaubt (nicht gerade hübsch, aber funktioniert immer noch so gut wie früher). Nur als Browser, tja, da verwende ich die Linux-Version von … Microsoft Edge (ein Paradoxon für sich, aber da ich auf dem großen Windows-PC und dem Android-Tablet ebenfalls Edge nutze, will ich auf die Synchronisierung von Lesezeichen usw. nicht verzichten).

Bei Kalender und Aufgabenliste ist nichts Besonderes dabei. Und das ist keine Kritik.

Einschränkungen gibt es bei der Wiedergabe vieler Videoformate mit dem Standard-Videoprogramm. Zum Beispiel wurde selbst bei selbst aufgenommenen mp4-Videos (2016 bis 2019 mit dem Smartphone) nur der Ton abgespielt. Ich habe aus der Flatpak-Auswahl dafür das Programm Celluloid installiert, alternativ stünde auch der bekannte VLC-Player zur Verfügung. Die Streaming-Portale Netflix und Amazon Prime funktionieren nur mit Googles Chrome-Browser, aber nicht mit Edge oder gar dem Standardbrowser. Das ist etwas schade, aber da kann das Betriebssystem nichts für.

Lästige Fehler

Leider ist elementary OS 6 noch nicht so stabil, wie es gerne wäre. Ich habe beim Testen und im nun täglichen Gebrauch diverse lästige Bugs gefunden. Beispielsweise lässt sich der Laptop nicht stabil aus dem Ruhezustand wecken: Zwar kann man sich einloggen, aber der Bildschrim bleibt danach dunkel, nur die Maus ist zu sehen und kann bewegt werden. Ich habe deshalb momentan jegliche Ruhezustands-Funktionen abgeschaltet.

Ein anderes Problem: Das systemweit ausgeschaltete Bluetooth schaltet sich immer wieder ein, wenn man den Bildschirm sperrt und sich danach wieder anmeldet. Das ist aber eher lästig; ein einfacher Mausklick schaltet es wieder aus.

Einige Nutzer*innen in Foren berichten davon, dass sich das System gar nicht erst installieren lässt, v.a. wenn man es parallel zu einem bereits vorhandenen Betriebssystem testen will. Ich selbst habe es einfach meine ganze Festplatte formatieren lassen, das machte keine Schwierigkeiten. Aber wer elementary OS erstmal nur als Zweitsystem testen will, muss sich mit Linux bereits auskennen – die Zielgruppe wird hier momentan noch verfehlt.

Fazit

Elementary OS 6 kann auf der Website des Projekts, elementary.io, heruntergeladen werden. Nach dem Motto „Zahl, wie viel du willst“, bittet das Team um eine Spende, man kann aber auch 0 eingeben und das System kostenlos erhalten. Eine Installationsanleitung gibt es auch.

Grundsätzlich ist elementary OS 6 ein schönes, übersichtliches und gut nutzbares System. Durch den bewussten Minimalismus kommt man nicht in Versuchung, Ewigkeiten mit der Suche nach der perfekten Konfiguration zu verbringen. So kann man auch nur schwer irgendetwas kaputt machen.

Sicherheits- und Programmupdates gehen schnell und schmerzlos über die Bühne. Durch Ubuntu 20.04 (Long Time Support-Version) als Basis wird das System auch bis 2025 unterstützt. So ist man eine ganze Weile sicher vor Update-Stress.

Schattenseite ist, dass die Programmauswahl am Anfang künstlich begrenzt wird (so lange, bis man von flathub.org das erste Programm installiert hat) und dass einige Fehler den sonst so guten Eindruck trüben.

„Algorithmen werden erst verständlich, wenn man sie durch die menschliche Linse betrachten kann.“ Interview mit Anna Lena Schiller von Unding.de

Was tun, wenn ein Computer-Algorithmus eine Entscheidung trifft, die unser Leben beeinflusst? Wenn die Buchung des Corona-Impftermins nicht klappt, weil die Software in Arztpraxen und Behörden dafür nicht geeignet ist? Der wichtige Kredit abgelehnt wird, weil die SCHUFA aus intransparenten Gründen die Kreditwürdigkeit als zu gering einstuft? Oder ein Fotoautomat in Behörden nur für ‚weiße‘ Menschen funktioniert? Bei Firmen und Behörden selbst gegen falsche oder fragwürdige automatisierte Entscheidungen vorzugehen, ist oft aussichtslos, denn die menschlichen Ansprechpartner*innen können selbst oft nicht sehen, warum eine Entscheidung getroffen wurde — geschweige denn, diese übersteuern. Da fällt es schwer, Technik zu vertrauen. Das Unding-Projekt der Organisation AlgorithmWatch will hierbei helfen. Im E-Mail-Interview erklärt Unding-Managerin Anna Lena Schiller, wie das genau funktioniert und warum wir uns alle mit den Auswirkungen von Algorithmen befassen sollten.

Die Startseite von Unding.de

Können Sie bitte am Anfang kurz sagen, was das Unding-Projekt ist und wer die Macher*innen sind?

Unding ist die Anlaufstelle für Menschen, die durch automatisierte Entscheidungen benachteiligt oder diskriminiert worden sind. Dahinter steht die Organisation AlgorithmWatch, die sich seit 2016 dafür einsetzt, die Auswirkungen von automatisierten Entscheidungen auf die Gesellschaft zu beobachten und darüber zu berichten.

Das Projekt ist entstanden, weil uns aufgefallen ist, dass viele Firmen nicht verantwortlich sein wollen für die Auswirkungen ihrer Software. Die wenigen Beschwerdewege, die es gibt, sind entweder intransparent oder funktionieren gar nicht. Gleichzeitig gibt es keine unabhängigen Stellen, die Betroffenen helfen. Die Lücke wollen wir mit Unding schließen.

Wie muss man sich die offiziellen Beschwerdewege bei Firmen vorstellen? Sind das Kontaktformulare oder E-Mail-Adressen? Und antworten da dann einfache Servicekräfte, die selbst gar keine Befugnisse haben?

Die offiziellen Beschwerdewege gleichen meist Labyrinthen. Man schickt eine Nachricht über ein Online-Formular, und wenn man Glück hat, bekommt man eine Antwort aus Textbausteinen zurück. Wenn es schlecht läuft, versackt die Anfrage einfach irgendwo im Internet und man ist auch nicht schlauer als vorher. Wahrscheinlich nur noch genervter.

Bei öffentlichen Stellen wir Behörden sieht es etwas besser aus. Dort gibt es oft eine E-Mail oder sogar eine*n direkte*n Ansprechpartner*in. Vielleicht sogar eine Telefonnummer.

So oder so, es fühlt sich für viele nach einer ewigen Odyssee an, Ausgang ungewiss. Man könnte fast das Gefühl haben, Feedback sei gar nicht erwünscht. Wie immer, Ausnahmen bestätigen die Regel. Es gibt sicher auch gute Beschwerdewege und Mitarbeiter*innen, die helfen, die Probleme anzugehen.

Wie geht Unding vor, wenn man Sie einschaltet? Schreiben Sie die Unternehmen an? Und was erhalten Sie dann als Antwort? Oder gehen Sie andere Wege?

Aus der Nutzer*innen-Perspektive läuft das so ab: Man wählt ein Problem und wird durch einen Dialog geführt, der möglichst einfach als Chat dargestellt ist. Dadurch wird das Problem eingegrenzt und am Ende ein Anschreiben generiert. Das wiederum kann der*die Nutzer*in direkt an die verantwortliche Stelle schicken. Geht eine Antwort ein, wird man von Unding benachrichtigt und kann die Antwort auch gleich bewerten. Kommt nichts zurück, hakt Unding automatisch bei den Firmen nach.

Ein Problem bei Unding zu melden, ist sehr einfach. Über Hinweise zu neuen Problemkategorien freuen sich die Macher*innen sehr.

Sind Sie da auch auf die von Ihnen erwähnten offiziellen Kanäle angewiesen, oder gehen Sie da anders vor?

Die Technologie hinter Unding basiert auf E-Mail-Verkehr. Wir recherchieren für jeden Falltyp die richtigen Adressaten (Firmen, Behörden etc.) und die E-Mails gleich dazu. So umgehen wir zumindest die Schleife aus Online-Formularen, die man sonst oft bei Beschwerden verwenden muss. Es kann natürlich sein, dass auch von offiziellen E-Mails keine Antwort zurückkommt. Aber auf Unding kann man es im Gegensatz zu Formularen transparent machen, ob und wann eine Antwort eingegangen ist und wie nützlich sie für die Nutzer*innen war.

Für die Zukunft ist geplant, dass wir Bewertungen, Antwortzeiten und Anzahl der Beschwerden in einem Dashboard anzeigen können. Dadurch lässt sich dann einfach nachvollziehen, wie verantwortlich Firmen mit solchen Beschwerden umgehen. Und je mehr Bewertungen wir öffentlich machen können, desto mehr Druck kann Unding auf die Verantwortlichen ausüben, am Problem an sich etwas zu ändern.

Außerdem wollen wir die Unding-Technologie auch anderen Organisationen zugänglich machen, die Kontakt zu Betroffenen haben. Wir stellen uns z.B. vor, dass man direkt über Webseiten der Unding-Partner Fälle melden kann.

Und zu guter Letzt planen wir auch Nicht-Betroffene mit einzubeziehen. Zum Beispiel durch Umfragen, Datenspenden oder Crowd-Recherchen, in denen sich die Erfahrungen der Menschen mit automatisierten Entscheidungen und Algorithmen widerspiegeln.

Wie funktioniert das Nachhaken von Unding bei den Firmen?

Das Nachhaken funktioniert auch automatisch. Das System schaut, wo noch keine Antwort eingegangen ist, und verschickt dann ohne Zutun eine Erinnerungsmail an die Adressaten.

Arbeiten Sie mit Verbraucherschutzorganisationen oder Anwält*innen zusammen?

Wir arbeiten momentan an einem Partner*innenprogramm, dass wir ab Herbst 2021 umsetzen wollen. Wir möchten gerne schneller und direkter mit Betroffenen in Kontakt kommen. Und dafür sind etablierte Akteure und Organisationen natürlich sehr hilfreich, weil die oft schon in Verbindung stehen mit solchen Personen.

Da die Falltypen bei uns thematisch sehr vielfältig sind, halten wir momentan breit Ausschau nach potenziellen Partner*innen, die mit Unding kooperieren möchte. Wer sich hier angesprochen fühlt und Interesse hat, soll sich sehr gerne bei mir melden! Verbraucherschutzorganisationen oder Anwält*innen natürlich eingeschlossen.

Bisher kann man bei Ihnen Probleme mit der Google-Vorschlägen, der SCHUFA, rassistischen Fotoautomaten, Probleme bei der Impfterminvergabe in Berlin und unsinnigen Routen von Navigationssystemen melden.  Wovon hängt es ab, ob ein „neues“ Unding aufgenommen werden kann?

Es gibt zwei Wege, neue Undinge aufzuspüren: entweder über unsere Recherche (da hilft AlgorithmWatch als Mutterorganisation mit viel Erfahrung und Wissen), oder über Hinweise von Nutzer*innen, die in den letzten Monaten auch schon fleißig eingegangen sind.

Dann fragen wir, ob das Problem skalieren kann. Betrifft es möglicherweise viele Menschen? Dann hat es das Potenzial zum Unding.

Wichtig ist auch noch, ob wir die Story dahinter erzählen können. Warum ist das ein Problem? Wen betrifft das? Was sind die Auswirkungen? Algorithmen werden oft erst verständlich, wenn man sie durch die menschliche Linse betrachten kann.

Können Sie ein Beispiel für so eine „Story“ geben? Etwas, wo ganz prägnant wird, wie jemand unter falschen Algorithmen- oder Prozessauswirkungen Nachteile erleiden musste?

Zwei Beispiele fallen mir da aus Recherche für Unding ein.

Das erste wäre Thieshope, ein kleiner Ort in Niedersachsen. Ich nenne es manchmal auch das Gallische Dorf der Navi-Ära. Thieshope hat das Pech, gleich an der A7 zu liegen. Und in unmittelbarer Nachbarschaft auch noch die A1 und die A39 zu haben. Wenn man in solch einem Autobahndreieck wohnt, lernt man schnell die Nachteile von Navigationssystemen kennen. Gibt es einen Stau auf der Autobahn, dann bieten die Navis alternative Routen an. Das Problem dahinter: Es wird nicht immer die offizielle Umleitung angezeigt, sondern der kürzeste Weg zum Ziel. Und der führt oft durch solche Orte wie Thieshope, die auf Autobahn-Blechlawinen von LKWs und PKWs gar nicht ausgelegt sind. Das führt zu Lärmbelästigung und Ärger bei den Anwohner*innen vor Ort. Es ging sogar einmal so weit, dass die Polizei einschreiten musste, weil die Anwohner sich mit den Autofahrern angelegt haben.

Ort wie Thieshope gibt es zu Dutzenden, wahrscheinlich Hunderten in Deutschland. Und wir wollen mit Unding die Menschen unterstützen, sich gegen die Benachteiligung zu wehren. Wer also das gleiche Problem vor Ort hat, bitte melden.

Das zweite Beispiel dreht sich um Fotoautomaten in Behörden. 2015 kam es zum ersten Mal ans Licht der Öffentlichkeit, dass manche dieser Fotoautomaten, die in Ämtern aufgestellt sind, Schwarze Menschen nicht erkennen. Das war leider kein Einzelfall, denn in den Jahren darauf hörte man immer wieder von solchen Vorkommnissen. Zum Beispiel erging es auch Audrey K. so. Deren Geschichte haben die Zeit und die taz sehr gut aufbereitet. Sie wollte in der Führerscheinbehörde Hamburg ein biometrisches Foto von sich machen, aber der Automat erkannte ihr Gesicht nicht. Die von Menschen mit hellerer Haut allerdings schon. Auch in Fotoautomaten und Bild- bzw. Gesichtserkennung steckt Software. Und die kann wie in diesem Fall diskriminieren, wenn die dahinter liegenden Daten nicht repräsentativ genug sind.

Gibt es Ihrer Erfahrung nach genügend Bewusstsein in der Gesellschaft darüber, dass wir von automatisierten Entscheidungen, Algorithmen, KI-Einstufungen usw. betroffen sind, oder merkt man das meist erst, wenn es einen selber mal trifft?

Genügend Bewusstsein? Ein klares Nein. Automatisierte Entscheidungen sind ja auch nicht per se schlecht. Und wenn Digitalisierung unser Leben bequemer macht, dann zweifeln wir das in den seltensten Fällen an.

Routingsoftware z.B. kann den Alltag ungemein erleichtern. Aber es hat eben auch seine Schattenseiten, wenn LKWs kleine Dorfstraßen verstopfen und man in der Fahrradstraße nicht mehr durchkommt, weil alles voll mit Autos ist, die dort per Software hin navigiert wurden.

Oder die Routingsoftware das Auto in den See lotst – wobei man da wohl auch hinterfragen muss, bis zu welcher Stelle man dem dann noch vertrauen würde

Gesellschaftlich fehlt uns noch der differenzierte Blick auf die Auswirkungen von Algorithmen. Vorteile und Nachteile gleichzeitig sehen, die Ambivalenz von Technologie aushalten, nicht dem Glauben an die Neutralität der Software verfallen, automatisierte Systeme erkennen und hinterfragen. Das sind Kompetenzen, die wir uns gesellschaftlich aneignen müssen, um souverän mit Algorithmen umgehen zu können.

Sind Politik und Verbraucherschutzorganisationen hier bereits genügend sensibilisiert? Gerade letztere sind ja die traditionellen Anlaufstellen, wenn Verbraucher*innen Probleme mit Firmen haben.

Das Thema haben sowohl die Politik als auch der Verbraucherschutz auf dem Zettel. Ich würde die Antidiskriminierungsstellen auch noch dazu zählen. Aber es bräuchte Unding ja nicht, wenn das alles schon rund liefe. Ein Grund dieses Projekt zu starten war, dass die Auswirkungen von algorithmischen Entscheidungssystemen noch nicht hoch genug auf der Agenda dieser Akteure stehen. Oft braucht es mehrere Punkte, die Druck ausüben. Verbraucher*innen, Diskriminierte und Betroffene, zivilgesellschaftliche Organisationen und Verbände.

Wir versuchen unseren Teil dazu beizutragen, damit das Thema stärker in den Fokus gerät. Um breiter wirken zu können, wollen wir das gerne mit anderen im Verbund machen. Dazu das bereits erwähnte Partner*innenprogramm. Und natürlich sprechen wir in diesem Rahmen u.a. auch mit dem Verbraucherschutz und Politiker*innen.

Wie kann man Menschen, die sich nicht beruflich oder aus persönlichem Interesse mit der Problematik befassen, ihre eigene Betroffenheit bewusst machen?

Gute Frage! Ich teste das immer an meinen Eltern. Die sind so halb-digital und nutzen Chat-Apps und Online-Banking, aber Algorithmen sind dann doch nicht mehr auf ihrem Radar. Ich versuche Beispiele zu finden, die sehr nah an deren Alltag sind. Zum Beispiel warum ältere Menschen oft automatisch bei Krediten abgelehnt werden. Oder ganz aktuell: wie die Impfterminvergabe durch Algorithmen beeinflusst wird. Und was dabei schieflaufen kann.

Die größte Herausforderung für „Normalos“ ist dabei, überhaupt zu erkennen, wo automatisch entschieden wurde und wo nicht. Das sieht man ja nicht immer so einfach von außen. Wenn ich mich z.B. auf einen neuen Job bewerbe – woher kann ich wissen, ob mein Lebenslauf von einem Programm ausgelesen wurde und ich deshalb die Stelle (nicht) bekommen habe? Oder steckt da doch ein Mensch dahinter? Oder beides?

Um den KI-Blick zu schulen, braucht es Beispiele, Geschichten und immer wieder Aufklärung. Meine Mutter schneidet mir inzwischen Artikel aus ihrer Tageszeitung aus, in der es um Algorithmen geht. Das finde ich eine wunderbare Übung. Falls sie dann wirklich mal Algorithmen-Opfer werden sollte, merkt sie das dadurch hoffentlich schneller. Und kann ihren Fall gleich auf unding.de melden.

Sie haben schon AlgorithmWatch erwähnt – worin besteht da ihr Arbeitsalltag? Auf der Website werden verschiedene Projekte genannt – kann man sich das so ähnlich wie Forschungs- und Entwicklungsprojekte an Unis oder Forschungseinrichtungen vorstellen? Oder betreibt AlgorithmWatch v.a. journalistische Arbeit? Und steht auch Bildungsarbeit (in Schulen, Unis, Volkshochschulen) auf Ihrem Programm?

AlgorithmWatch hat mehrere Säulen. Ich beschreibe die Organisation mal aus dem Blick meiner Rolle als Unding-Projektmanagerin, dann ist es vielleicht am besten nachzuvollziehen.

Anna Lena Schiller ist bei AlgorithmWatch für Undinge zuständig (Foto: Julia Bornkessel, CC BY 4.0)

Zuallererst darf ich mich ums große Ganze kümmern. Mit anderen zusammen die Strategie für Unding bauen, und davon Maßnahmen ableiten, wie das Partner*innenprogramm. Die Umsetzung liegt dann ebenso in meiner Verantwortung. Das macht Spaß, denn so habe ich direkt Einfluss auf die Entwicklung des Projekts.

Dann hat AlgorithmWatch noch Softwareentwickler. Die sind immens wichtig, denn einige unserer Projekte, wie z.B. Unding, sind eine konkrete digitale Dienstleistung, die erstmal gebaut werden muss.

Unding soll natürlich auch bekannt gemacht werden, z.B. über Öffentlichkeitsarbeit, wie dieses Interview hier, aber auch Betreuung von Unding-Social Media-Kanälen. Dafür spreche ich mich mit der PR-Abteilung ab, die übergreifend alle Projekte betreut.

Dann wäre noch die Frage, wie wir auf neue Fälle für Unding kommen. Das geht über unsere Journalisten, die die Hintergründe recherchieren und aufbereiten. Gerade heute habe ich einen Hinweis über verunglückte Automatisierung bei einer Jobplattform erhalten. Da recherchiert der Kollege jetzt weiter.

Unsere Policy- und Advocacy-Abteilung beobachtet, was politisch passiert. Das Team formuliert dafür z.B. Forderungen zur Regulierung von Automated Decision Making? Wir überlegen aber auch, ob Policy-Entwicklungen wie das neue KI-Gesetz Auswirkungen haben, auf die wir mit Unding antworten können.

Zu guter Letzt gibt es noch den wissenschaftlichen Teil. Der ist bei Unding nicht so ausgeprägt, bei anderen Projekten dafür wesentlich stärker. Wir arbeiten in einem internationalen Netzwerk mit Wissenschaftler*innen, Universitäten und Forschungsorganisationen zusammen.

Bildungsarbeit kommt auch immer mal wieder vor, z.B. durch Anfragen von Bildungsinstitutionen für Workshops oder Paneldiskussionen.

Kann man abseits von Geldspenden und als Tippgeber*in bei AlgorithmWatch aktiv werden?

Wir veröffentlichen gerade ein neues Produkt namens Dataskop. Dabei geht es auch um Spenden, allerdings nicht finanzieller Natur, sondern Datenspenden. Den Ansatz der Datenspende haben wir jetzt in mehreren Projekten erfolgreich ausprobiert (z.B. OpenSchufa). Dieses Mal geht es um YouTube-Daten und ganz konkret um die Videoempfehlungen rund um die Bundestagswahl. Auch mit Unding sind Datenspenden geplant.

Wer sich gerne in die Richtung engagieren möchte, kann dafür den AlgorithmWatch-Newsletter abonnieren – und bekommt rechtzeitig Bescheid zu neuen Initiativen. Darüber hinaus freuen uns über alle, die uns längerfristig mit Dauerspenden fördern wollen.

Und natürlich Undinge melden!


(Titelbild: local_doctor / Shutterstock.com)

Bald: „Du bist, was Dich stresst! Tabula Rasa für chronisch Gestresste im digitalen Zeitalter“ (Band 3 der Über/Strom-Buchreihe)

Dass unser digitales Zeitalter ganz schön anstrengend sein kann und Stress verursacht, ist keine Neuigkeit mehr, aber immer noch eine Herausforderung für den persönlichen Umgang mit digitalen Medien. Wie viel davon möchten wir uns selbst zumuten, wie hilfreich oder hinderlich sind Twitter, LinkedIn, Blogs & Co. für unser Wohlbefinden, und was tun wir, wenn wir wie gefangen von Stresserfahrungen sind? Dieses Problems nimmt sich die Neurobiologin und Über/Strom-Autorin Dr. Kathrin Marter in ihrem in Kürze erscheinenden Buch „Du bist, was Dich stresst! Tabula Rasa für chronisch Gestresste im digitalen Zeitalter“ an.

Cover von „Du bist, was Dich stresst! Tabula Rasa für chronisch Gestresste im digitalen Zeitalter“ von Kathrin Marter (erscheint 2021)

„Du bist, was Dich stresst!“ ist der 3. Band der Über/Strom-Buchreihe. Nachdem in Band 1 Uta Buttkewitz das Phänomen der kontaktlosen, aber trotzdem stressenden Nicht-Kommunikation in digitalen Medien untersucht hat, und ich in Band 2 eher eskapistische Auswege im Computerspiel suchte, widmet sich Kathrin nun der Frage, wie wir das Problem des Stresses der digitalen Zeit direkt am Schopfe packen.

Ein paar Wochen dauert es noch, bis alles gesetzt und gedruckt ist (und ich bin sehr freudig aufgeregt 😀 es ist so schön, wenn ein Projekt wächst und fertig wird), aber hier ist schon mal der Klappentext:

Viele Menschen nutzen täglich die Vorteile des digitalen Zeitalters: wenn sie mal eben ihr Zugticket mit dem Smartphone buchen, sich von ebendiesem zum vereinbarten Treffpunkt navigieren lassen und dann per Textnachricht erfahren, dass die werten Kolleg*innen ein paar Minuten zu spät kommen, der Tisch im Restaurant online schon reserviert wurde und das „Tisch-Ticket“ per QR-Code gleich mitsenden. Viele Menschen erfahren sich bei aller Erleichterung zunehmend reizüberflutet, überfordert und in der Folge gestresst.

Der Begriff und Zustand „Stress“ (heutzutage im Sprachjargon als diffus definierter Normalzustand verankert und schon lange in der Mitte der Gesellschaft angekommen) ist allerdings tatsächlich ein Zustand, der vielfältigen Leidensdruck verursacht und krank macht.

Die Autorin unterstützt allgemeinverständlich, anschaulich sowie naturwissenschaftlich und psychologisch fundiert bei der Auseinandersetzung mit Stress, Stressoren und Prozessen der Langzeitgedächtnisbildung. Letztere sind nicht unwesentlich an unserem chronischen Stresslevel beteiligt. Langzeitgedächtnisse, die, häufig schon in der Kindheit geformt, starke negative Glaubenssätze beinhalten. Diese negativen Glaubenssätze erfahren durch die Herausforderungen der digitalen Welt permanente Verstärkung und begünstigen dadurch chronischen Stress – mit seinen für viele Menschen spürbaren Folgen.

Das Buch lädt ein, klärt auf und gibt fundierte, anschauliche und handlungsorientierte Ansätze zur Selbstreflexion und Entwicklung einer gesunden Handlungskompetenz gegenüber dem eigenen Stresslevel, folglich der eigenen Gesundheit und dem eigenen Glück.

Windows 11 und das Problem fehlender Technik-Transparenz

Microsofts kommendes Windows-Update „Windows 11“ war in technikaffinen Medien zuletzt häufig Thema. Unter anderem, weil Microsoft eher undeutlich kommuniziert, auf welchen Computern das Betriebssystem überhaupt funktioniert und so implizit nahelegt, sicherheitshalber Geld für neue Hardware auszugeben. Aber Windows 11 steht auch stellvertretend für einen jahrelangen Trend zu immer mehr Abgeschlossenheit von Computern. Bei GameStar Plus (leider Paywall) hat Georg Löschner einen sehr guten, etwas sarkastischen Kommentar geschrieben, der auf den Punkt bringt, was das Problem bei den Produkten großer Computerkonzerne heute ist: Konzerne wie Microsoft und Apple stellen nur noch hübsche, glattgebügelte Oberflächen bereit, die kaum noch echte Eingriffe seitens der Nutzer*innen zulassen.

Die zunehmende Abgeschlossenheit von Computern bei ihrer gleichzeitig immer größeren Verbreitung in verschiedenen Formen ist ein Problem, das auch bei Über/Strom immer wieder Thema ist, und mit dem ich mich seit Jahren befasse. In meinem Buch „Nutzerverhalten verstehen – Softwareenutzen optimieren“ schreibe ich:

„Transparent gegenüber Nutzer∗innen ist Software, wenn Nutzer∗innen jederzeit die Möglichkeit haben, sich über Hintergründe und Aktivitäten der Software in der aktuellen Situation sowie über das Zustandekommen der Berechnungs- oder Verarbeitungsergebnisse zu informieren. Die undurchsichtige Blackbox Software soll also ein Stück weit transparent gemacht werden.“ (S. 18).

Diese Art von Transparenz halte ich für wichtig, wenn wir als Nutzer*innen nicht nur Konsument*innen sein wollen, sondern weiter selbstbestimmt handeln. Und ja, das ist mit Arbeit verbunden, sowohl für Entwickler*innen als auch für Nutzer*innen:

Nutzer∗innen haben gewissermaßen eine Holschuld, indem sie bereit sein müssen, grundlegende Funktionsprinzipien von Software verstehen zu lernen. Anstatt mal indifferent, mitunter staunend, oft fluchend vor den Ausgaben eines Programms zu sitzen, sollten sie eine Vorstellung davon entwickeln wollen, was das Programm gerade für sie tut. Auf der anderen Seite haben Entwickler∗innen eine Bringschuld, indem sie Software so gestalten, dass Nutzer∗innen sie verstehen können(Hervorh. M.D., S. 19).

Ist Techniktransparenz elitär?

Aber das sehen nicht alle so. Der Nutzer „Zwart“ kommentierte unter Löschners Artikel:Elitärer Bullshit. Dass der Betrieb von PC immer einfacher wird und immer mehr Menschen dazu befähigt, das Potential zu nutzen, ist eine gute Entwicklung.“ (Hervorh. M.D.; Tippfehler habe ich im Zitat korrigiert). Auf den ersten Blick könnte man Löschners Artikel tatsächlich so sehen. Schreibt da nicht nur jemand, den es nervt, dass sein eigenes Expertentum heute nicht mehr gebraucht wird, weil heute eben jede*r einen Computer benutzen kann?

Aber der Kommentar übersieht den Kerngedanken des Artikels: Die Leute sollen heute gar nicht mehr tun wollen, was abseits schicker Oberflächen eigentlich möglich wäre. Je abgeschlossener und „glatter“ Technik wird und je weniger echte Einblick- und Eingriffsmöglichkeiten sie bietet, desto weniger wissen Menschen, welches Potenzial da eigentlich vorhanden wäre. Genau dadurch entsteht dann erst das Elitäre. Sie kommen auch gar nicht auf die Idee.

Meine Frau, die Lehrerin an einer berufsbildenden Schule ist, hat mir neulich erzählt, dass ein u.a. Technik unterrichtender Kollege festgestellt hat, dass Schüler*innen heute gar nicht mehr auf die Idee kommen, technische Geräte einfach mal auseinander zu nehmen und nachzugucken, wie die innen drin aufgebaut sind. Klar – wieso sollten sie auch? Technik lädt ja nicht mehr dazu ein. Smartphones und Tablets sind meistens verklebt, keine Schrauben oder große Lüftungsschlitze trüben das Bild. Nichtmal Akkus lassen sich wechseln.

Techno-Schamanismus?

Also ist die Technik halt da, und sie ist, wie sie ist. Georg Löschner schreibt in seinem Artikel:

„Wir beten den Rechner an, weil er läuft, ohne dass wir darüber nachdenken müssen, warum. Und wie bei jeder göttlichen Anhimmelung inklusive Selbstaufgabe stehen wir dumm da, wenn dann mal irgendwas nicht funktioniert. Denn heutzutage wird das Suchen nach dem Fehler hinter schicken ‚Ich helfe Dir! (kurz nach Hause telemetrieren, brb)‘-Mitteillungen versteckt, aber mangels Wissen, was da wo rödelt … denkt euch euern Teil.“

Die religiöse Metapher ist nicht neu, aber immer noch treffend. Schon Anfang der 1990er gab es dahingehend in einem Usenet-Posting eine dystopische „Vision“: Irgendwann wäre Software so verbreitet und verschlossen, dass wir sie nur noch wie eine Naturgewalt wahrnehmen. Nur sogenannte Techno-Schaman*innen wären in der Lage, sie im Auftrag ihres Stammes zu beherrschen. Sie wissen zwar nicht mehr, warum bestimmte Handlungen funktionieren (das hat die Gesellschaft insgesamt längst vergessen), aber zumindest, dass sie funktionieren, was für den Alltag der neuen Stammesgesellschaft ausreicht.

Unterscheiden lernen

Auch der Soziologe Niklas Luhmann sprach von Technik als Umwelt und als „zweiter Natur“, aber ganz so düster wie in o.g. Vision hat Luhmann das meines Wissens nicht ausgemalt. Technik war für Luhmann Umwelt von Gesellschaft, aber für seine eigenen Analysen noch nicht im Zentrum. Luhmann-Schüler Dirk Baecker hat das Thema seit den 2000ern dankbar aufgegriffen und theoretisch erarbeitet, wie sich Kommunikation in der „Computergesellschaft“ verändert.

In meiner Dissertation (ein kostenloses Druckexemplar schicke ich auf Anfrage gerne zu … ehrlich, die müssen weg) habe ich vor ein paar Jahren Baeckers „Formen der Kommunikation“ (2004) angewendet, um Nutzer*innen bei der Computernutzung zu beobachten und ihr Handeln besser zu verstehen. Ich habe also aufgezeichnet, was sie tun und das dann interpretiert. Systemtheoretisch ausgedrückt: Ich habe das Treffen von Unterscheidungen von Nutzer*innen-Systemen beobachtet, d.h. wie sie mit Selektionen bestimmte Elemente der Nutzungssituation vor dem Hintergrund der Situation unterschieden und damit andere Möglichkeiten ausschließen.

(Das klingt komplizierter, als es ist, darum hab ich ja auch später das oben erwähnte andere Buch geschrieben 😉 ).

Im Fazit der Arbeit schrieb ich jedenfalls:

„es [ist] nicht ausreichend, den Umgang mit Strukturen der Software zu ‚erlernen‘ oder möglichst effiziente Modelle von Nutzerhandeln zu entwickeln. Erfolgreiche Nutzung benötigt die immer wieder neue Erschließung der Software im jeweiligen Einsatzkontext. Immer wieder muss während der Nutzung erkannt werden, vor welchen Hintergründen die Nutzung weitergehen kann – grundsätzlich, und im Falle von Problemen ganz besonders. Das verlangt, sich (a) zu orientieren über die Möglichkeiten; (b) die Möglichkeiten auf ihre Eignung zum je aktuellen Zeitpunkt zu prüfen; und (c) sich zu entscheiden für eine Möglichkeit, was neue zu prüfende Möglichkeiten mit sich bringt. […] [Dazu] ist [es] nötig, das hinter der Oberfläche verborgene Funktionsprinzip der Software zu durchschauen. […] Nur wenn hinterfragt wird, was geschieht, wenn eine bestimmte sichtbare Option ausgewählt wird, kann geprüft werden, ob die Option eine geeignete Selektion wäre. (Hervorh. M.D., S. 325f.)

Früher war alles besser?

Der Trend geht freilich in genau die entgegengesetzte Richtung. Technik wird immer glatter und ihre Funktionsweise wird immer mehr versteckt. In den großen Consumer-Systemen Windows und macOS wird man kaum mehr motiviert, hinter die Oberfläche zu blicken, und weil sich Nutzer*innen daran gewöhnen, wird das auch gar nicht mehr hinterfragt oder nachgefragt. Selbstironisch stellt sich Georg Löschner im Autorenkasten seines Artikels als aus der Zeit gefallen dar. Er

„ist ein grummeliger alter Sack. Influencer und das laute Geschrei von Social Media nerven ihn, und dass die jetzt (wahrscheinlich) auch noch das neue Windows zuspammen dürfen, beschert ihm mehr Puls als ein achtfacher Espresso auf nüchternen Magen. Er kommt nämlich noch aus einer Zeit, als Rechner sich so zurechtpfriemeln ließen, wie man das gerne hätte.“

War also früher alles besser? Nein, natürlich nicht. Früher war es eine Grundvoraussetzung, zu wissen, wie ein Computer im Innern funktioniert, um ihn zu benutzen. Das war gesellschaftlich nicht gut, weil es viele Leute ausschloss.

Aber heute haben wir das andere Extrem – durch die einfachen, funktional einschränkenden Oberflächen sind Computer zwar so verbreitet wie noch nie. Aber sie sind jetzt so „einfach“, dass man gar nicht mehr auf die Idee kommt, hinter die Oberfläche zu blicken und oft nicht hinterfragt, ob das, was einem da vorgesetzt wird, wirklich wünschenswert ist.

Auch heute sind Expert*innen die einzigen, die das können; das ist nicht anders als früher. Und nach wie vor sorgt das nicht nur für Stress und Frustration, sondern – und das ist eben das Neue – für große Unklarheit darüber, was ein Computer eigentlich gerade mit unseren Daten tut. Die Hürde, das zu kontrollieren, ist hoch, und die einzige echte Wahl besteht heute nur noch darin, abzuschalten, sich mit alternatien Systemen wie Linux anzufreunden (was aber, wenn es kontrolliert sein soll, Wissen voraussetzt, das man aus genannten Gründen heute nicht mehr voraussetzen kann, also wiederum in Abhängigkeit von Expert*innen drängt) oder einfach mitzumachen in der schönen glatten durchdesignten Welt.


(Titelbild: sdx15 / shutterstock.com)

Lesetipp: „Avantgarde der Computernutzung. Hackerkulturen der Bundesrepublik und DDR“ von Julia Gül Erdogan

Der [sic, da fälschlich meist männlich vorgestellte] Hacker wird von vielen Leuten noch immer als Bedrohung angesehen. Da sind Bilder von Einbrüchen und Diebstählen im Kopf. Dabei geht es beim Hacken eigentlich um Zweckentfremdung von bzw. kreativen Umgang mit Technik. Die Historikerin Julia Gül Erdogan hat nun ein Buch vorlegt, das Hackerkulturen in Deutschland untersucht — und zwar, was sehr erfreulich ist, in beiden früheren deutschen Staaten. Denn auch in der DDR gab es eine lebhafte Computerszene; ich selbst bekam kurz nach der Wende einen ausgemusterten „Kleincomputer KC85/3“ geschenkt und damit habe ich sehr viel gelernt, was mir heute noch hilft. Vor allem, dass wir vor Computern und ihren für Laien manchmal undurchschaubaren Leistungen keine Angst zu haben brauchen. Die Blackbox lässt sich öffnen.

Ein offenes Verhältnis zur Technik ist sowohl Folge als auch Voraussetzung für einen selbstbewussten Umgang mit ihr. Um in der immer mehr von Computern strukturierten Welt handlungsfähig zu bleiben, dürfen wir uns selbst nicht als der Technik hilflos ausgesetzt ansehen. Leider wird das durch immer abgeschlossenere technische Systeme heute stark erschwert — Technik wird in der Bedienung einfacher, aber wollen wir sie tiefer durchdringen, gibt es oft keine handhabbaren Ansatzpunkte mehr, zumindest nicht für Selbststudium oder das spielerische Ausprobieren. Das war in der 1980ern noch anders, und wie sich das in Ost wie West in der Gesellschaft niederschlug — inklusive der Frage nach weiblichen Hacker*innen — stellt Julia Gül Erdogan in ihrem Buch ausführlich da.

Lesetipp zum Verstehen von Komplexität: Tobias Moebert zur Wahrnehmung von Mensch-Technik-Interaktionen

Forderungen an Entwickler*innen, Technik transparent zu gestalten, sowie Forderungen an Nutzer*innen, sich aktiv um ein Verständnis von Technik zu bemühen, sind zwei Seiten einer Medaille: Es geht um Handlungsfähigkeit in einer technisierten Welt. Statt jede neue Technologie (bzw. deren konkrete Ausprägung als technisches Werkzeug) immer naiv zu begrüßen oder Technik gleich grundsätzlich abzulehnen, geht es um einen reflektierten Umgang, der Vor- und Nachteile bewusst erkennt, abwägt und entsprechende Handlungsoptionen identifiziert. Das ist gerade in unserer heutigen Gesellschaft wichtig, in der es immer mehr technische Systeme gibt, die unseren Alltag auf vielfältige Weise prägen, die aber uneinsehbar erscheinen, etwa Systeme maschinellen Lernens bzw. Künstlicher Intelligenz oder erste Ansätze zum Transhumanismus.

Der vom Soziologen Niklas Luhmann gern genutzte Begriff der Blackbox, des uneinsehbaren schwarzen Kastens, ist eine bequeme Metapher, um ein grundlegendes Wahrnehmungsproblem von Technik zu bezeichnen: Wir können als bloße Nutzer*innen nicht einfach in die internen Abläufe eines Computers reinschauen. Wir können auch die Wechselwirkung technischer Systeme mit ihrer Umwelt nicht immer einfach erkennen. Und selbst Expert*innen sind mitunter von den Ergebnissen maschinellen Lernens überrascht, weil zum Beispiel künstliche neuronale Netze so viele Schichten aufweisen, dass die Funktionsweise des Netzes zwar theoretisch erklärbar, aber das Zustandekommen eines konkreten Ergebnisses nicht mehr herleitbar ist. Es ist eben alles sehr komplex mit (post)moderner Technik.

Es ist kompliziert. Oder?

Aber was genau heißt das überhaupt — Komplexität in Mensch-Technik-Zusammenhängen? Was ist der Unterschied zu Kompliziertheit? Und wie nehmen Entwickler*innen und Nutzer*innen beides wahr? Das ist eine Fragestellung, die an der Schnittstelle von Kommunikationssoziologie und Informatik angesiedelt ist und noch viel zu wenig bearbeitet wird.

Sie deutet sich an in der bekannten Arbeit der amerikanischen Anthropologin Lucy Suchman, die in „Plans and Situated Actions“ in den 1980ern ethnomethodologisch untersucht hat, wie Menschen mit Kopiergeräten umgehen. Suchman hatte das konkrete Handeln der Nutzer*innen beobachtet und analysiert und so einige Grundkonzepte menschlicher Erwartungen an Technik aufgedeckt. Insbesondere die „What’s next?“-Erwartung ist da zentral — wir neigen dazu, eine Ausgabe einer Maschine sinnhaft zu interpretieren und daraus den nächsten möglichen Handlungsschritt abzuleiten.

Wir fragen uns also „Wie geht es weiter?“ um die Nutzung aufrechtzuerhalten, ganz ähnlich wie wir auch in menschlicher Kommunikation davon ausgehen, dass unsere Partner*innen etwa entsprechend des Grice’schen Kooperationsprinzips agieren und wir deren Äußerungen sinnhaft einordnen. Problematisch wird es, wenn wir da ‚auf dem Holzweg‘ sind (Suchman nennt das „garden path“), wir also entweder eine falsche Erwartung haben oder wir glauben, wir hätten etwas falsch gemacht, obwohl wir das gar nicht haben. Solche Missverständnisse entstehen, wenn die Maschine nicht transparent und verstehbar kommuniziert, wie ihre Situationsdefinition gerade aussieht.

Doch technische Systeme sind keine Menschen und die Grundannahmen ihrer Entwickler*innen liegen selten offen. Wieso reagiert der Computer nicht auf meinen Mausklick? Wieso druckt der Drucker nicht? Und „was macht er denn jetzt schon wieder?“ — der Legende nach eine häufige Frage von Airbus-Pilot*innen, wenn der Bordcomputer des Flugzeugs wieder mal was anderes tut, als man erwartet. Wir nehmen also an, dass das System auf unsere Eingabe hin etwas Bestimmtes tut, aber dann macht es doch etwas anderes oder gleich gar nichts.

Durch die enttäuschte Erwartung kann die Nutzungssituation kompliziert, komplex, sogar chaotisch erscheinen. Das führt zum Erleben von Ungewissheit, die die fortgesetzte Nutzung gefährdet und sich nebenbei auch phänomenologisch zeigen sowie psychische Auswirkungen haben kann. Diese Beobachtung sowie deren Einbettung in aktuelle soziologische Annahmen zur Unsicherheit der Gesellschaft — ob wir sie nun mit Dirk Baecker als Computergesellschaft, mit Ulrich Beck als Risikogesellschaft oder mit Andreas Reckwitz als Gesellschaft der Singularitäten bezeichnen — war vor einigen Jahren die Grundannahme meiner eigenen Disseration zur Softwarenutzung (gibt’s auf Nachfrage aus kostenlos von mir); Ungewissheit der Softwarenutzung liegt auch meinem 2020 erschienenen Fachbuch zugrunde. In beiden Büchern plädiere ich für die direkte Beobachtung von Nutzungssituationen, um die Merkmale der Situationen außerhalb des Labors herauszuarbeiten — und die Schwierigkeiten beim Umgang mit konkreter Technik.

Wie ‚es weitergeht‘ war für Lucy Suchman eine entscheidende Frage, die wir uns als Technik-Nutzer*innen bei jedem Nutzungsschritt beantworten müssen. Daran hat sich bis heute nichts geändert. Die dabei entstehende Komplexität wird nun durch eine Arbeit von Tobias Moebert (Universität Potsdam) untersucht. (Bild: Razmik Badalyan / Pixabay.com)

Doch was Kompliziertheit und Komplexität in diesem Zusammenhang eigentlich sind, war trotz bestehender Arbeiten bisher ein Desiderat. Natürlich gibt es unterschiedliche Definitionen dieser Begriffe, doch wie beides beim ganz konkreten Umgang mit Technik wahrgenommen wird und sich auf die Nutzungssituation aus Sicht der Betroffenen auswirkt, ließ sich bislang nur indirekt aus früheren Ergebnissen ableiten. Umso positiver, dass an der Universität Potsdam am Institut für Informatik und Computational Science nun eine Dissertation zum Thema erschienen ist, die genau in diese Lücke vordringt.

Tobias Moebert: Zum Einfluss von Adaptivität auf die Wahrnehmung von Komplexität in der Mensch-Technik-Interaktion

Der Informatiker Tobias Moebert hat im März 2021 seine Arbeit „Zum Einfluss von Adaptivität auf die Wahrnehmung von Komplexität in der Mensch-Technik-Interaktion. Dargestellt am Beispiel Bildungstechnologie“ vorgelegt (Download als PDF über den Publikationsserver der Uni Potsdam). Moebert entwickelt darin „ein Werkzeug“, um zu untersuchen, wie Menschen Komplexität der Techniknutzung wahrnehmen und so auch den Begriff für seinen Anwendungsbereich näher einzugrenzen. Wer aber bei einer Informatik-Dissertation unter „Werkzeug“ nur ein weiteres Computerprogramm oder ein weiteres, in einer Techniker*innenblase entstandenes Vorgehensmodell erwartet, oder auch eine bloße Studie zur Benutzbarkeit eines Produkts (Usability), wird positiv überrascht. Denn Moebert hat sich intensiv mit soziologischen und sozialwissenschaftlichen Perspektiven auf Komplexität und Techniknutzung auseinandergesetzt. Konkret fragt der Autor:

„Wie nehmen Menschen Komplexität wahr? Welche Ursachen hat die Wahrnehmung von Komplexität? Welche Folgen hat die Konfrontation mit Komplexität?“ (S. 164)

Zur Beantwortung der Fragen wurden Leitfadeninterviews mit Studierenden und Wissenschaftler*innen aus Informatik, Soziologie und Psychologie durchgeführt und die erhaltenen Aussagen anschließend inhaltsanalytisch (nach Mayring) interpretiert. Die befragten Personen waren allesamt mit zwei beispielhaft untersuchten Softwarewerkzeugen aus dem Bildungsbereich befasst — Software, deren Einsatz zu genau den erwähnten komplexen, mithin ungewissen, Nutzungssituationen führen kann, zumal sich diese Software auch wechselnden Nutzungskontexten anpassen sollte (Adaptivität).

Theoriegeleiteter Ausgangspunkt der Untersuchung war, dass komplexe Situationen dynamisch sind und dass die der Situation zugrundeliegenden Ursache-Wirkungs-Beziehungen und die Handlungsfolgen der Nutzer*innen unvorhersehbar sind. Dies lässt sich durch mehrere Indikatoren ausdrücken, etwa die Wahrnehmung einer Software als „kontraintuitiv“ (Ursache/Wirkung ist nicht allein durch Intuition erfassbar und steht oft im Widerspruch zu unseren Erwartungen, S. 27) oder als „interventionsbeständig“ (weil ein System komplexer ist als unsere Fähigkeit, es zu verstehen, scheitern Eingriffe in das System oder führen zu unerwarteten Folgen, ebd.). In der Inhaltsanalyse zeigte sich nun, dass insbesondere das Merkmal der Kontraintuitivität in allen untersuchten Beispielen auftrat.

Das Problem der Intransparenz

Interessant ist in diesem Zusammenhang der Verweis auf die Wahrnehmung von Intransparenz:

„Diese Kontraintuitivität war in der Regel darauf zurückzuführen, dass den Beteiligten entscheidendes Wissen über die zugrundeliegenden Zusammenhänge der Situation gefehlt haben. Entweder war dieses Wissen generell nicht verfügbar oder durch die Intransparenz des Systems versteckt. [Hervorh. M.D.] Als Folge konnten die Beteiligten […] oft nicht richtig intuitiv beziehungsweise zielführend handeln und es war zu erwarten, dass unerwartete Handlungsfolgen auftreten würden“ (S. 165).

Gerade der Versuch, die Software als kontextsensitiv (adaptiv) zu gestalten, führte zu Transparenzproblemen:

„Auch wenn in beiden Anwendungen grundsätzliche Bemühungen vorgenommen wurden, um die basale Funktionsweise des Adaptierungsmechanismus sichtbar zu machen, bleiben viele konkrete Details jedoch im Verborgenen (z. B. Auswahl von Lehrinhalten, getroffene Annahmen etc.)“ (S. 166)

Dies führte nach Moebert zu einem für Nutzer*innen „unerreichbare[n] Detailwissen […], das lediglich dem Konstruktionskonsortium“, sprich: den Entwickler*innen bekannt war (ebd.). Genau das ist das Problem, das bei der meist üblichen intransparenten Technik häufig der Fall ist: Wir verstehen sie nicht, wir können ihre Entscheidungen nicht nachvollzuziehen, gerade wenn die Technik Fehlverhalten zeigt:

„Als Folge haben es die Nutzenden zuweilen schwer, die Adaptierungen nachzuvollziehen. Dies trifft ganz besonders dann zu, wenn Kontexterfassung und/oder Adaptierung fehlerhaft funktionieren“ (ebd.).

Moeberts Untersuchung deckte noch einige weitere typische Problemfelder auf, die sich in anderen Untersuchungen andeuteten, aber bisher, soweit mir bekannt, zumindest nicht in dieser Stringenz empirisch untersucht wurden.

Der Autor bietet im Anschluss Orientierungspunkte für Entwickler*innen, unter anderem, um intransparentes Systemverhalten zu verbessern. Moebert empfiehlt, „zwar weiterhin die komplizierten internen Mechanismen [einer adaptiven Software] außen vor zu lassen, aber Nutzenden die Möglichkeit zu geben, adaptive Entscheidungen nachzuvollziehen“ (S. 173).

Das heißt konkret, man muss als Nutzer*in nicht im Detail die Algorithmen und Modelle offengelegt bekommen, nach denen eine Software sich an einen Kontext anpasst (und wir könnten verallgemeinern: nach denen eine Software Entscheidungen trifft und Ergebnisse ermittelt). Aber die Software kann all dies durchaus in Alltagssprache verdeutlichen, und zwar nicht versteckt in der Dokumentation, sondern an der Stelle während der Nutzung, an der ein entsprechender Hinweis auch relevant ist. In dem Zusammenhang dürfte auch Moeberts Empfehlung, „die Offenheit und Ungewissheit menschlicher Lebenserfahrungen“ (S. 169) stärker zu berücksichtigen, von Bedeutung sein.

Fazit: Nicht nur für Informatiker*innen

Die Stoßrichtung von Moeberts Untersuchung und seiner abgeleiteten Empfehlungen ist unbedingt zu unterstützen und sollte weiter ausgebaut werden. Dass ich Technik-Transparenz als gesellschaftliches Ideal ansehe, habe ich erst kürzlich wieder betont. Für das Feld der KI-Forschung kennen wir die Richtung der Explainable Artificial Intelligence. Doch auch nicht-KI-basierte Technik kann komplex sein und bedarf entsprechender transparenter Unterstützung für ihre Nutzer*innen. Dies ist etwas anderes als früher übliche Forschungen zu Usability (Benutzbarkeit) und User Experience (Benutzererfahrung). Es geht um Erklärbarkeit des Handelns mit Technik in einer Situation. Hier ist noch viel zu tun, und Moeberts Arbeit ist ein wichtiges Puzzlestück dazu.

Verwandte offene Fragen sind, welche Rolle „Trivialisierungsexperten“ wie Handbuch-Autor*innen, Technik-Journalist*innen, technikbezogene Influencer*innen, die Werbung oder der technische Kundendienst in dem Kontext spielen. All diese Instanzen können Transparenz entweder fördern oder aber Komplexität bloß verschleiern. Auch eine phänomenologische Perspektive auf die Wahrnehmung von Techniknutzung ist noch ein Desiderat.

Abschließend ein Hinweis. Wie erwähnt, handelt es sich um eine Dissertation und damit eine wissenschaftliche Qualifikationsarbeit im Fach Informatik; entsprechend formal ist der Stil. Doch davon sollte sich niemand, die*der am Thema interessiert ist, abschrecken lassen. Der Text ist durchgehend gut lesbar und technisch wird es vor allem bei der Beschreibung der Fallbeispiele. Für Nicht-Techniker*innen mögen diese Kapitel etwas ermüdend sein, aber sie sind nötig, weil sie der Hintergrund sind, vor dem sich die empirischen Ergebnisse der Inhaltsanalyse erst abheben, also verstehbar werden. Und einen letzten Vorteil hat das Format der Dissertation: Die Rohdaten der Interviews (Transkripte) sind vollständig im Anhang vorhanden und ermöglichen so einerseits den direkten Nachvollzug der Ergebnisse und andererseits laden sie geradezu zu weiteren Forschungen ein.


Titelbild: Gerd Altmann / Pixabay.com

Corona-Tools und das Bedürfnis nach transparenter Technik

Wenn es an den eigenen Körper geht, werden Menschen schnell vorsichtig. Während wir vielen Technologien und Techniken im Alltag sonst schnell vertrauen (oder dank effektiver Werbung gar nicht erst die Vertrauensfrage stellen), verspüren wir bei Werkzeugen, die unser Leben im engen Sinne betreffen — unsere Gesundheit –, Unbehagen. Wenigstens, solange das jeweilige Werkzeug sich nicht als sicher herausgestellt hat, oder solange nicht klar ist, dass seine Urheber*innen es (und unsere Daten, die bei der Nutzung anfallen) nicht für hintergründige Zwecke missbrauchen. Gerade kann man das sehr gut an diversen Diskussionen um Corona-Tools nachvollziehen: letztes Jahr die erfreulich offene Debatte um die Ausgestaltung der ‚offiziellen‘ Corona-Warn-App, dieses Jahr die Frage, ob die Luca-App zu vorsichtigen Öffnungen von Geschäften, Restaurants oder Kulturveranstaltungen taugt, oder auch die Ängste vor den neuen Impfstoffen gegen COVID19.

Beispiel 1: Luca-Quellcode: Missglückter Transparenzversuch

Beim IT-Portal golem.de erschein kürzlich ein sehr negativer Kommentar zur Luca-App. Insbesondere wurde die Intransparenz bemängelt. Zwar wurde der Quellcode der Luca-Android-App öffentlich einsehbar gemacht, durfte aber zunächst nicht bearbeitet oder verbreitet werden. Selbst Zitate aus dem Code, etwa in Analysen, die Probleme aufdecken würden, waren verboten. Nach starker Kritik wurde die Lizenz des veröffentlichten Codes auf die bekannte GPL (GNU General Public License) geändert.

Problematisch bleibt, dass der Code nicht exakt derselbe ist, auf dem die aktuelle Android-App auf den Smartphones der Nutzer*innen beruht. Der Code der iOS-Version ist bisher gar nicht öffentlich, ebenso wenig der Code für die ‚Gegenstelle‘, also die Server des Betreibers. Das ist alles nur ein Open Source ‚Light‘ und wirkt eher wie ein Feigenblatt, das nur oberflächlich Vertrauen schaffen kann.

Zwar kann der Quellcode von Software ohnehin nur von Menschen verstanden werden, die selbst in der jeweiligen Sprache programmieren können und die Systemzusammenhänge durchschauen. Aber davon gibt es durchaus genug. Doch wenn der Quellcode nicht aktuell ist, stellt die Herstellerfirma nur scheinbare Transparenz her, und gerade das weckt Zweifel. Kommunikativ ist das nicht gerade geschickt. Statt Vertrauen erzeugt das Vorgehen der Luca-Entwickler*innen bisher eher Misstrauen, selbst wenn die Herstellerfirma und ihr PR-Gesicht, der Rapper Smudo, nur das Beste wollen.

Beispiel 2: RNA-Code des BioNTech-Impfstoffes

Bei der Weltgesundheitsorganisation war die RNA-Sequenz des COVID-Impfstoffes von BioNTech eine ganze Weile als Word-Datei verfügbar. Mittlerweile ist der Link veraltet, aber im Internetarchiv gibt es noch eine Kopie: https://web.archive.org/web/20210110172535/https://mednet-communities.net/inn/db/media/docs/11889.doc ). Wenn man mal von der Grundsatzdiskussion absieht, ob DNA und RNA mit Software-Quellcode vergleichbar sind, dann können solche Veröffentlichungen genauso nützlich sein wie veröffentlichter Quellcode — wiederum nicht direkt für Laien, aber für jene „Trivialisierungsexperten“ (Luhmann), die ihn stellvertretend für uns einschätzen und erklären. Für den BioNTech-Impfstoff hat das der niederländische Softwareentwickler Bert Hubert getan (oben auf der Seite sind auch Übersetzungen des Artikels in andere Sprachen verlinkt, u.a. Deutsch). Eine faszinierende Lektüre, die nebenbei zeigt, wie technisch mit biologischen Mechanismen umgegangen wird.

Trivialisierungsexpert*innen sind diejenigen Instanzen, denen wir stellvertretend vertrauen, wenn wir den durch sie trivialisierten Zusammenhängen selbst nicht vertrauen können, weil diese zu komplex sind, als dass wir sie als Laien ohne unverhältnismäßig hohen Lernaufwand nachvollziehen könnten. Aber wenn ein*e Trivialisierungsexpert*in in der Lage ist, die Zusammenhänge und die Folgen von Technik auf eine Weise zu kommunizieren, dass sie auch für Laien anschlussfähig wird, dann kann sich viel unnötiges Misstrauen (mit all seinen mitunter stressigen Auswirkungen) auflösen. Lehrer*innen und Wissenschaftsjournalist*innen sind typische Beispiele.

Natürlich funktioniert der Vertrauensaufbau über Trivialisierungsexpert*innen nur, wenn wir diesen Menschen trauen. Wer sowieso jedes Vertrauen in etablierte Instanzen verloren hat, wird im RNA-Beispiel auch nach der Erklärung Huberts weiter misstrauisch bleiben, etwa weiter glauben, dass der Impfstoff die menschliche DNA verändert, obwohl das rein technisch gar nicht geht. Allerdings ist so eine misstrauische Grundstimmung, wie wir sie heute oft in sozialen Medien erleben, auch eine Folge einer jahrzehntelang erlernten Blackbox-Sicht auf komplexe Technik. Glücklicherweise ändert sich das seit einiger Zeit.

Technik-Transparenz als gesellschaftliches Ideal

In meinem Buch „Nutzerverhalten verstehen — Softwarenutzen optimieren“ (2020) habe ich Technik-Transparenz als Forderung an eine Gesellschaft gestellt, „in der Menschen nicht nur als Konsumenten von Produkten funktionieren“ (S. 19). Ich bezog mich im Buch nur auf Software im engeren Sinne, aber man kann das auch auf Technik insgesamt ausweiten.

„Transparent gegenüber Nutzer*innen ist Software, wenn Nutzer*innen jederzeit die Möglichkeit haben, sich über Hintergründe und Aktivitäten der Software in der aktuellen Situation sowie über das Zustandekommen der Berechnungs- oder Verarbeitungsprozesse zu informieren“ (S. 18).

Das ist aber nicht nur eine Bringschuld der Entwickler*innen von Software bzw. Technik, sondern auch wir Nutzer*innen, wir Laien, sind gefordert, uns mit Technik beschäftigen zu wollen, zumindest wenn wir als selbstbestimmte Menschen handlungsfähig bleiben wollen. Es braucht also einerseits eine lernförderliche Umgebung — Technik, die uns einlädt, sich tiefer mit ihr zu befassen — und andererseits unseren Wunsch, zu lernen und zu verstehen.

Das „Ideal transparenter Software“ hatte ich im Buch in einer einfachen Grafik zusammengefasst:

Das Ideal transparenter Software (aus meinem Buch „Nutzerverhalten verstehen – Softwarenutzung optimieren“, 2020, S. 20)

Was da für Software dargestellt wird, gilt in Wahrheit für Technik insgesamt. Es gibt bei jeder Technik (ob nun konkret ‚anfassbare‘ Sachtechnik oder Technik im Sinne eines Verfahrens) immer die Oberflächenstruktur, mit der wir auf Technik zu-greifen oder sie verwenden, und dahinter liegende Annahmen und Modelle, die bestimmen, was wir im Zu-griff tun können und wie wir das, was wir da eigentlich tun, verstehen können.

Ich plädiere für einen stärkeren Fokus auf die Vermittlungsebene. Es reicht nicht, eine Technik nur nach ergonomischen Kriterien, Effizienzgedanken oder auch Nutzungsfreude (Joy of Use) zu gestalten. Schon bei Planung und Entwicklung sollten Wege mitgedacht werden, wie Nutzer*innen bei Bedarf auf die Tiefenstruktur zugreifen können.

(Titelbild: SplitShire / Pixabay.com)

Geschichte(n) der Textverarbeitung: „Track Changes: A Literary History of Word Processing“ von Matthew G. Kirschenbaum (2016)

Nachdem ich im Dezember einen kleinen textverarbeitungstechnischen Retro-Anfall hatte, stieß ich auf eine sehr lesenswerte Literaturgeschichte der Textverarbeitung. Im 2016 erschienenen Buch „Track Changes: A Literary History of Word Processing“ zeichnet der US-amerikanische Autor und Englisch-Professor Matthew G. Kirschenbaum die Geschichte der Textverarbeitung am und mit dem Computer nach. In einer Mischung aus Anekdoten, kurzen Textauszügen und medientheoretischen Interpretationen wird deutlich, wie der PC als Schreibwerkzeug mal begeistert aufgenommen und mal als echte Bedrohung für literarische ‚Qualität‘ wahrgenommen wurde.

Die Auswahl der Autor*innen, die Kirschenbaum anführt, ist US-zentriert und entstammt recht oft dem Bereich der Phantastik (d.h. Science Fiction, Fantasy, Horror) — da darf natürlich der Verweis auf George R.R. Martins WordStar-Nutzung genausowenig fehlen wie Stephen Kings jahrelanges Festhalten an einem Anfang der 1980er herausgekommenen Textverarbeitungssystem des Herstellers Wang. Es ist sehr interessant, die Meinungsäußerungen aus einer Ära zu lesen, als das Schreiben mit dem Computer noch als etwas sehr Neues und für viele Menschen auch sehr Aufregendes wahrgenommen wurde — im Gegensatz zur heutigen Welt, in der „Typing on Glass“ (so ein Kapitelname) dank überall verbreiteter Touchscreens gar nichts Besonderes mehr ist.

Glücklicherweise bleibt Kirschenbaum nicht beim bloßen chronologischen Erzählen stehen, sondern streut an passenden Stellen auch medientheoretische Perspektiven ein. Die wichtige EXECUTE-(ausführen)-Taste an Stephen Kings Wang-Textprozessor etwa wird von Kirschenbaum mit Walter J. Ongs Konzept der sekundären Oralität der digitalen Kommunikation in Verbindung gebracht:

Computers thus make the written word actionable. EXECUTE was the juice, the lightning, the scroll in the forehead of the golem (to invoke the old Jewish legend).

Matthew G. Kirschenbaum, Track Changes, 2016, S. 79.

Wenn Textverarbeitung ins Spiel kommt, handelt es sich bei Wörtern nicht mehr um Signifikanten, sondern um etwas Ausführbares, wie Kirschenbaum mit Friedrich Kittler darstellt. Kittler hatte darauf hingewiesen, dass der Name des in den Achtzigern beliebten Textprogramms WordPerfect zu lang war, um ihn bei der damals unter MS-DOS geltenden Längenbegrenzung für Dateinamen auszuschreiben, was angesichts der im Namen versprochenen Perfektion sehr ironisch war:

For Kittler, word processing marked a definitive break with prior writing technologies because words stopped being mere signifiers and become executables instead: „Surely tapping the letter sequence of W, P, and Enter on [a] keyboard does not make the Word perfect, but this simple writing act starts the execution of WordPerfect.“

Ebd., S. 48.

Man musste also den Programmnamen abkürzen, um WordPerfect zu starten. Doch WP einzutippen, sorgte nicht für perfekte Wörter, oder bedeutungsvolle Worte, sondern führte einfach das Programm aus. Kurz und knapp fällt der Startbefehl WP aus, eine unbeabsichtigte Erinnerung an die plötzliche Effizienz des Schreibens, die viele Autor*innen bei ihrem ersten Kontakt mit einer Textverarbeitung mal erschrocken, mal begeistert bemerkten (vor allem im Vergleich zur Linearität der Schreibmaschine).

Stephen King und John Updike waren fasziniert vom Gedanken, durch Schreiben Wirklichkeit zu verändern. King veröffentlichte 1983 in der Zeitschrift Playboy eine Geschichte namens „The Word Processor“, in der der Protagonist Richard (Lehrer und eher erfolgloser Autor) mit der Löschen-Taste (DELETE) seines Computers rumspielt — und so nach Belieben manche Personen aus Richards echter Welt einfach löscht, während er andere einfügt (INSERT). Ebenfalls 1983 veröffentlichte John Updike das Gedicht INVALID.KEYSTROKE. In der zweiten Stophe klingt auch bei Updike die Faszination für die Macht des Schreibens/Ausführens an:

Your.cursor–tiny.blinking.sun–

Stands.ready.to.erase.or.run

At.my.COMMAND.to.EXECUTE

Or.CANCEL:.which? The.choice.is.moot.

Ebd., S. 85.

Die Alltagserfahrung von Autor*innen in ihrer Zeit mit der neuen Technologie wurde von ihnen literarisch verarbeitet, selbst wenn das mal nur im Titel eines Gedichts explizit wird, wie in Patricia Freed Ackermans „Poem Written at Work on a Wang Word Processor Sometime in the Afternoon Wanting to Leave“ (S. 143), ein Gedicht, das am Arbeitsplatz einer Sekretärin oder Schreibkraft entstand, die viel lieber woanders sein mochte:

In an ideal world

I would sit by a clear

lake an occasional

sailboat would

flutter by an

occasional butterfly fan

Ebd., S. 143.

Ein See mit Segelboot und Schmetterlingen, größer kann man sich den Kontrast zu einem Computerarbeitsplatz der frühen Achtziger kaum vorstellen. Aber, so Kirschenbaum, die Dichterin ist gefangen, „bound by her job, compelled to remain at the keyboard even if there is no work to be done“ (S. 144). Der Mensch selbst wird hier zur Maschine: „Like the word processor, she must be constantly ready, available, on call — on-line“ (ebd.) Das Textverarbeitungssystem sei eine Prothese, eine Erweiterung der Identität der Dichterin. Womit wir wiederum an Marshall McLuhan denken können.

Kirschenbaums insgesamt recht kurzweiliges Buch wird immer dann am spannendsten, wenn, wie in diesem Beispiel, historische Darstellung, Medientheorie und literarische Texte zusammenkommen.

„Track Changes: A Literary History of Word Processing“ von Matthew G. Kirschenbaum erschien 2016 bei The Belknap Press of Harvard University Press; eine deutschsprachige Ausgabe gibt es nicht.

Titelbild: Fathromi Ramdlon / pixabay.com