elementary OS 6 im Test: Freiheit für Minimalist*innen

Die Hoffnung auf „Linux auf dem Desktop“ ist nicht kleinzukriegen. Und so erschien am 10.08.2021 die Linux-Variante elementary OS in der nun schon sechsten Ausgabe. Durch bewusste Reduktion auf das Wesentliche verspricht elementary OS Einfachheit und Konsistenz. Aber wie gut funktioniert das im normalen Arbeitsalltag? Ich habe das System in einer Testversion bereits seit einigen Tagen auf meinem Schreib-Laptop im Einsatz. Hier sind meine Eindrücke von elementary OS 6 im Test.

Vorbemerkung

Wer sich aus Datenschutzgründen, intransparenter Produktkultur oder aus Prinzip nicht länger von großen Softwarefirmen abhängig machen will, hat zwar viel Auswahl, aber es trotzdem nicht leicht. Denn Windows (Microsoft) und macOS (Apple) sind im Heim- und Bürobereich Standard. Auch die großen Anwendungen im Bürobereich (Word, Excel, PowerPoint) und in der Medienbranche (Photoshop, InDesign, diverse DAWs, usw.) erscheinen nur für Windows und macOS. Freie Alternativen wie das in zig Varianten verfügbare Betriebssystem Linux sowie alternative Werkzeuge wie LibreOffice, Gimp, Scribus oder Ardour haben es schwer. Denn deren Nutzung setzt Neugier, Bereitschaft zum Verlernen alter Gewohnheiten und manchmal Bereitschaft zum Verzicht voraus.

Dieser Test richtet sich nicht an erfahrene Linux-Nutzer*innen; für diese gibt es Fachportale im Internet. Ich schreibe aus der Über/Strom-eigenen Perspektive, also für Menschen, die sich von der digitalen Gesellschaft schon das eine oder andere Mal gestresst fühlen, aber nicht grundsätzlich technikfeindlich sind. Personen, die ein modernes, auch optisch schönes und sicheres Betriebssystem möchten (ohne von großen Konzernen überwacht und gegängelt zu werden), die aber gleichzeitig nicht selbst Expert*in werden wollen.

Konkret geht es mir darum, ob elementary OS 6 mit seinen Versprechen von Einfachheit und Konsistenz für einen stressfreieren und sicheren Nutzungsalltag sorgen kann.

Ausprobiert habe ich elementary OS 6 auf einem gebrauchten ThinkPad T420 aus dem Jahr 2011, auf dem bis vor kurzem noch Windows 10 lief.


Übrigens: Am 17.08. erscheint mit Zorin OS 16 ein anderes Linux-Betriebssystem, das sich an Ein- und Umsteiger*innen richtet. Das schauen wir uns nächste Woche näher an.


Was ist elementary OS 6? Kurze Einordnung in die Linux-Welt

elementary OS ist ein Betriebssystem (Operating System, OS), ähnlich wie Windows oder macOS. Es sorgt also dafür, dass ein Computer überhaupt etwas tut.

Das System ist eine Variante der zahlreichen Linux-Betriebssysteme. Linux wird seit 1991 von Linus Torvalds entwickelt und ist konzeptuell dem noch viel älteren UNIX ähnlich (der Wikipedia-Eintrag zur Geschichte von Linux ist technikgeschichtlich sehr interessant). Linux war von vornherein als „freies“ Betriebssystem gedacht (frei wie in ‚Freiheit‘, nicht wie in ‚kostenlos‘, auch wenn viele Linuxe nichts kosten). Bekannte und traditionsreiche Linux-Distributionen sind zum Beispiel Slackware, Debian, openSUSE oder Fedora, es gab und gibt aber hunderte weitere. Eine Distribution ist der eigentliche Betriebssystemkern (Linux eben) plus eine Auswahl weiterer Programme. Manche Distributionen verlangen sehr viel technisches Wissen, andere richten sich an unerfahrenere Menschen.

Zu einigem Erfolg in dieser Kategorie hat es das auf Debian basierende Ubuntu gebracht, hinter dem seit 2004 die Firma Canonical steht. Canonical wurde vom ursprünglich aus Südafrika stammenden Unternehmer Mark Shuttleworth gegründet (übrigens jemand, der sich auch gut in einer Reihe mit Richard Branson, Jeff Bezos oder Elon Musk machen würde, denn Shuttleworth war 2002 der erst zweite Weltraumtourist und der erste Südafrikaner im Weltraum). Ubuntu hat viel dazu beigetragen, Linux aus der Nische der absoluten Hardcore-Nerds zu holen. Ein zeitweiliger Deal mit Amazon (bei der Suchfunktion wurden den Nutzer*innen Produktvorschläge angezeigt) brachte Ubuntu zwar viel Kritik und Shuttleworth 2013 den österreichischen Big Brother Award ein, aber die Funktion wurde 2016 abgeschaltet, und Ubuntu ist nach wie vor eine der wichtigsten Linux-Distributionen.

Regelmäßig werden neue Versionen von Ubuntu veröffentlicht, einige davon mit sogenanntem Langzeitsupport (Long Time Support, LTS), sodass man sicher sein kann, über mehrere Jahre hinweg mit Sicherheitsupdates versorgt zu werden. Unter anderem dies führte wiederum zu Varianten von Ubuntu (ja, der Stammbaum von Linux ist groß und verzweigt). Besonders beliebt ist seit einiger Zeit etwa Linux Mint. Aber auch kleinere Projekte gibt es, und elementary OS ist eines davon. Es entstand 2011 als eine eigene Distribution, die Ubuntu als (für Endnutzer*innen idealerweise unsichtbaren) Unterbau nutzt.

Wie wirkt elementary OS?

Bevor elementary OS eine Distribution wurde, war das Projekt als Elementary bekannt. Ziel war eine konsistente Sammlung von Programmen für Ubuntu. In der Designsprache orientierte man sich an Apples macOS. Und noch heute sind diese Wurzeln unverkennbar, wie der folgende Screenshot zeigt:

elementary OS 6 desktop
elementary OS 6

Ich würde nicht so weit gehen, zu sagen, dass alles wie Apple aussieht (und schon gar nicht so bedient wird), aber die Inspiration ist unverkennbar – wie auch die Liebe zum Detail ähnlich ist. Tatsächlich scheint sich das ganze System an Leute zu richten, die Wert auf Feinschliff legen und bereit sind, für ein konsistentes und elegantes Äußeres einige Kompromisse einzugehen.

Das Anwendungs- oder Startmenü zeigt standardmäßig eine alphabetische Symbolübersicht, die an Smartphones oder Tablets erinnert. Alternativ kann man es kompakter und in Kategorien sortiert anzeigen. Die Suchfunktion ist nichts weiter als die bekannte Tastenkombnation [ALT] + [F2]; sie findet Programme und kann einfache Matheaufgaben lösen, ist aber keine Volltextsuche.

An wen richtet sich elementary OS?

Elementary OS richtet sich an Menschen, die so wenig wie möglich mit dem Betriebssystem zu tun haben wollen. Es soll nicht kompliziert sein, es soll sicher sein, nicht ’nach Hause telefonieren‘, es soll ohne Aufwand gut aussehen und einen ansonsten in Ruhe lassen. Im Prinzip wären Apple-Nutzer die perfekte Zielgruppe, wenn da nicht noch das eingangs erwähnte Problem der fehlenden Standard-Anwendungsprogramme wäre.

Für Linux ist diese Ausrichtung aber Pro und Contra zugleich. Elementary OS ist auch in Version 6 nur in engen Grenzen an die eigenen Bedürfnisse anpassbar, zumindest dann, wenn man nicht in die Tiefen von Linux eindringen will. Wenn man das doch tut, dann kann man auch gleich eine der größeren Distributionen nutzen, die von vornherein mehr Auswahl lassen.

Nein, Elementary OS will genau so genommen werden, wie es ist, und es ist bewusst minimalistisch. Natürlich lässt sich das Hintergrundbild ändern, man kann einen Farbakzent auswählen und optional einen „Dark Mode“ aktivieren. Aber das war es fast schon. Im Fokus steht die eigentliche Nutzung des Computers, zum Schreiben, Surfen, Bilder bearbeiten, Musik hören, Programmieren und so weiter. Das Betriebssystem bleibt im Hintergrund und so der Faktor „Technik“ insgesamt.

Die Auswahl mitgelieferter Hintergrundbilder ist stilvoll und unterstützt wirkungsvoll das allgemeine Design.

Bewusster Verzicht, bewusste Wahl

Zumindest theoretisch. Denn in der Praxis braucht man eben auch nützliche Programme. Die unter Linux üblichen Anwendungen wie LibreOffice, Gimp, Inkscape oder Scribus sind zwar alle verfügbar. Aber nicht direkt nach dem Auspacken bzw. Installieren. Und wenn sie installiert sind, dann in deren je eigenen Designs, die sich nicht an die Vorgaben von elementary OS halten. Dann sind Farben, Symbole und Schriften dann doch wieder so vielfältig, wie unter Linux seit eh und je üblich.

Vielleicht aus diesem Grund ist das „App Center“ von elementary OS – quasi dessen App Store – anfangs noch sehr leer. Nur Programme, die sich an die recht strengen Gestaltungsrichtlinien des Systems halten und geprüft wurden, sind vorhanden. Leider sind das nur kleine Helferlein, aber nichts, mit dem man im Berufsalltag ernsthaft arbeiten könnte (außer, man ist Programmier*in; dafür ist der Texteditor Code recht brauchbar).

Das AppCenter von elementaryOS sieht wie ales im System sehr elegant und durchgestylt aus. Leider enhtält er zu Beginn nur eine sehr geringe Auswahl an einfachen Hilfsprogrammen. Aktualisierungen für installierte Programme sowie den Ubuntu-Unterbau lassen sich hier jedoch sehr einfach erledigen – bequemer als bei anderen Ubuntu-Derivaten.

Mehr Programme gibt es in sogenannten Flatpaks. Das ist eine seit einigen Jahren gebräuchliche Form, Linux-Programme so zu verbreiten, dass sie bequem installierbar und kein Sicherheitsrisiko sind. Jedes Programm läuft in seiner eigenen Sandbox und kann daher dem Rest des Systems nicht gefährlich werden.

Das AppCenter von elementary OS ist auf Flatpaks vorbereitet – aber dafür muss man zunächst ein einziges Mal ein Programm von der Website Flathub.org herunterladen und installieren. Dies schaltet dann die ganzen anderen verfügbaren Flatpaks im AppCenter frei.

Im Flathub gibt es viele bekannte Programme als Flatpaks. Wenn man hiervon eines installiert, sind danach all die anderen direkt im AppCenter erhältlich.

Als normale*r Nutzer*in, die*der sich nicht gerade in Fachforen rumtreibt, dürfte dies verwirrend sein, schließlich will man da einfach nur schnell eine brauchbare Anwendung zur Erledigung der je anfallenden Aufgaben haben. Das AppCenter könnte wenigstens einen Hinweis anzeigen, dass man auch mal im Flathub vorbeischauen sollte.

Wer als erfahrene*r Linux-Nutzer*in die traditionelle Art der Software-Installation bevorzugt (mittels eines sogenannten Paketmanagers), ist derzeit sogar auf das Terminal angewiesen. Da kommt man mit klassischen Befehlen wie sudo dpkg -i oder sudo apt-get install meist doch noch ans Ziel. Die so installierten Programme können anschließend auch über das AppCenter aktuell gehalten werden.

Traditionelle Programme im Debian-Paketformat .deb installiert man mit dem Konsolenbefehl dpkg. Eine grafische Paketverwaltung gibt es zurzeit nicht.

Man kann dies als unnötig komplizierte Einschränkung kritisieren, die dem Ziel der einfachen Verfügbarkeit vieler Anwendungen zuwider läuft. Oder man spricht positiv von einer ‚kuratierten Erfahrung‘, die bewusst auf eine große Auswahl verzichtet. Denn wo keine übertriebenen Wahlmöglichkeiten sind, da stellt sich auch keine diesbezügliche Überforderung ein.

Ungewohnte Bedienung

Auch elementary OS verwendet Fenster, die grundsätzlich ähnlich bedient werden wie in anderen Systemen auch. Allerdings etwas anders. Der Knopf zum Schließen liegt auf der linken Seite der Titelzeilen; auf der rechten Seite befindet sich ein Knopf zum Vergrößern auf Vollbild. Einen Knopf zum Minimieren gibt es nicht – stattdessen muss man entweder das Programmsymbol im Dock am unteren Bildschirmrand anklicken oder die Tastenkombination [SUPER] + [H] drücken (die Super-Taste ist auf PCs die Windows-Taste). Das ist ungewohnt, aber man gewöhnt sich daran schnell.

Eine Übersicht zu weiteren Tastenkombinationen wird durch alleiniges Drücken von [SUPER] angezeigt. So kann man den Umgang mit Fenstern, mehreren Desktops (Arbeitsflächen), Screenshots oder auch mit der Bildschirmlupe einfach mal ausprobieren. Wer nicht auf Tastaturkürzel steht, kann teilweise auch Mausgesten verwenden, oder die Maus in eine der vier Bildschirmecken bewegen. Dort können dann auch diverse Aktionen ausgelöst werden. Solche Optionen gibt es aber auch in anderen Linux-Varianten.

Auf dem Schreibtsch (Desktop) lassen sich keine Dateien und Ordner anlegen. Er dient wirklich nur als Hintergrund, vor dem die gerade aktiven Fenster angezeigt werden. Dem liegt offenbar das Konzept des ‚minimal desk‘ zu Grunde, nach dem auch auf einem echten Schreibtisch nur die gerade relevanten Aufgaben zu sehen sein sollten, aber kein ‚kreatives Chaos‘ herrschen und auch kein Missbrauch als Ablageort.

Wie arbeitet es sich mit elementary OS?

Wenn der Reiz des Neuen verflogen ist, kann man mit elementary OS ganz normale Büroarbeiten erledigen. Das ist ja letztlich das, was ich den ganzen Tag mache – schreiben, kommunizieren und ab und an programmieren. Halt ‚Irgendwas mit Medien‘ 😉 Das tue ich nun schon seit Sonntag Nachmittag und fühle mich dabei recht wohl.

Leider sind die mitgelieferten Programme für E-Mail und Web nicht optimal. Das E-Mail-Programm synchronisiert zeitweise nicht mit dem Server und der Browser ist ziemlich träge. Und mit dem überladenen LibreOffice bin ich ohnehin noch nie ganz glücklich geworden. Doch in wenigen Minuten hatte ich mir Flatpak-Alternativen im AppCenter oder per dpkg-Befehl eingerichtet.

Als Word-, Excel- und PowerPoint-Ersatz habe ich SoftMaker Office 2021 gekauft (das sieht zwar optisch nicht aus wie elementary OS, kann aber Microsofts Office-Dateien fast perfekt lesen und schreiben). Als Grafikprogramm nutze ich wieder mal Gimp (das benutze ich sowieso seit dem Jahr 2004, egal welches Betriebssystem). Als E-Mail-Programm habe ich Mozilla Thunderbird entstaubt (nicht gerade hübsch, aber funktioniert immer noch so gut wie früher). Nur als Browser, tja, da verwende ich die Linux-Version von … Microsoft Edge (ein Paradoxon für sich, aber da ich auf dem großen Windows-PC und dem Android-Tablet ebenfalls Edge nutze, will ich auf die Synchronisierung von Lesezeichen usw. nicht verzichten).

Bei Kalender und Aufgabenliste ist nichts Besonderes dabei. Und das ist keine Kritik.

Einschränkungen gibt es bei der Wiedergabe vieler Videoformate mit dem Standard-Videoprogramm. Zum Beispiel wurde selbst bei selbst aufgenommenen mp4-Videos (2016 bis 2019 mit dem Smartphone) nur der Ton abgespielt. Ich habe aus der Flatpak-Auswahl dafür das Programm Celluloid installiert, alternativ stünde auch der bekannte VLC-Player zur Verfügung. Die Streaming-Portale Netflix und Amazon Prime funktionieren nur mit Googles Chrome-Browser, aber nicht mit Edge oder gar dem Standardbrowser. Das ist etwas schade, aber da kann das Betriebssystem nichts für.

Lästige Fehler

Leider ist elementary OS 6 noch nicht so stabil, wie es gerne wäre. Ich habe beim Testen und im nun täglichen Gebrauch diverse lästige Bugs gefunden. Beispielsweise lässt sich der Laptop nicht stabil aus dem Ruhezustand wecken: Zwar kann man sich einloggen, aber der Bildschrim bleibt danach dunkel, nur die Maus ist zu sehen und kann bewegt werden. Ich habe deshalb momentan jegliche Ruhezustands-Funktionen abgeschaltet.

Ein anderes Problem: Das systemweit ausgeschaltete Bluetooth schaltet sich immer wieder ein, wenn man den Bildschirm sperrt und sich danach wieder anmeldet. Das ist aber eher lästig; ein einfacher Mausklick schaltet es wieder aus.

Einige Nutzer*innen in Foren berichten davon, dass sich das System gar nicht erst installieren lässt, v.a. wenn man es parallel zu einem bereits vorhandenen Betriebssystem testen will. Ich selbst habe es einfach meine ganze Festplatte formatieren lassen, das machte keine Schwierigkeiten. Aber wer elementary OS erstmal nur als Zweitsystem testen will, muss sich mit Linux bereits auskennen – die Zielgruppe wird hier momentan noch verfehlt.

Fazit

Elementary OS 6 kann auf der Website des Projekts, elementary.io, heruntergeladen werden. Nach dem Motto „Zahl, wie viel du willst“, bittet das Team um eine Spende, man kann aber auch 0 eingeben und das System kostenlos erhalten. Eine Installationsanleitung gibt es auch.

Grundsätzlich ist elementary OS 6 ein schönes, übersichtliches und gut nutzbares System. Durch den bewussten Minimalismus kommt man nicht in Versuchung, Ewigkeiten mit der Suche nach der perfekten Konfiguration zu verbringen. So kann man auch nur schwer irgendetwas kaputt machen.

Sicherheits- und Programmupdates gehen schnell und schmerzlos über die Bühne. Durch Ubuntu 20.04 (Long Time Support-Version) als Basis wird das System auch bis 2025 unterstützt. So ist man eine ganze Weile sicher vor Update-Stress.

Schattenseite ist, dass die Programmauswahl am Anfang künstlich begrenzt wird (so lange, bis man von flathub.org das erste Programm installiert hat) und dass einige Fehler den sonst so guten Eindruck trüben.

Windows 11 und das Problem fehlender Technik-Transparenz

Microsofts kommendes Windows-Update „Windows 11“ war in technikaffinen Medien zuletzt häufig Thema. Unter anderem, weil Microsoft eher undeutlich kommuniziert, auf welchen Computern das Betriebssystem überhaupt funktioniert und so implizit nahelegt, sicherheitshalber Geld für neue Hardware auszugeben. Aber Windows 11 steht auch stellvertretend für einen jahrelangen Trend zu immer mehr Abgeschlossenheit von Computern. Bei GameStar Plus (leider Paywall) hat Georg Löschner einen sehr guten, etwas sarkastischen Kommentar geschrieben, der auf den Punkt bringt, was das Problem bei den Produkten großer Computerkonzerne heute ist: Konzerne wie Microsoft und Apple stellen nur noch hübsche, glattgebügelte Oberflächen bereit, die kaum noch echte Eingriffe seitens der Nutzer*innen zulassen.

Die zunehmende Abgeschlossenheit von Computern bei ihrer gleichzeitig immer größeren Verbreitung in verschiedenen Formen ist ein Problem, das auch bei Über/Strom immer wieder Thema ist, und mit dem ich mich seit Jahren befasse. In meinem Buch „Nutzerverhalten verstehen – Softwareenutzen optimieren“ schreibe ich:

„Transparent gegenüber Nutzer∗innen ist Software, wenn Nutzer∗innen jederzeit die Möglichkeit haben, sich über Hintergründe und Aktivitäten der Software in der aktuellen Situation sowie über das Zustandekommen der Berechnungs- oder Verarbeitungsergebnisse zu informieren. Die undurchsichtige Blackbox Software soll also ein Stück weit transparent gemacht werden.“ (S. 18).

Diese Art von Transparenz halte ich für wichtig, wenn wir als Nutzer*innen nicht nur Konsument*innen sein wollen, sondern weiter selbstbestimmt handeln. Und ja, das ist mit Arbeit verbunden, sowohl für Entwickler*innen als auch für Nutzer*innen:

Nutzer∗innen haben gewissermaßen eine Holschuld, indem sie bereit sein müssen, grundlegende Funktionsprinzipien von Software verstehen zu lernen. Anstatt mal indifferent, mitunter staunend, oft fluchend vor den Ausgaben eines Programms zu sitzen, sollten sie eine Vorstellung davon entwickeln wollen, was das Programm gerade für sie tut. Auf der anderen Seite haben Entwickler∗innen eine Bringschuld, indem sie Software so gestalten, dass Nutzer∗innen sie verstehen können(Hervorh. M.D., S. 19).

Ist Techniktransparenz elitär?

Aber das sehen nicht alle so. Der Nutzer „Zwart“ kommentierte unter Löschners Artikel:Elitärer Bullshit. Dass der Betrieb von PC immer einfacher wird und immer mehr Menschen dazu befähigt, das Potential zu nutzen, ist eine gute Entwicklung.“ (Hervorh. M.D.; Tippfehler habe ich im Zitat korrigiert). Auf den ersten Blick könnte man Löschners Artikel tatsächlich so sehen. Schreibt da nicht nur jemand, den es nervt, dass sein eigenes Expertentum heute nicht mehr gebraucht wird, weil heute eben jede*r einen Computer benutzen kann?

Aber der Kommentar übersieht den Kerngedanken des Artikels: Die Leute sollen heute gar nicht mehr tun wollen, was abseits schicker Oberflächen eigentlich möglich wäre. Je abgeschlossener und „glatter“ Technik wird und je weniger echte Einblick- und Eingriffsmöglichkeiten sie bietet, desto weniger wissen Menschen, welches Potenzial da eigentlich vorhanden wäre. Genau dadurch entsteht dann erst das Elitäre. Sie kommen auch gar nicht auf die Idee.

Meine Frau, die Lehrerin an einer berufsbildenden Schule ist, hat mir neulich erzählt, dass ein u.a. Technik unterrichtender Kollege festgestellt hat, dass Schüler*innen heute gar nicht mehr auf die Idee kommen, technische Geräte einfach mal auseinander zu nehmen und nachzugucken, wie die innen drin aufgebaut sind. Klar – wieso sollten sie auch? Technik lädt ja nicht mehr dazu ein. Smartphones und Tablets sind meistens verklebt, keine Schrauben oder große Lüftungsschlitze trüben das Bild. Nichtmal Akkus lassen sich wechseln.

Techno-Schamanismus?

Also ist die Technik halt da, und sie ist, wie sie ist. Georg Löschner schreibt in seinem Artikel:

„Wir beten den Rechner an, weil er läuft, ohne dass wir darüber nachdenken müssen, warum. Und wie bei jeder göttlichen Anhimmelung inklusive Selbstaufgabe stehen wir dumm da, wenn dann mal irgendwas nicht funktioniert. Denn heutzutage wird das Suchen nach dem Fehler hinter schicken ‚Ich helfe Dir! (kurz nach Hause telemetrieren, brb)‘-Mitteillungen versteckt, aber mangels Wissen, was da wo rödelt … denkt euch euern Teil.“

Die religiöse Metapher ist nicht neu, aber immer noch treffend. Schon Anfang der 1990er gab es dahingehend in einem Usenet-Posting eine dystopische „Vision“: Irgendwann wäre Software so verbreitet und verschlossen, dass wir sie nur noch wie eine Naturgewalt wahrnehmen. Nur sogenannte Techno-Schaman*innen wären in der Lage, sie im Auftrag ihres Stammes zu beherrschen. Sie wissen zwar nicht mehr, warum bestimmte Handlungen funktionieren (das hat die Gesellschaft insgesamt längst vergessen), aber zumindest, dass sie funktionieren, was für den Alltag der neuen Stammesgesellschaft ausreicht.

Unterscheiden lernen

Auch der Soziologe Niklas Luhmann sprach von Technik als Umwelt und als „zweiter Natur“, aber ganz so düster wie in o.g. Vision hat Luhmann das meines Wissens nicht ausgemalt. Technik war für Luhmann Umwelt von Gesellschaft, aber für seine eigenen Analysen noch nicht im Zentrum. Luhmann-Schüler Dirk Baecker hat das Thema seit den 2000ern dankbar aufgegriffen und theoretisch erarbeitet, wie sich Kommunikation in der „Computergesellschaft“ verändert.

In meiner Dissertation (ein kostenloses Druckexemplar schicke ich auf Anfrage gerne zu … ehrlich, die müssen weg) habe ich vor ein paar Jahren Baeckers „Formen der Kommunikation“ (2004) angewendet, um Nutzer*innen bei der Computernutzung zu beobachten und ihr Handeln besser zu verstehen. Ich habe also aufgezeichnet, was sie tun und das dann interpretiert. Systemtheoretisch ausgedrückt: Ich habe das Treffen von Unterscheidungen von Nutzer*innen-Systemen beobachtet, d.h. wie sie mit Selektionen bestimmte Elemente der Nutzungssituation vor dem Hintergrund der Situation unterschieden und damit andere Möglichkeiten ausschließen.

(Das klingt komplizierter, als es ist, darum hab ich ja auch später das oben erwähnte andere Buch geschrieben 😉 ).

Im Fazit der Arbeit schrieb ich jedenfalls:

„es [ist] nicht ausreichend, den Umgang mit Strukturen der Software zu ‚erlernen‘ oder möglichst effiziente Modelle von Nutzerhandeln zu entwickeln. Erfolgreiche Nutzung benötigt die immer wieder neue Erschließung der Software im jeweiligen Einsatzkontext. Immer wieder muss während der Nutzung erkannt werden, vor welchen Hintergründen die Nutzung weitergehen kann – grundsätzlich, und im Falle von Problemen ganz besonders. Das verlangt, sich (a) zu orientieren über die Möglichkeiten; (b) die Möglichkeiten auf ihre Eignung zum je aktuellen Zeitpunkt zu prüfen; und (c) sich zu entscheiden für eine Möglichkeit, was neue zu prüfende Möglichkeiten mit sich bringt. […] [Dazu] ist [es] nötig, das hinter der Oberfläche verborgene Funktionsprinzip der Software zu durchschauen. […] Nur wenn hinterfragt wird, was geschieht, wenn eine bestimmte sichtbare Option ausgewählt wird, kann geprüft werden, ob die Option eine geeignete Selektion wäre. (Hervorh. M.D., S. 325f.)

Früher war alles besser?

Der Trend geht freilich in genau die entgegengesetzte Richtung. Technik wird immer glatter und ihre Funktionsweise wird immer mehr versteckt. In den großen Consumer-Systemen Windows und macOS wird man kaum mehr motiviert, hinter die Oberfläche zu blicken, und weil sich Nutzer*innen daran gewöhnen, wird das auch gar nicht mehr hinterfragt oder nachgefragt. Selbstironisch stellt sich Georg Löschner im Autorenkasten seines Artikels als aus der Zeit gefallen dar. Er

„ist ein grummeliger alter Sack. Influencer und das laute Geschrei von Social Media nerven ihn, und dass die jetzt (wahrscheinlich) auch noch das neue Windows zuspammen dürfen, beschert ihm mehr Puls als ein achtfacher Espresso auf nüchternen Magen. Er kommt nämlich noch aus einer Zeit, als Rechner sich so zurechtpfriemeln ließen, wie man das gerne hätte.“

War also früher alles besser? Nein, natürlich nicht. Früher war es eine Grundvoraussetzung, zu wissen, wie ein Computer im Innern funktioniert, um ihn zu benutzen. Das war gesellschaftlich nicht gut, weil es viele Leute ausschloss.

Aber heute haben wir das andere Extrem – durch die einfachen, funktional einschränkenden Oberflächen sind Computer zwar so verbreitet wie noch nie. Aber sie sind jetzt so „einfach“, dass man gar nicht mehr auf die Idee kommt, hinter die Oberfläche zu blicken und oft nicht hinterfragt, ob das, was einem da vorgesetzt wird, wirklich wünschenswert ist.

Auch heute sind Expert*innen die einzigen, die das können; das ist nicht anders als früher. Und nach wie vor sorgt das nicht nur für Stress und Frustration, sondern – und das ist eben das Neue – für große Unklarheit darüber, was ein Computer eigentlich gerade mit unseren Daten tut. Die Hürde, das zu kontrollieren, ist hoch, und die einzige echte Wahl besteht heute nur noch darin, abzuschalten, sich mit alternatien Systemen wie Linux anzufreunden (was aber, wenn es kontrolliert sein soll, Wissen voraussetzt, das man aus genannten Gründen heute nicht mehr voraussetzen kann, also wiederum in Abhängigkeit von Expert*innen drängt) oder einfach mitzumachen in der schönen glatten durchdesignten Welt.


(Titelbild: sdx15 / shutterstock.com)

Corona-Tools und das Bedürfnis nach transparenter Technik

Wenn es an den eigenen Körper geht, werden Menschen schnell vorsichtig. Während wir vielen Technologien und Techniken im Alltag sonst schnell vertrauen (oder dank effektiver Werbung gar nicht erst die Vertrauensfrage stellen), verspüren wir bei Werkzeugen, die unser Leben im engen Sinne betreffen — unsere Gesundheit –, Unbehagen. Wenigstens, solange das jeweilige Werkzeug sich nicht als sicher herausgestellt hat, oder solange nicht klar ist, dass seine Urheber*innen es (und unsere Daten, die bei der Nutzung anfallen) nicht für hintergründige Zwecke missbrauchen. Gerade kann man das sehr gut an diversen Diskussionen um Corona-Tools nachvollziehen: letztes Jahr die erfreulich offene Debatte um die Ausgestaltung der ‚offiziellen‘ Corona-Warn-App, dieses Jahr die Frage, ob die Luca-App zu vorsichtigen Öffnungen von Geschäften, Restaurants oder Kulturveranstaltungen taugt, oder auch die Ängste vor den neuen Impfstoffen gegen COVID19.

Beispiel 1: Luca-Quellcode: Missglückter Transparenzversuch

Beim IT-Portal golem.de erschein kürzlich ein sehr negativer Kommentar zur Luca-App. Insbesondere wurde die Intransparenz bemängelt. Zwar wurde der Quellcode der Luca-Android-App öffentlich einsehbar gemacht, durfte aber zunächst nicht bearbeitet oder verbreitet werden. Selbst Zitate aus dem Code, etwa in Analysen, die Probleme aufdecken würden, waren verboten. Nach starker Kritik wurde die Lizenz des veröffentlichten Codes auf die bekannte GPL (GNU General Public License) geändert.

Problematisch bleibt, dass der Code nicht exakt derselbe ist, auf dem die aktuelle Android-App auf den Smartphones der Nutzer*innen beruht. Der Code der iOS-Version ist bisher gar nicht öffentlich, ebenso wenig der Code für die ‚Gegenstelle‘, also die Server des Betreibers. Das ist alles nur ein Open Source ‚Light‘ und wirkt eher wie ein Feigenblatt, das nur oberflächlich Vertrauen schaffen kann.

Zwar kann der Quellcode von Software ohnehin nur von Menschen verstanden werden, die selbst in der jeweiligen Sprache programmieren können und die Systemzusammenhänge durchschauen. Aber davon gibt es durchaus genug. Doch wenn der Quellcode nicht aktuell ist, stellt die Herstellerfirma nur scheinbare Transparenz her, und gerade das weckt Zweifel. Kommunikativ ist das nicht gerade geschickt. Statt Vertrauen erzeugt das Vorgehen der Luca-Entwickler*innen bisher eher Misstrauen, selbst wenn die Herstellerfirma und ihr PR-Gesicht, der Rapper Smudo, nur das Beste wollen.

Beispiel 2: RNA-Code des BioNTech-Impfstoffes

Bei der Weltgesundheitsorganisation war die RNA-Sequenz des COVID-Impfstoffes von BioNTech eine ganze Weile als Word-Datei verfügbar. Mittlerweile ist der Link veraltet, aber im Internetarchiv gibt es noch eine Kopie: https://web.archive.org/web/20210110172535/https://mednet-communities.net/inn/db/media/docs/11889.doc ). Wenn man mal von der Grundsatzdiskussion absieht, ob DNA und RNA mit Software-Quellcode vergleichbar sind, dann können solche Veröffentlichungen genauso nützlich sein wie veröffentlichter Quellcode — wiederum nicht direkt für Laien, aber für jene „Trivialisierungsexperten“ (Luhmann), die ihn stellvertretend für uns einschätzen und erklären. Für den BioNTech-Impfstoff hat das der niederländische Softwareentwickler Bert Hubert getan (oben auf der Seite sind auch Übersetzungen des Artikels in andere Sprachen verlinkt, u.a. Deutsch). Eine faszinierende Lektüre, die nebenbei zeigt, wie technisch mit biologischen Mechanismen umgegangen wird.

Trivialisierungsexpert*innen sind diejenigen Instanzen, denen wir stellvertretend vertrauen, wenn wir den durch sie trivialisierten Zusammenhängen selbst nicht vertrauen können, weil diese zu komplex sind, als dass wir sie als Laien ohne unverhältnismäßig hohen Lernaufwand nachvollziehen könnten. Aber wenn ein*e Trivialisierungsexpert*in in der Lage ist, die Zusammenhänge und die Folgen von Technik auf eine Weise zu kommunizieren, dass sie auch für Laien anschlussfähig wird, dann kann sich viel unnötiges Misstrauen (mit all seinen mitunter stressigen Auswirkungen) auflösen. Lehrer*innen und Wissenschaftsjournalist*innen sind typische Beispiele.

Natürlich funktioniert der Vertrauensaufbau über Trivialisierungsexpert*innen nur, wenn wir diesen Menschen trauen. Wer sowieso jedes Vertrauen in etablierte Instanzen verloren hat, wird im RNA-Beispiel auch nach der Erklärung Huberts weiter misstrauisch bleiben, etwa weiter glauben, dass der Impfstoff die menschliche DNA verändert, obwohl das rein technisch gar nicht geht. Allerdings ist so eine misstrauische Grundstimmung, wie wir sie heute oft in sozialen Medien erleben, auch eine Folge einer jahrzehntelang erlernten Blackbox-Sicht auf komplexe Technik. Glücklicherweise ändert sich das seit einiger Zeit.

Technik-Transparenz als gesellschaftliches Ideal

In meinem Buch „Nutzerverhalten verstehen — Softwarenutzen optimieren“ (2020) habe ich Technik-Transparenz als Forderung an eine Gesellschaft gestellt, „in der Menschen nicht nur als Konsumenten von Produkten funktionieren“ (S. 19). Ich bezog mich im Buch nur auf Software im engeren Sinne, aber man kann das auch auf Technik insgesamt ausweiten.

„Transparent gegenüber Nutzer*innen ist Software, wenn Nutzer*innen jederzeit die Möglichkeit haben, sich über Hintergründe und Aktivitäten der Software in der aktuellen Situation sowie über das Zustandekommen der Berechnungs- oder Verarbeitungsprozesse zu informieren“ (S. 18).

Das ist aber nicht nur eine Bringschuld der Entwickler*innen von Software bzw. Technik, sondern auch wir Nutzer*innen, wir Laien, sind gefordert, uns mit Technik beschäftigen zu wollen, zumindest wenn wir als selbstbestimmte Menschen handlungsfähig bleiben wollen. Es braucht also einerseits eine lernförderliche Umgebung — Technik, die uns einlädt, sich tiefer mit ihr zu befassen — und andererseits unseren Wunsch, zu lernen und zu verstehen.

Das „Ideal transparenter Software“ hatte ich im Buch in einer einfachen Grafik zusammengefasst:

Das Ideal transparenter Software (aus meinem Buch „Nutzerverhalten verstehen – Softwarenutzung optimieren“, 2020, S. 20)

Was da für Software dargestellt wird, gilt in Wahrheit für Technik insgesamt. Es gibt bei jeder Technik (ob nun konkret ‚anfassbare‘ Sachtechnik oder Technik im Sinne eines Verfahrens) immer die Oberflächenstruktur, mit der wir auf Technik zu-greifen oder sie verwenden, und dahinter liegende Annahmen und Modelle, die bestimmen, was wir im Zu-griff tun können und wie wir das, was wir da eigentlich tun, verstehen können.

Ich plädiere für einen stärkeren Fokus auf die Vermittlungsebene. Es reicht nicht, eine Technik nur nach ergonomischen Kriterien, Effizienzgedanken oder auch Nutzungsfreude (Joy of Use) zu gestalten. Schon bei Planung und Entwicklung sollten Wege mitgedacht werden, wie Nutzer*innen bei Bedarf auf die Tiefenstruktur zugreifen können.

(Titelbild: SplitShire / Pixabay.com)

Kundenservice als Kommunikation statt Kontakt

Meine Kollegin Uta Buttkewitz hat neulich ihre kafkaesken Erfahrungen mit der Hotline ihres Internetanbieters geschildert: stundenlanges Warten — die Weiterleitung von einer Person zur nächsten — die Feststellung, dass ein gebuchter Service trotz Zusicherung doch nicht gebucht wurde — ein erneuter Buchungsversuch, der angeblich gar nicht erlaubt sei, aber trotzdem gemacht würde. Solche Situationen, wo scheinbar die eine Hand nicht weiß, was die andere tut, haben wir wohl alle schon mal erlebt. Gefühlt dauert sowas ewig bis zur Lösung eines Problems. Für ein befriedigendes Erlebnis müsste der ganze Lösungsprozess mit seinen Einzelschritten als konsistente, zielführende Kommunikation wahrgenommen werden, nicht als Reihung unverbundener, offenbar folgenloser Kontakte. Verbindlichkeit, Transparenz und Antizipation helfen dabei.

Ob es um das Internet geht oder die Gesundheit, die Steuer oder das Bankkonto, die Urlaubsplanung oder das seelische Gleichgewicht: Wir suchen uns Hilfe, wenn wir ein Problem nicht selbst lösen können.

Ein Problem lösen heißt, einen unerwünschten Ausgangszustand schrittweise in einen erwünschten Endzustand zu transformieren.

Wenn wir die nötigen Schritte zur Transformation von Ausgangs- in Endzustand nicht kennen, nicht ermitteln können oder vielleicht gar nicht genau wissen, wie der Endzustand sein sollte, übergeben wir das Problem an Menschen, von denen wir glauben, dass sie dafür Expert*innen sind — „Trivialisierungsexperten“, wie Luhmann dies nannte. Sie sollen alles einfacher machen.

Wir glauben an die Fähigkeit dieser Menschen, uns zu helfen, denn sie wurden dafür ausgebildet, haben jahrelange Erfahrung oder arbeiten einfach in der Branche. Deswegen geben wir ihnen einen Vertrauensvorschuss, wenn wir uns mit einem Anliegen bei ihnen melden. Und sind enttäuscht, wenn schon allein die Kommunikation mit diesem Hoffnungsträger*innen zum stundenlangen Warte- und Ratespiel wird.

Nur ein Ausschnitt: Der einzelne ‚Kundenkontakt‘

Ich hatte in dem Buchmessen-Vortrag letztes Jahr schon mal auf die unterschiedlichen Wahrnehmungen von Anrufer*in und Support-Mitarbeiter*in bei Kundendienst-Situationen hingewiesen (vgl. die Abbildung unten).

Als Mitarbeiter*in (links) und als Anrufer*in (rechts) hat man mitunter unterschiedliche Wahrnehmungen der Kommunikation bei einer Kundendienst-Situation.
Als Mitarbeiter*in (links) und als Anrufer*in (rechts) hat man mitunter unterschiedliche Wahrnehmungen der Kommunikation bei einer Kundendienst-Situation.

Solche und ähnliche Wahrnehmungen spielen eine Rolle für das einzelne Gespräch: Als wie freundlich, wie gestresst, wie hilfsbereit bzw. bereit zur Mitarbeit nehmen Anrufer*in und Mitarbeiter*in sich gegenseitig war? Wie empathisch wirkt der*die Mitarbeiter*in? Als wie flexibel oder wie bürokratisch erscheint das Unternehmen, mit dem man gerade ‚Kontakt‘ hat?

Diese Eindrücke kann man im einzelnen Gespräch (analog: E-Mail, Chatnachricht, usw.) beeinflussen, dafür kann man auch schön mit Trainings arbeiten. Gut für die Statistik ist es, wenn — wie auch Uta in ihrem Blogeintrag schrieb — das Gespräch dann in der Euphorie positiv bewertet wird: Endlich wurde man mal verstanden, endlich hat sich ein*e Mitarbeiter*in bemüht, die Lösung zu finden. Aber das hält nur an bis zum Moment der Wahrheit.

Denn da zeigt sich, ob das Gespräch ein echter Schritt zur Lösung des Anliegens war (= im Problemlöseprozess ein Schritt Richtung erwünschter Endzustand) oder ob man sich weiter im Kreis dreht. Zwar kann man das als Anrufer*in nicht völlig beurteilen, denn man kennt ja die internen Prozesse des Unternehmens gar nicht. Aber es kommt auf den Eindruck an, den man hat: Noch ein Tag ohne Internet — der Defekt am Auto immer noch nicht behoben — nach wie vor Abstürze der Software, usw. „Und schon so viel Zeit in der Hotline verplempert.“ Der nächste ‚Re-Contact‘ ist dem Unternehmen sicher.

Verbindlichkeit, Transparenz und Antizipation für konsistente Kommunikation

Auch wenn das Ideal die „Erstlösungsquote“ ist (d.h. die Lösung des Problems beim ersten Kontakt; siehe hier zur Erklärung dieses und anderer üblicher Indikatoren): Viele Probleme lassen sich gar nicht in einem einzelnen Kundenkontakt lösen, oder nur, wenn man idealisierte Szenarien annimmt: Anrufer*innen, die mitarbeiten können; Systeme, die sauber funktionieren; Kolleg*innen, die alles genau nach Prozess erledigen. Leider ist das selten so perfekt. Und so besteht eine Dienstleistung von Anfang bis Ende eben doch aus mehreren Anrufen, Rückrufen, E-Mails, usw.

Für ein befriedigendes Erlebnis muss daher der ganze Lösungsprozess im Auge behalten werden. Die Einzelschritte zur Problemlösung müssen als konsistente, zielführende Kommunikation wahrgenommen werden, nicht als Reihung unverbundener, folgenloser Kontakte, über die Uta Buttkewitz in ihrem Buch schreibt.

Um dies zu erreichen, gibt es drei Faktoren, die ich in den letzten Jahren bei der praktischen Arbeit mit Kund*innen als hilfreich erlebt habe:

  • Verbindlichkeit über den Prozess der Problemlösung
  • Transparenz über zu erwartende Ungewissheiten
  • Rechtzeitige Antizipation von Alternativen.

Verbindlichkeit über den Problemlöseprozess

Dass man verbindlich kommunizieren soll, lernt jede*e Call-Center-Agent*in in der Schulung. Das wird gerne reduziert auf den Gebrauch von Konjunktiven und ähnlichen ‚Weichmachern‘. Ich bin der Ansicht, dass es vom konkreten kommunikativen Kontext abhängt, ob man Formen wie „würde“, „vielleicht“, „könnte“, „sollte“ usw. benutzen kann oder nicht. Gibt man außerhalb der Reihe mal einen persönlichen Tipp, kann man das schon mal so ‚weich‘ formulieren.

Aber geht es um die konkreten Problemlösungsschritte oder bestimmte vorgegebene Prozesse, dann vermitteln solche Formen Ungewissheit über den weiteren Ablauf. Sie künden von Unsicherheit über das eigene Vorgehen und erzeugen damit letztlich den Eindruck, bei dem Unternehmen nicht gut aufgehoben zu sein. Wenn das Gespräch also an einer Stelle angelangt ist, in der ein konkreter Lösungsschritt verkündet oder das weitere Vorgehen kommunziert wird, sollte 😉 man in der Tat auf solche Wörter verzichten.

Transparenz über Ungewissheiten

Verbindlichkeit heißt nicht, dass man so tun muss, als wäre zu jeder Zeit alles glasklar. Es gibt — je nach Branche andere — Situationen, in denen der Erfolg eines Lösungsschrittes nicht absehbar ist. Wie jeder Plan muss sich auch ein Plan zur Problemlösung in der spezifischen Situation bewähren (und dass das nicht selbstverständlich ist, hat Lucy Suchman in „Plans and Situated Actions“ sehr schön herausgearbeitet).

Ob etwa ein Routerneustart oder Routertausch die ständigen Internetabbrüche beheben, weiß man nicht — erfahrungsgemäß hilft es zwar oft, aber mitunter eben auch nicht, weil nicht alle Faktoren einer Situation bekannt und ermittelbar sind. Also muss man es ausprobieren, und genau das kann man kommunizieren: „Wir machen jetzt XYZ, beobachten das bis nächste Woche und dann entscheiden wir gemeinsam, wie es weitergeht“.

Antizipation von Alternativen

Jede Entscheidung, die wir treffen, schließt andere Entscheidungen aus, die wir stattdessen hätten treffen können. Jede kommunikative Äußerung und jede Handlung ist eine Auswahl aus einem Bereich anderer, in der Situation ebenfalls denkbarer Äußerungen und Handlungen. Unter Berücksichtigung des Kontexts entscheiden wir uns für diejenige, die uns als am voraussichtlich erfolgreichsten erscheint.

Im Kundendienst ist das oft durch Prozesse geregelt. An einem bestimmten Schritt der Problemlösung darf nur X, Y oder Z erfolgen, auch wenn der*die Mitarbeiter*in denkt, dass A, B oder C sinnvoller wären. Also muss X, Y oder Z umgesetzt und den Anrufer*innen als sinnvoll verkauft werden. Das heißt aber nicht, dass man da nicht schon Alternativen vorhersehen kann und sich für diese gedanklich offenhalten.

„Wir starten jetzt das Programm neu und dann wird es garantiert wieder funktionieren“ klingt zwar schön verbindlich und erzeugt für den Kontakt vielleicht eine gute Bewertung, kann aber im gesamten Lösungsprozess in Enttäuschung umschlagen, wenn es doch nicht klappt. Daher ist es verbindlicher und transparenter, Alternativen mitzudenken: „Wir machen jetzt XYZ. Meistens funktioniert das schon, aber falls das nicht reicht, werden wir danach ABC machen.“

Zusammenfassung

Wenn Verbindlichkeit, Transparenz und Antizipation von allen beteiligten Mitarbeiter*innen berücksichtigt werden, dann kann auch ein über mehrere Kontakte dauernder Problemlöseprozess als zielführende Kommunikation erlebt werden — sodass sowohl Kund*innen als auch Mitarbeiter*innen das Gefühl haben, an einem Strang zu ziehen, um planvoll, aber situationsgerecht ein gemeinsames Ziel zu erreichen. Nebeneffekt: Viele Kund*innen fühlen sich dadurch auch ernster genommen, als würde man — für den Kontakt verbindlich, aber für das Ganze blind — Prozesse durchklicken.


Mehr zur Kommunikation im technischen Support unter Berücksichtigung gegenseitiger Kund*innen- und Mitarbeiter*innen-Erwartungen finden Sie in meinem Sachbuch „Die Unschuld der Maschinen“ (2019).

(Titelbild: Alexas_Fotos / pixabay.com; Headset-Illustration: Gerd Altmann / pixabay.com)