Magdeburg, Sievertorstraße (Bilder)

In Magdeburg wird sehr viel gebaut, nicht nur überteuerte Tunnel und Brücken, sondern auch diese heute überall üblichen gesichtslosen Neubauten (gut, in der Innenstadt nahe des Doms ist man zuletzt ein wenig vom üblichen Schema abgewichen). Aber außerhalb des Zentrums gibt es noch viele städtische Räume, die … ‚entwickelt werden wollen‘. Einer dieser Straßenzüge ist in der Alten Neustadt, zwischen Sievertorstraße und Böttcherplatz, nicht weit vom Hafen entfernt. Auch ohne Corona-Lockdown ist da nicht viel los; zwischen Edeka-Neubau und schön saniertem Siemens-Gymnasium verfallen alte Gebäude vor sich hin. Noch gar nicht so alte Graffitis verblassen schon. Aber mehr und mehr Häuser werden saniert, und man fragt sich, wie lange diese recht surreale Stimmung der Straße noch bestehen bleibt.

Der maskuline Status Quo (Reisetagebuch Cyberpunk 2077, Teil III)

Es wurde zeitweise viel Wirbel darum gemacht, dass wir im Spiel „Cyberpunk 2077“ unsere Figur am Anfang optisch frei gestalten können und dabei mit männlichen und weiblichen Geschlechtsmerkmalen gleichzeitig ausstatten. Auch ein fiktionales Werbeplakat im Spiel, das an vielen Orten hängt (und in einem Trailer 2019 bereits skandalisiert wurde), zeigt eine Person mit Brüsten und Penis. Und es ist möglich, Liebes- und sexuelle Beziehungen sowohl zu männlichen als auch weiblichen anderen Figuren einzugehen bzw. entsprechende Sexarbeiter*innen zu besuchen.

Doch schnell zeigt sich, dass all dies nur oberflächlich ist. Die meisten anderen Figuren, denen man im Lauf der Geschichte begegnet, sind eindeutig männlich oder weiblich, und überhaupt ist das Milieu, in dem wir uns bewegen, sehr maskulin geprägt. Es gibt eine Diskrepanz zwischen Gestaltung und Verhalten der Hauptfigur einerseits und ihrer gesellschaftlichen Umwelt andererseits. Ersteres kann zwar körperlich, sexuell und den Kleidungsstil betreffend sehr divers ausfallen. Aber ob wir uns nun als Mann gestalten oder als Frau, oder Merkmale beider ‚klassischen‘ Geschlechter vermischen, und welche sexuellen Vorlieben wir haben — all das ist vorwiegend Ausdruck technischer Anpassungsfähigkeit und subjektiven Modegeschmacks und heißt nicht, dass die Gesellschaft irgendwie freier geworden ist. Die Spielwelt zeigt im im Kern die üblichen patriarchalischen und turbokapitalistischen Strukturen unserer Welt, und es geht nicht darum, diese zu verändern.

Raumgreifende Einsatzbesprechung

In Night City und damit auch in den Aufgaben im Spiel geht es um Geld, Macht, Kontrolle und körperliche Gewalt, was auf typisch männliche Weise demonstriert wird. Vor allem der Anfang des Spiels, wo wir einen geheimen Biochip stehlen müssen, ist ein einziges Gangsterklischee: dicke Muskeln und Knarren, Goldkettchen und Tattoos. Manspreading und Mansplaining, dicke Autos und harte Sprache, und natürlich die unübersehbaren Cyberimplantate. Anstatt Dominanzgesten und -symbole zu überwinden, wurden sie eben von Personen aller Geschlechter übernommen. Wer als Außenseiter*in in der korrupten Konzernwelt Night Citys überleben will, muss sich eben anpassen.

Jackie, unser bester Freund zu Spielbeginn und ein typisches Beispiel für ‚harte Schale, weicher Kern‘, träumt den Traum vom Underdog zum Millionär zu werden, indem er als Söldner für dubiose Auftraggeber Diebstähle oder Auftragsmorde durchführt. Cyberpunk ist der Spielbeginn nur, weil der Raub (der dem Filmgenre des Heist Movies ähnelt) mittels Computer- und Netzwerktechnik geplant und durchgeführt wird, und das Opfer ein aus heutiger Sicht böser (aber in der Dystopie ganz normaler) Megakonzern ist; ansonsten könnte dieser Spielbeginn so auch in einem „Grand Theft Auto“ vorkommen, oder einem gewöhnlichen Gangsterfilm.

Den genretypischen Underdogs in „Cyberpunk 2077“ geht es nicht um Verbesserung der Verhältnisse, sondern darum, im Rahmen der Verhältnisse möglichst unbehelligt zu (über)leben oder aber aufzusteigen — was bedeutet, für dubiose Auftraggeber*innen schmutzige Geschäfte zu erledigen und so hoffentlich zu Wohlstand zu gelangen, ohne die Rache der Unterlegenen auf sich zu ziehen. Wir spielen eine*n Söldner*in, Diebstahl und Mord gehören zu unserem Alltag. Zwar ist es für das Genre Cyberpunk typisch, dass seine Geschichten in einer mindestens halbkriminellen Schattenwelt spielen, die nur das Gegenstück zur offiziell geduldeten Konzernkriminalität ist.

Johnny Silverhand (Keanu Reeves) ist — nurmehr virtuell existenter — Rockstar, was ihn aber nicht daran hindert, testosterongeladene Dominanz auszustrahlen.

In Neal Stephensons Roman „Snow Crash“ etwa ist die Mafia ein normales Franchise-Unternehmen und es ist in Arbeitsverträgen legal, Arbeitskräfte zu töten, wenn sie nicht ihre Leistung erbringen. Und Hauptfigur Case in William Gibsons „Neuromancer“ ist der Prototyp des Cyberpunk-Söldners, unter anderem als Hacker tätig. Andererseits steht in Gibsons Roman „Virtuelles Licht“ eine einfache Fahrradkurierin im Zentrum, und in „Snow Crash“ ist ein Pizzabote die Hauptfigur — letztlich also Menschen, mit deren Alltag wir uns eher identifizieren könnten als mit dem Ganstermilieu, in dem wir uns im Spiel „Cyberpunk 2077“ ständig bewegen.

Die entsprechenden sozialen Kontexte, die im Spiel gezeigt werden, riechen förmlich nach Testosteron (und nicht bloß dann, wenn Keanu Reeves als Johnny Silverhand im Muskelshirt seine Arme hinter dem Kopf verschränkt). Wir sehen eine Spielwelt, die auf Dominanz in Form von Macht, Geld, Technologie und Gewalt beruht, und Charaktere, die sich an diesen maskulinen Idealen ausrichten, egal welchen Geschlechts die Figuren sind. Night City insgesamt ist eine maskuline Welt, in der nur die Starken überleben.

Mistys Esoterikladen ist ein Ruhepol in der hektischen Stadt.

Selbst der Aspekt der Heilung ist technisiert und militarisiert. Wer es sich in Night City leisten kann, schließt eine „Trauma Team“-Versicherung ab. Erleidet man dann einen Unfall oder wird Opfer eines Überfalls, rückt ein Trupp schwer bewaffneter Sanitäter aus, mehr Sondereinsatzkommando als Krankenwagen. Weniger privilegierte Leute können es bei zwielichtigen Ripperdocs versuchen, die ihre mehr oder minder ausgeprägten OP-Künste in düsteren Kellergeschossen anbieten. Die meisten Ripperdocs im Spiel sind Männer.

Auf das seelische Gleichgewicht gerichtete Heilung findet man eher am Rande. Die Nebenfigur Misty — eine Rolle, die nach dem Muster der Femme Fatale aus dem film noir gestaltet ist und auch eine Hommage an Pris aus Blade Runner darstellt — betreibt einen Esoterikladen, in dem sie Dienstleistungen wie „Chakren-Harmonisierung“ oder „Crystal Radiation“ anbietet, natürlich alles in einer digitalisierten Form, aber immerhin im Kerzenschein, zwischen Winkekatze, Hindustatuen und Räucherstäbchen. Ihr Laden, so klischeehaft er ist, wirkt als Ruhepol in der lauten Stadt, und es ist interessant, dass es eine Frau ist, die ihn betreibt.

Zum Nachlesen: Amanda Gormans Gedicht zur Amtseinführung Joe Bidens

Gestern war in den USA die Amtseinführung Joe Bidens, und in vielen Medien wird das Gedicht hervorgehoben, das die Autorin Amanda Gorman bei der Zeremonie vorgetragen hat. Die Washingtoner Zeitung „The Hill“ hat den Text des Gedichts veröffentlicht, sodass man es noch einmal in Ruhe nachlesen kann. Gerade, wenn Englisch nicht die erste Sprache ist, hilft das doch sehr beim Verständnis. Hier geht es zum Artikel: https://thehill.com/homenews/news/535052-read-transcript-of-amanda-gormans-inaugural-poem .

Update: Eine deutsche Übersetzung hat das Redaktionsnetzwerk Deutschland veröffentlicht: https://www.rnd.de/kultur/amanda-gorman-gedicht-auf-deutsch-lesen-sie-hier-die-ubersetzung-und-das-original-the-hill-we-climb-QOXSZUHXRREFJNXHXKM2S4VEUY.html

7 aus dem Strom: Lesetipps zu Gehirn & KI, Archäologie und Weltraumforschung

Nach längerer Zeit folgt heute mal wieder ein Beitrag unserer Reihe „7 aus dem Strom“, wo wir lesenswerte Artikel aus dem endlosen Datenstrom des Webs heraussieben — diesmal unter anderem dazu, wie Machine Learning helfen kann, das menschliche Gehirn zu verstehen, wo die Grenzen des Sprach“verstehens“ von Künstlicher Intelligenz liegen und wie die Ingenieurin Christine Darden, in den 1960ern eine der ersten Frauen bei der NASA, ihre vierzigjährige Zeit dort erlebte.


Künstliche neuronale Netze und die Funktion lebender Gehirne: Das von mir sehr geschätzte Quanta Magazine hat im Oktober 2020 einen Beitrag darüber gebracht, wie Machine Learning mit neuronalen Netzen dabei hilft, Gehirnfunktionen besser zu verstehen. Bei Forschungen mit neuronalen Netzen, die zur Bild-, Sprach- und Musikerkennung erstellt wurden, stellte sich heraus, dass deren Aufbau überraschende Ähnlichkeiten zu echten Gehirnfunktionen zeigte.

So, wie ein echtes Gehirn beispielsweise spezialisierte Bereiche zur Erkennung von Gesichtern ausbildet, geschah Ähnliches auch in künstlichen Netzwerken. Dies, so der Artikel, würde dabei helfen, zu verstehen, wie das Gehirn so schnell und scheinbar mühelos Wahrnehmungen verarbeiten und einordnen kann. Am Beispiel der Wahrnehmung von Bild- und Audiodaten sowie simulierter Gerüche erklärt der Artikel diese Annahme und Grundprinzipien. Er geht aber auch auf Grenzen der Modellierung ein.


Sprach’verstehen‘ durch KI: Überhaupt muss immer wieder auf Grenzen der KI-Leistung hingewiesen werden. Dass zum Beispiel Systeme wie GPT-3 zwar verblüffend kohärente Texte generieren können, die oft Sinn zu ergeben scheinen, aber doch an Kleinigkeiten scheitern (und sich so als letztlich dumme, nicht verstehende Maschine entlarven), kann für Skeptiker*innen der KI-Forschung vielleicht beruhigend sein. Bei Technology Review gab es zu Grenzen künstlichen Sprach’verstehens‘ vor einigen Tagen einen interessanten Beitrag.

Danach ignorieren Systeme wie GPT-3 die Wortreihenfolge, die aber entscheidend für die Bedeutung eines Satzes sein kann: „Die Systeme waren auch der Ansicht, dass Sätze mit gegensätzlichen Aussagen – etwa ‚Ruft Marihuana Krebs hervor?‘ und ‚Ruft Krebs Marihuana hervor?‘ – dieselbe Frage stellten.“ Für uns Menschen sagen beide Sätze etwas völlig anderes aus — für ein Machine-Learning-System bedeuteten sie in einem Test dasselbe. Es wird vermutet, dass sich die Systeme beim Trainieren vor allem auf Schlüsselwörter konzentrieren. Dies soll bei künftigen Trainings berücksichtigt werden, um das Problem zu vermeiden.


Wie Google funktioniert: Wie kommt die Suchmaschine Google eigentlich zu ihren Ergebnissen und vor allem deren Gewichtung? Diese Frage ist nicht nur unter dem Aspekt der Suchmaschinenoptimierung für Anbieter von Websites interessant, sondern sollte auch jede*n interessieren, die*der Google verwendet, um Recherchen durchzuführen. In der Kolumne „Meinels Web-Tutorial“ geht Christoph Meinel auf einige Grundlagen ein. „Wie weiß Google, was wo steht?“ fragt der Autor und erklärt, dass dem das sogenannte Zipfsche Gesetz zugrunde liegt.

Das „besagt ganz vereinfacht, dass je häufiger gesuchte Wörter in einem Dokument vorkommen, desto relevanter ist die Webseite für den Suchanfragenden“. Dazu kommt der berühmte „Page-Rank-Algorithmus“, der die Anzahl der Verlinkungen anderer Seiten auf eine Seite gewichtet. Verlinken viele andere Seiten B, C, D … auf eine Seite A, oder eine einzelne besonders wichtige Seite B verlinkt auf Seite A, dann wird Seite A als wichtig eingestuft. Verlinkt hingegen Seite A auf viele andere Seiten, dann wird Seite A als unwichtig eingestuft.


Cyberpunk zwischen Wirklichkeit und Fiktion: Durch das Computerspiel Cyberpunk 2077 wurden Ende 2020 wieder einmal transhumanistische Phantasien in unterhaltsamer Blockbuster-Form verhandelt. Die Zeitschrift GameStar hat zu dem Spiel am 16. Januar ein Sonderheft rausgebracht, in dem auch zwei Artikel von mir enthalten sind. Die sind im Plus-Bereich der GameStar-Website zu einem zusammengefasst.

„Cyberpunk-Szenarien zeigen uns eine Welt, in der die Erweiterung des menschlichen Körpers und menschlicher geistiger Fähigkeiten ins Extrem getrieben wurde“, beginne ich und frage dann, was Technik eigentlich für die Menschen ist, insbesondere da die so lange gültige Grenze — hier der menschliche biologische Körper, dort das technische Gerät — im Transhumanismus aufgehoben wird.


Emotionaler Streit um die „Himmelscheibe von Nebra“: Der kleine Ort Nebra in Sachsen-Anhalt ist vor einigen Jahren bekannt geworden, weil dort 1999 die sogenannte „Himmelscheibe“ gefunden wurde. Sie gilt als Sensation und gehört seit 2013 zum UNESCO-Weltdokumentenerbe, an der Seite der Gutenberg-Bibel, des Nibelungenlieds oder dem Briefwechsel Leibniz‘. Der Fund rief aber auch Skeptiker auf den Plan, die die Scheibe zuerst als Fälschung ansahen. Über diese Frage hat man sich mittlerweile geeinigt (keine Fälschung), ist sich aber über das Entstehungsdatum uneins.

In der New York Times war nun ein längerer Bericht, der den teils emotional geführten Streit zwischen den unterschiedlichen wissenschaftlichen Positionen beleuchtet. Als „bittere archäologische Fehde“ bezeichnet die Überschrift den Streit, der zwischen Professoren der Universität Tübingen und der Universität Halle geführt wird. Stammt die Scheibe aus der Bronzezeit, wie in Halle geglaubt wird, oder ist sie 1.000 Jahre jünger und aus der Eisenzeit, wie man in Tübingen meint? Ausführlich fasst der Artikel die Argumente beider Seiten zusammen und zeigt so, wie spannend Archäologie sein kann.


Planeten ohne Sonnensystem: Planeten kreisen um Sterne — das ist das gewöhnliche Alltagsverständnis. Doch es kann auch ‚Ausreißer‘ geben, die nicht mehr zu einem Sonnensystem gehören. Diese „Einsamen Erden“, so der Titel eines FAZ-Artikels, werden durch Schwerkraft-Wechselwirkungen aus dem Sonnensystem herauskatapultiert, wie sie bei der Entstehungszeit des Systems auftraten, oder auch, wenn im Laufe vieler Millionen Jahre ein Stern dem anderen zu nahe kommt:

„Denn anders als zu den Zeiten angenommen, da man sie ‚Fixsterne‘ nannte, bewegen sich die Sterne. Und das nicht nur um das Zentrum der Milchstraße herum, sondern auch in Reaktion auf die Gravitation ihrer Nachbarn“, schreibt Ulf von Rauschhaupt in dem Artikel. Dies könne irgendwann dazu führen, dass ein anderer Stern unserer Sonne einmal so nahe kommt, dass auch die Erde irgendwann ihre sichere Umlaufbahn verlässt und künftig einsam (und kalt) durchs All irrt. Dass dies jedoch nicht das Ende des Lebens sein müsste — nicht einmal für die Menschheit — ist einer der interessantesten Aspekte an dem Artikel.


Ingenieurin statt menschlicher Computer: Im Jahr 2016 zeigte der Film „Hidden Figures“, dass das amerikanische Raumfahrtprogramm der 1960er Jahre maßgeblich von der Arbeit von Mathematikerinnen mit dunkler Hautfarbe abhängig war — sie arbeiteten in einer Abteilung namens „Colored Computers“, wobei mit „Computer“ zu jener Zeit Mathematiker*innen gemeint waren, die komplexe Algorithmen ausführten, quasi als Dienstleistung für Ingenieure. Obwohl so wichtig, standen die Frauen im Schatten ihrer männlichen weißen Kollegen. Der Film stellte drei „Unerkannte Heldinnen“ (so der deutsche Titel) in den Vordergrund.

Es gab aber noch mehr. Eine von ihnen war Christine Darden, und das Quanta Magazine hat mit ihr ein Interview geführt. Darden fing bei der amerikanischen Raumfahrtbehörde NASA als „menschlicher Computer“ an, war aber frustriert von der mangelnden Anerkennung: „Die männlichen Ingenieure forschten, hielten Vorträge, schrieben und publizierten Paper, und sie wurden befördert“, berichtet Darden. „Die Frauen jedoch befolgten die Befehle der Ingenieure. Manchmal wussten sie nicht einmal, woran sie gerade arbeiteten.“ Um dieser Situation zu entkommen, wurde Darden selbst Ingenieurin. Mehr als 40 Jahre arbeitete sie in dieser Tätigkeit bei der NASA, unter anderem am Problem des Überschallflugs und dessen Lärmentwicklung. Das Interview ist ein aufschlussreicher Blick in diese ferne Zeit.


(Titelbild: Comfreak / Pixabay.com)

Rezension zu „Let’s Play“ bei Spektrum.de

Auf der Wissenschaftsseite spektrum.de hat Adrian Lobe eine Rezension zu „Let’s Play! Was wir aus Computerspielen über das Leben lernen können“ geschrieben. Der Autor und Journalist findet den zweiten Band unserer Buchreihe „aufschlussreich und differenziert“. Das Buch mache Lust, selbst zu Spielen wie Sim City oder einem Flugsimulator zu greifen. Hier geht es zum Artikel: https://www.spektrum.de/rezension/buchkritik-zu-lets-play/1805897

Vom Postamt zum Bahnhof: Die neue Moynihan Train Hall in New York City

Bahnhofshallen können ganz unterschiedlich auf ihre Besucher*innen wirken. Große ältere Gebäude strahlen eine gewisse Würde und Monumentalität aus, die eine Zeit spürbar machen, als die Eisenbahn noch für Weltläufigkeit und Eleganz stand, und man sich vorstellen konnte, dass auf dem Bahnsteig da hinten gleich ein Mörder in den „Orient-Express“ steigt. Der Hauptbahnhof in Amsterdam vermittelte mir so ein Gefühl, ebenso Budapest-Keleti. Auch der Leipziger Hauptbahnhof geht in diese Richtung, weil die alte Architektur der hellen Halle die Idee des „Einkaufsbahnhofs“ etwas in den Hintergrund drängt, oder der Hamburger Hauptbahnhof, den ich zwar als eng, dunkel und laut empfinde, aber genau deshalb als genau richtig. Und über die Berliner Friedrichstraße will ich gar nicht reden, seine Geschichte spricht für sich. Gegen all dieses Alte erscheinen die neuen Hauptbahnhöfe in Berlin oder Wien nur als kalte, effiziente Durchgangsstationen, Nicht-Orte im Sinne Marc Augés, in denen man ungern verweilen möchte.

Im Kulturteil der New York Times las ich nun über eine neue Bahnhofshalle, mit der die Pennsylvania Station (kurz Penn Station) in New York City erweitert wurde und die seit Anfang Januar eröffnet ist. Insbesondere das Foto des Artikels brachte mich zum Staunen, es irritierte mich sehr. Das soll eine neue, erst in den letzten Jahren erbaute Bahnhofshalle sein? Da das Foto in schwarz-weiß abgedruckt war, glaubte ich erst, eine alte Aufnahme aus längst vergangenen Zeiten zu sehen, oder vielleicht einen Artikel über die Geschichte des Bahnhofs vor mir zu haben. Aber nein, die „Moynihan Train Hall“ (benannt nach dem früheren Senator Daniel Patrick Moynihan) ist tatsächlich neu, mit ihrer Stahl-Glas-Konstruktion des Daches und der wie schwebend wirkenden großen Bahnhofsuhr im Zentrum. Der Stil der Uhr erinnert an Art Deco, genauso wie die Schriftart der Beschriftungen an den Wänden.

(Foto: CHOONGKY / Shutterstock.com)

Ich bin immer etwas zwiegespalten, wenn Architektur so tut, als wäre ein Gebäude in einer anderen Zeit entstanden. Auf naive Weise finde ich das zwar „schön“: Ich liebe die Altstadt-Atmosphäre des Nikolaiviertels in Berlin, das aber eine künstliche Schöpfung ist, die zum Stadtjubiläum in den 1980er Jahren entstand. Auch die 2012 bis 2018 rekonstruierte Neue Frankfurter Altstadt „gefällt“ mir, obwohl ich die Kritik daran durchaus verstehe. Was ich vom Berliner Stadtschloss halten soll, ist mir noch nicht ganz klar.

Die neue Halle der Penn Station jedenfalls erweckt in mir den Wunsch, umgehend in den Zug zu steigen und da hinzufahren. New York, mein liebster Ort, an dem ich noch nie war, Medien-Ort. Schon fallen mir nie gedrehte Filme aus den Achtzigern und Neunzigern ein, deren herzzerreißende Abschiedsszenen oder konspirative Agententreffen in der Moynihan Train Hall hätten gedreht werden können, wenn es sie da schon gegeben hätte.

Die neue Bahnhofshalle ist kein vollständiger Neubau. Stattdessen wurde hier das alte Gebäude des U.S. General Post Office umgebaut (im Zeitplan und mit dem vorhergesehenen Budget, wie betont wird) und mit der bestehenden Penn Station verknüpft. Der bedeutende Bahnhof hat so wieder einen repräsentativen Bau, wie er schon einmal existierte, bis zum Abriss der alten Bahnhofshalle 1963.

(Foto: Wikipedia)

Die Fotos, die (nun in aller farbigen Herrlichkeit) im Internet zu finden sind, inszenieren den Bahnhof zunächst als Gebäude, das bestaunt wird. Buntes Licht entrückt den Bahnhof für den Moment noch seiner Alltagsnutzung. Die Warteräume etwa, die auf manchen Fotos mit warmen Licht beleuchtet sind, sehen darauf gemütlicher, einladender aus, als sie es wahrscheinlich sind, wenn sie erstmal eine Weile benutzt wurden. Die Form verändert sich in der Funktion, und neue Gebäude müssen erstmal eingelebt werden, der Witterung ausgesetzt, den Schuhen hoffentlich bald wieder unzähliger Reisender, herumfliegendem Müll, die Bänke zerkratzt von gelangweilten Teenagern, all das, was eben auch im schönsten neuesten Bahnhof schnell geschieht, und was man sicher kritisieren kann, aber irgendwie doch dazugehört zum Leben in einer Stadt.

Der Wartesaal strahlt — zumindest in dieser Beleuchtung — behagliche Wärme aus. (Foto: lev radin / Shutterstock.com)

Ist die neue Bahnhofshalle ein Statement für eine herausgehobene Rolle der Eisenbahn auch in heutiger Zeit? Vielleicht eher eine Erinnerung an offene Baustellen: Michael Kimmelman, Autor der eingangs erwähnten Kritik in der NYT, bezeichnet die Moynihan Hall als „Proof of Concept“. Er weist darauf hin, dass die neue Bahnhofshalle vorwiegend von Reisenden der Eisenbahngesellschaft Amtrak genutzt wird („a spectacular train hall for Amtrak“), auch wenn sie daneben Zugang zur Long Island Railroad biete. Die Amtrak-Passagiere machten aber vor Corona nur 5% der Reisenden aus, und so löst die Halle nicht die Probleme, die es im verzweigten Rest der Penn Station gibt — öffentliche Gesundheit, Sicherheit, Umweltbelange. Kimmelman versteht die Halle daher eher als Symbol. Sie würde zwar nur für wenige Menschen eine konkrete Funktion erfüllen, aber immerhin die Botschaft aussenden, dass auch in einer „Stadt der Neinsager“ („city of naysayers“) und in einem Umfeld zahlreicher gegenläufiger Interessen nötige Verbesserungen der Infrastruktur möglich sind. „Change can happen“, schreibt der Autor, und Moynihan sei ein Anfang.

Vielleicht kann dieses Symbol auch einen positiven Einfluss auf neue Bahnprojekte in anderen Ländern haben.


(Titelbild: CHOONGKY / Shutterstock.com)

Leben wir momentan alle auf dem ‚Zauberberg‘?

Um die Jahreswende lese ich nun nach zwanzig Jahren den Roman „Der Zauberberg“ (1924) von Thomas Mann wieder, der sehr gut zur momentanen Lebenssituation passt. Es ist darin von der so genannten „Ewigkeitssuppe“ die Rede, von einer sich immer gleichförmig wiederholenden Tagesstruktur und von einer Krankheit, der Tuberkulose, gegen die es Anfang des 20. Jahrhunderts noch keine wirksamen Medikamente gab. Das wirksamste Medikament bestand in Geduld und in monatelangen Aufenthalten in Sanatorien, wie zum Beispiel in Davos (Schweiz), in denen die Patient*innen durch Liegekuren, Spaziergänge und geregelte, üppige Mahlzeiten genesen sollten. Jedoch nicht alle Erkrankten gesundeten auf diese Art und Weise.

Mich erinnern die Schilderungen auf dem Zauberberg sehr an unseren derzeitigen Zeitgeist, mein Lebensgefühl in diesen Tagen und an den Verlauf des vergangenen Jahres, das nach meinem persönlichen Empfinden auch sehr gleichförmig ablief – ohne viele zusätzliche Erlebnisse, ohne kleine Highlights zwischendurch, mit nur wenig interessanten zwischenmenschlichen Begegnungen und mit wenig größeren oder kleinere Reisen – alles Ereignisse, die normalerweise als kleine Sehnsuchtsinseln den Alltag abwechslungsreicher gestalten, durchbrechen, die Zeit langsamer laufen lassen und ihr dadurch einen Sinn und mehr Lebensfülle geben. Im Zauberberg können wir lesen:

„Leere und Monotonie mögen zwar den Augenblick und die Stunden dehnen und ‚langweilig‘ machen, aber die großen und größten Zeitmassen verkürzen und verflüchtigen sie sogar bis zur Nichtigkeit. Umgekehrt ist ein reicher und interessanter Gehalt wohl imstande, die Stunde und selbst noch den Tag zu verkürzen und zu beschwingen, ins Große gerechnet jedoch verleiht er dem Zeitgange Breite, Gewicht und Solidität, so dass ereignisreiche Jahre viel langsamer vergehen als jene armen, leeren, leichten, die der Wind vor sich her bläst, und die verfliegen.“

Im vergangenen Jahr mussten wir uns zwar sehr umgewöhnen, an neue Lebensverhältnisse anpassen, und wir wurden mit ereignisreichen Nachrichten nur so überschüttet – allerdings meistens eher in negativer Weise. Und dabei konnten wir auch nicht aktiv sein, sondern wurden zum passiven Erdulden gezwungen. Und mit der Zeit setzt eben dann auch wiederum eine Gewöhnung an diese neuen, bleiernen Lebensverhältnisse ein.

Viele Menschen haben den ersten so genannten Lockdown noch als einen extremen Einschnitt innerhalb ihres Lebens wahrgenommen, aber gleichzeitig auch als etwas Neues, als eine neue Herausforderung, der man sich gesellschaftlich stellen muss. Je nach individuellen Umständen wurde das ‚neue‘ Leben von den einen positiv als Rückbezug auf sich selbst und Entschleunigung bewertet; während die anderen genau diese Bewertung als Luxusproblem betrachteten, da sie selbst von existenziellen und persönlichen, tiefgreifenden Ängsten, zum Beispiel vor Einsamkeit oder Arbeitslosigkeit, geplagt wurden.

Jetzt während des zweiten Lockdowns, noch dazu in den meist ereignislosen, grauen Wochen am Jahresbeginn empfinden viele diese Zeit als einschläfernd, demotivierend und öde – selbst das Spazierengehen ist bei dem oft kalten und grauen Wetter nur noch selten eine richtige Freude. So wie auf dem Zauberberg sind erlebe ich es als Highlight, wenn die Ostsee in der Sonne glänzt. So setzt sie dann ein – die monotone, sich wiederholende Gleichförmigkeit des Alltags.

Die Patient*innen auf dem Zauberberg haben sich so gut wie möglich eingerichtet, feiern jede Abreise eines*r Patient*in als Fest, da sie den gewohnten Alltag unterbricht. Auch die Hauptfigur des Romans, der junge Ingenieur Hans Castorp, ging davon aus, dass er nur für drei Wochen seinen Vetter im Sanatorium in den Schweizer Bergen besucht; dann erkrankte er selbst und es wurden schließlich sieben Jahre, die er dort verbrachte. Es gibt ein Kapitel im Roman, das den Titel „Der große Stumpfsinn“ trägt. Die Patient*innen vertreiben sich die Zeit mit Kartenspielen, Schweinchen malen mit verbundenen Augen, Briefmarken sammeln, Photographie, mit dem Erlernen der Sprache Esperanto oder albernen Ratespielen. Ein kleiner Lichtblick für Hans Castorp sind wissenschaftliches Studieren, philosophische Gespräche, die Liebe zu der Patientin Madame Chauchat und vor allem der Zauberkasten – das elektrische Grammophon.

Thomas Mann beschreibt in seinem Roman, wie sich die Patient*innen mit ihrer Krankheit und der neuen Lebenswirklichkeit arrangieren, der eigene Lebenshorizont dabei jedoch immer eingeschränkter und selbstbezüglicher wird:

„Auf Gliederung hielt man wohl; man beobachtete den Kalender, den Turnus, die äußere Wiederkehr. Aber die Zeit, die sich für den einzelnen mit dem Raum hier oben verband, die persönliche und individuelle Zeit also zu messen und zu zählen war Sache der Kurzfristigen und der Anfänger; die Eingesessenen lobten sich in dieser Hinsicht das Unangemessene und Achtlos-Ewige, den Tag, der immer derselbe war, und einer setzte mit Zartgefühl beim anderen einen Wunsch voraus.“

Es bleibt die Hoffnung, dass wir bald wieder vom Zauberberg hinab steigen können…

(Titelbild von Werner Friedli / Wikimedia Commons)

Machine Learning als Laie verstehen — Zwei Buchtipps zur Einführung und Übung

Ab und zu spiele ich gegen meinen Computer Schach. Ich bin nicht gut darin, aber trotzdem macht es mir Spaß. Das Brettspiel ist schon sehr lange gut durch Computer spielbar, da es auch allein durch bloße Rechenkraft beherrschbar ist. Das erste Schachprogramm für das normale 8×8-Spielbrett entstand bereits 1958. Immer schnellere Computer mit immer größerer Speicherkapazität erlangten im Lauf der Jahrzehnte immer größere Spielstärke. Doch mittlerweile werden neue Ansätze versucht: Künstliche Intelligenz, die auf neuronalen Netzen basiert, hat es mittlerweile in Schachprogramme für den Hausgebrauch geschafft, als Open-Source-Software Leela Chess Zero (LC0). Der Hersteller der bekannten Schachsoftware Fritz hat LC0 genutzt, um ein künstliches neuronales Netz namens Fat Fritz aufzubauen, das 2019 in Fritz 17 integriert wurde. Eine halbwegs aktuelle Grafikkarte vorausgesetzt (die nicht für die visuelle Darstellung des Spiels, sondern für die Zugberechnung genutzt wird), kann so jede*r selbst gegen eine ‚richtige‘ KI spielen. Aus Laiensicht fühlt sich das erstmal ziemlich ‚cool‘ an — ein neuronales Netz, eine K I ! Klingt beeindruckend und je nach technischem Urvertrauen vielleicht auch beunruhigend.

Allerdings ist das, was heute als Künstliche Intelligenz bezeichnet wird, nicht wirklich intelligent. Die Programme sind keine Bewusstseine, die irgendetwas von dem verstehen würden, was sie am Ende als Ergebnis ausspucken. Tatsächlich werden bei der Erstellung und beim Training künstlicher neuronaler Netze überraschend einfache Rechenoperationen vollzogen — einfach, wenn man die einzelnen Neuronen betrachtet. Die Komplexität und die oft beeindruckenden, mitunter überraschenden Ergebnisse kommen durch das Zusammenspiel einer Vielzahl von Neuronenschichten zustande. Die Prinzipien dahinter kann man lernen und so besser verstehen, was hinter vielen Machine-Learning-Verfahren steckt — und das ist gar nicht so schwer.

In diesem Artikel möchte ich zwei Bücher vorstellen, die sehr hilfreich dabei sein können. Es sind keine Bücher, in denen über gesellschaftliche Folgen von KI nachgedacht oder das Vertrauen in Technik beleuchtet wird (wie ich es 2019 in „Die Unschuld der Maschinen“ tat), sondern die Autoren behandeln die praktische Seite von KI. Beide Bände sind Praxisbücher. Sie zeigen, wie wir selbst mit einfachen Mitteln Machine-Learning-Systeme und künstliche neuronale Netze entwickeln können, und sie tun das so verständlich, dass man kein „Data Scientist“ werden wollen muss, um daraus Nutzen zu ziehen. Nach der Lektüre und idealerweise eigenen praktischen Übungen versteht man viel besser, was Machine Learning eigentlich tut, wo dessen Grenzen liegen und warum es am Ende doch wichtig ist, immer die möglichen Folgen für die Menschen im Blick zu behalten.


Tariq Rashid: Neuronale Netze selbst programmieren (2017)

Wer keinerlei Erfahrung mit Programmierung hat, aber trotzdem von dem Thema fasziniert ist und keine Angst vor ein bisschen Mathematik hat, findet in Rashids Werk eine sehr verständliche Einführung. Nach einer kurzen Einleitung erklärt der Autor zunächst, was es für einen Computer bedeutet, etwas vorherzusagen und zu klassifizieren — am Beispiel von Raupen und Marienkäfern. Wie kann ein Computer anhand von Breite und Länge der Insekten erkennen, um welches Tier es sich handelt? Rashid geht Schritt für Schritt vor und illustriert jeden Schritt. Sobald es mathematisch(er) wird, führt er auch die Bedeutung entsprechender Symbole und Abkürzungen ein. Im Anhang gibt es zudem eine Einführung in die Analysis (die ich mir in der Form damals in der Schule gewünscht hätte).

So vorbereitet, geht es anschließend an das Konzept der künstlichen neuronalen Netze. Nach einer kurzen Herleitung aus der Biologie folgt wieder die schrittweise Einführung dieses für Machine Learning so wichtigen Konzepts. Aus Laiensicht ernüchternd ist vielleicht, dass das einzelne künstliche Neuron nichts weiter macht, als drei Eingangssignale a, b und c (alles Zahlenwerte) zu addieren und die Summe x dann in eine sogenannte Aktivierungsfunktion einzusetzen (Rashid verwendet eine Sigmoidfunktion, denn die sorgt dafür, dass zu niedrige Summen nicht weitergegeben werden, das Neuron also nicht ‚feuert‘). Das Ergebnis der Funktion, y, ist das Ausgangssignal (wieder eine Zahl). Es kann an ein weiteres Neuron als Eingangssignal weitergegeben werden.

Spannend wird es, wenn mehrere dieser Neuronen in mehreren Schichten nacheinander aufeinanderfolgen und ihre Signale (Berechnungsergebnisse) an die jeweils nächste Schicht weiterleiten. Diese Neuronenverknüpfungen sind gewichtet — ein höheres Gewicht verstärkt ein Signal, ein niedrigeres Gewicht schwächt das Signal ab. Zu Beginn sind diese Gewichte meist zufällig festgelegt, aber das bleibt nicht so — denn das Netzwerk ‚lernt‘. Auch dies stellt Rashid Schritt für Schritt dar — das ist wichtig, denn so wird das Funktionsprinzip deutlich, das bei tatsächlich im Einsatz befindlichen neuronalen Netzen von außen nur schwer nachvollziehen ist (weil die eben sehr viele Neuronen in sehr vielen Schichten haben; Explainable AI, also die Ergebnisse von KIs für Menschen nachvollziehbar machen, ist ein eigener Forschungszweig).

An der Stelle wird auch das wichtige Konzept der Backpropagation (Fehlerrückführung) eingeführt. Das meint, dass die Ergebnisse der Berechnung am Ende mit einem Vorgabewert verglichen werden. Die Abweichung der Ergebnisse von der Vorgabe (der Fehler) wird dann in die Verknüpfungsgewichte zwischen den Neuronen zurückgeführt, sodass sich die Berechnungsergebnisse beim nächsten Durchlauf verfeinern, so lange, bis die ausgegebenen Ergebnisse den erwarteten Ergebnissen möglichst entsprechen — das ist das Lernen, das beim Trainieren neuer Netzwerke geschieht und das so fasziniert, wenn wir in den Medien davon hören, ein Computer hätte sich selbst das Schach spielen oder das Spiel Go beigebracht. Rashids verständliche Erklärung zeigt, dass dieses Lernen mit menschenähnlichem Verstehen nichts zu tun hat, sondern reine Mathematik ist.

Um das alles auch praktisch auszuprobieren, gibt Rashid ab der zweiten Hälfte eine Einführung ins Programmieren mit der Sprache Python. Anders als viele andere Bücher zum Thema (die Programmierlaien nahelegen, sich die Grundlagen erstmal anderswo beizubringen) fängt Rashid auch hier ganz am Anfang an — wer noch nie ein Programm geschrieben hat, kann es danach, und der Autor braucht dafür nicht einmal 15 Seiten, bevor er im Rest des Buches zeigt, wie das nun zur Erstellung neuronaler Netze verwendet wird.

Schön finde ich, dass der Programmier’crashkurs‘ unabsichtlich das ganze Thema des Machine Learnings in den Kontext klassischer Programmierung einbettet, bei der man ja dem Computer eine genaue Verarbeitungsvorschrift vorgibt (den Algorithmus) — während genau das beim Machine Learning nicht geschieht. Das, was man dabei programmiert, dient nicht dazu, am Ende das eigentlich interessierende Ergebnis auszugeben, sondern ’nur‘ dazu, das neuronale Netzwerk zu erschaffen, das dann selbstständig zum Ergebnis kommt. Als Anwendungsbeispiel hat Rashid das schöne Thema der Handschriftenerkennung ausgewählt — wie kann man den Computer dazu bringen, handgeschriebene Buchstaben zu erkennen?

Rashids Buch ist nur 211 Seiten stark, was aber für seine Zielgruppe — eben absolute Laien, die sich für das Thema interessieren — völlig ausreicht. Spezialthemen oder besondere neuere Entwicklungen und Trends werden ausgeklammert, was gut ist, denn das würde zu Beginn nur Verwirrung stiften.

Neuronale Netze selbst programmieren. Eine verständliche Einführung mit Python, von Tariq Rashid, Übersetzung von Frank Langenau, O’Reilly 2017, 26,90 EUR.


David Foster: Generatives Deep Learning. Maschinen das Malen, Schreiben und Komponieren beibringen (2019)

Eines der faszinierendsten Computerbücher meiner Jugend war Horst Völz‘ „Computer und Kunst“, das 1988 im ostdeutschen Urania-Verlag erschien. Völz, der sich als Professor intensiv mit Informationstheorie beschäftigt hat und immer noch dazu publiziert, zeigte in dem kleinen Bändchen einerseits, wie man mit einfachen programmiertechnischen Mitteln — damals war auf den in der DDR erhältlichen Computern die einfache Programmiersprache BASIC sehr verbreitet — ästhetisch ansprechende visuelle und klangliche Ausgaben erzeugen kann, etwa Fraktale, Musik oder Gedichte mit Zufallselementen. Andererseits diskutierte der Autor auch, ob das denn überhaupt Kunst sein könne, und was Kunst mit Information, Wahrscheinlichkeit und Entropie zu tun hat.

An dieses Buch musste ich denken, als ich kürzlich David Fosters Fachbuch „Generatives Deep Learning“ (2019) in die Hand nahm — der Untertitel ist vielversprechend: „Maschinen das Malen, Schreiben und Komponieren beibringen“, und tatsächlich zeigt Foster genau das — wie kann mit Hilfe künstlicher neuronaler Netze ein Computer selbstständig Bilder, Texte und Musik erzeugen. In den letzten Jahren gingen entsprechende Beispiele durch die Medien, zuletzt das Programm GPT-3, das täuschend echte, kohärente und inhaltlich sinnvolle Texte generieren kann — so gut, dass der Zugang zu dem Programm stark eingeschränkt ist, um Missbrauch zu vermeiden (Foster geht in seinem Buch am Ende kurz auf die Funktionsweise des Vorgängers, GPT-2, ein).

Im Unterschied zum bloßen Klassifizieren von Daten (etwa: Zeigt das Foto ein Auto oder einen Hydranten?) geht es Foster um das Generieren neuer Daten, die zwar in einem ähnlichen Stil wie die Trainingsdaten vorliegen, mit denen das neuronale Netz gelernt hat, die aber doch etwas ganz Eigenständiges darstellen. Eindrucksvoll wird dies im Kapitel zum Malen demonstriert — aus einem Foto und einem Gemälde (einem ‚Stilbild‘) wird ein Filter entwickelt, der dafür sorgt, dass das Foto ebenfalls wie ein Gemälde desselben Stils wirkt. Natürlich gab es ähnliche Versuche schon früher in Form dieser unsäglichen Photoshop-Filter — aber die Qualität und die ‚Echtheit‘ von per Deep Learning erzeugten Verfahren ist wesentlich beeindruckender.

Fosters Buch geht wesentlich mehr in die Tiefe als Rashids Einführung und benötigt daher auch mehr Vorwissen. Erstens sollte man bereits wissen, wie man in Python programmiert (was Rashid, wie erwähnt, von Grund auf erklärt) und wie man darin neuronale Netze aufbauen und trainieren kann (und natürlich auch, was künstliche neuronale Netze sind). Wer vorher Rashids Band gelesen hat, sollte damit zurechtkommen. Zweitens sind jedoch auch mehr mathematische Kenntnisse erforderlich — man sollte vor Wahrscheinlichkeitsberechnungen keine Angst haben und idealerweise auch längere Formeln lesen können. Ich selbst kann insbesondere letzteres nur mit Mühe bzw. ab einem gewissen Punkt gar nicht mehr.

Dass ich Fosters Buch dennoch mit Vergnügen gelesen habe, liegt daran, dass trotzdem erkennbar wird, nach welchen Prinzipien Texterzeugungs-KIs wie GPT-3 oder Programme, die täuschend echte Fotos menschlicher Gesichter erzeugen, funktionieren — und das wird in den nächsten Jahren immer relevanter werden, Stichwort: Deepfake. Es ist eine neue Form der von Douglas Rushkoff vor einigen Jahren geforderten „Code Literacy“. „Program or be programmed“, forderte Rushkoff 2010 im gleichnamigen Buch — lern‘ zu programmieren oder werde selbst programmiert.

Doch programmieren allein — im Sinne des Festlegens eines Algorithmus, der zum gewünschten Ergebnis führt, wie das noch zu Völz‘ Zeiten der Fall war — ist heute nicht mehr ausreichend. Dazu muss heute auch die Beschäftigung mit Mechanismen des Machine Learnings kommen, wenn man nicht nur staunend vor immer neuen Sensationsmeldungen stehen will. Dazu sollte man auch als Nicht-Techniker*in keine Scheu vor entsprechender Literatur haben. Ein so zugängliches Thema wie Malerei, Literatur und Musik, wie Foster es wählt, fasziniert und macht den Einstieg interessant.

Generatives Deep Learning. Maschinen das Malen, Schreiben und Komponieren beibringen, von David Foster, Übersetzung von Marcus Fraaß und Konstantin Mack, O’Reilly 2019, 39,90 EUR


(Titelbild: Wolfgang Mennel / Pixabay.com)

Verschwörungsmythen & Mittelalterfantasie: Interview mit Rainer Sigl zu Ideologie im Computerspiel

Rainer Sigl ist Journalist, Historiker und im deutschsprachigen Raum einer der bekanntesten Kritiker von Ideologien in Computerspielen. Kürzlich zeigte Sigl in einem Artikel im österreichischen „Standard“, dass die Story von „Call of Duty: Black Ops Cold War“ (neuester Teil der beliebten Shooter-Serie) viele Motive der amerikanischen ‚alternativen Rechten‘ (Alt-right) fortführt. Ohne Reflexion der eigenen Funktion als Medium werden in dem Spiel Verschwörungsmythen unter die Leute gebracht, was — auch angesichts der aktuellen Ereignisse in den USA — zu mehr als nur Skepsis anregen sollte. Ich habe mit dem Autoren in den letzten Wochen ein E-Mail-Interview geführt:

In Kommentaren unter deinen Texten kann man sinngemäß oft lesen: „Was regt sich der Autor eigentlich so auf, entspann dich mal, es ist doch nur ein Spiel.“ Doch schon 2017 hast du darauf hingewiesen, dass „es ist doch nur ein Spiel“ nur eine Ausrede ist, um sich nicht mit dem politischen Gehalt von Spielen auseinanderzusetzen. Immerhin schrieb im Oktober 2020 sogar die GameStar: „Jedes Spiel ist politisch“ (Link, hinter der Paywall). Warum ist es so wichtig, auf ideologische und politische Faktoren von Spielen hinzuweisen – vielleicht gerade von Spielen, im Vergleich zu Filmen und Büchern? Und warum dauert es so lange, bis diese Erkenntnis im Mainstream ankommt?

Rainer Sigl ist Historiker und Journalist.

Im Unterschied zu den etablierteren Medien ist es dem Publikum von Videospielen für gewöhnlich nicht ganz klar, dass sein Unterhaltungsprodukt der Wahl natürlich und selbstverständlich Ideologie und politische Ideen mittransportiert, ob das Absicht ist oder nicht. Ich lege in meinen Texten Wert darauf, festzuhalten, dass es nicht das Problem ist, dass Spiel XY eine zum Beispiel reaktionäre Ideologie transportiert, wie es etwa bei den meisten Militainment-Spielen unter dem „Tom Clancy“-Label recht unzweifelhaft der Fall ist. Das ist natürlich nicht per se ein Problem. Warum auch? Filme mit unkritisch positiver Einstellung zum (meist US-)Militär, die kriegerische Interventionen als alternativlose Lösung für alle möglichen Probleme darstellen, lassen sich diesbezüglich ja auch problemlos einordnen.

Das Problem ist vielmehr, dass die Existenz und Wirksamkeit dieser Ideologie in Videospielen nicht nur nicht gesehen, sondern aktiv geleugnet wird, und zwar beginnend bei deren Produzenten. Die Macher großer Videospiele ziehen sich seit jeher auf die Ausrede zurück, sie würden unpolitisches Entertainment produzieren, und die Spielerschaft nimmt diese Ausrede dankbar an. Der Konsens ist: Das hier ist nur Unterhaltung, Politik soll draußen bleiben, wir wollen diese Diskussion hier gar nicht, es ist alles absolut harmlos und unpolitisch.

Call of Duty: Black Ops Cold War (2020, Foto: IGDB)

Woran liegt es, dass bei Filmen der ideologische Gehalt klar hinterfragt werden ‚darf‘ (sowohl von Spieler*innen als auch von Kritiker*innen), und auch von Filmschaffenden oft reflektiert wird, aber bei Spielen nicht? Hat es mit einer unterschiedlichen Kultur (im Sinne von Sozialisation und Selbstbild) zu tun — man sieht sich vielleicht eher als Künstler*in, wenn man Filme macht und weiß darum um die eigene, für die Gesellschaft gegebenenfalls wichtige Rolle (oder wünscht sich diese Rolle sogar), während man als Entwickler*in vielleicht einfach das Spiel machen will, was einem selbst Spaß macht (viele Entwickler*innen waren immerhin früher selbst vor allem Spieler*innen oder kamen als Modder*innen in die Branche)?

Filmemacher*innen und Autor*innen haben vermutlich einerseits ein anderes Selbstbewusstsein, andererseits sind sie gewohnt, mit solchen unter Umständen heiklen Fragen zu ihrem Werk konfrontiert zu werden und daher gezwungen, sich selbst Gedanken zu machen. Spiele galten und gelten vielen, Schaffenden wie Konsumenten, irgendwie als „geschützter Raum“, in dem ein außergewöhnliches „Vertrauensverhältnis“ zwischen Produzenten und Konsumenten herrscht: ein augenzwinkerndes „du weißt schon, wie ich es meine“. Das ist erklärbar aus der historischen Rolle als Minderheitenmedium mit starkem Bedürfnis der Verteidigung gegenüber einem feindlichen „Außen“. Für das größte Entertainmentmedium des Planeten mit hunderten Millionen Fans ist dieses betriebsblinde Fantum sich selbst gegenüber aber anachronistisch.

Natürlich sind Spiele, in denen selbstverständlich mit der Waffe im virtuellen Nahen Osten auf wen auch immer geschossen wird, nicht unpolitisch, natürlich sind Szenarien, in denen „unser“ Lebensstil gegenüber einem Angreifer von „draußen“ verteidigt wird, nicht nur Entertainment, natürlich trifft ein Spiel mit der bloßen Auswahl der Mittel, die dem Spieler in die Hand gegeben werden, schon eine Aussage über das, was auch real machbar oder überhaupt nur denkbar ist. Bevor wir also darüber überhaupt nur nachdenken können, ob uns die Politik und Ideologie eines Spiels gefällt, ob sie uns problematisch erscheint oder gar im demokratiepolitischen Sinn schädlich ist, muss Konsens bestehen, dass hier überhaupt Politik und Ideologie transportiert wird. Dagegen wehren sich viele, und wie gesagt: Die Industrie redet sich heraus, weil sie sich nicht positionieren will.

Ob es in Videospielen mehr als in anderen Medien wichtiger ist, darauf hinzuweisen, ist schwer zu beurteilen – insofern vielleicht ja, weil es ein Medium ist, das von enorm vielen jungen Menschen konsumiert wird, und eben, weil sowohl im Medium als auch beim Publikum die Reflexion dieser Einflüsse noch nicht so ausgeprägt ist wie anderswo. Die Erkenntnis, dass Entertainmentprodukte allgemein und damit auch Spiele politisch sind, ist allgemein schwer dem Mainstream zu vermitteln. Das sieht man z.B. auch am Erfolg großer Fernsehserien wie „CSI“, die deshalb auch mit dem Big Brother Award ausgezeichnet wurden, weil sie völlig nebenbei Überwachungs- und Diagnosemethoden als selbstverständlich nutzenswert betonen, ohne irgendwie darauf hinzuweisen, dass damit Bürgerrechte beschnitten werden, etc.

Spiele sind da zusätzlich noch in der Schmuddelecke – viele Politik-, Gesellschafts- und Kulturjournalist*innen haben dazu einfach keinen Zugang. Dementsprechend oberflächlich und als „von außen kommend“ wird deren Kritik dann abgeurteilt. Ich spiele seit über 30 Jahren und weiß: Zu viel der Kritik, die eben so „von außen“ kommt, kann man bequem sofort abhaken, weil sie offensichtlich von Menschen kommt, die von Spielen keine Ahnung haben.

Wenn du schon so lange ‚dabei‘ bist: Was für Spiele spielst du selbst gerne? Was für Spiele könntest du vielleicht sogar empfehlen, als Positivbeispiel? Gibt es da zeitlose Klassiker?

Ich spiele berufsbedingt viele verschiedene Genres, mein besonderes Interesse gilt Indie-Spielen. Die können einerseits oft Originelles ausprobieren, weil sie klein und billig produziert werden, andererseits gibt es in diesem Bereich oft noch eine Art intime Community, die bei riesigen Blockbustern nicht existieren kann. Wenn ich ausschließlich zu meinem eigenen Spaß spielen würde, würde ich vermutlich Spiele wie „Dwarf Fortress“ oder andere, „klassische“ Rogue-likes spielen, weil die einerseits endlos wiederspielbar sind, andererseits aber keine riesige kontinuierliche Zeitinvestition brauchen. Daneben und im Widerspruch dazu bewundere ich die Spiele von Hidetaka Miyazaki und From Software.

Ich finde Spiele gut, die sich ihre Themen nicht nur als „Tapete“ aussuchen, sondern, wenn sie schon von der „realen Welt“ erzählen wollen, mir etwas Neues über sie lehren können. Spiele können uns Mechanismen erfahrbar machen, die real existieren. „Crusader Kings“ oder „Mount & Blade“ sind keine Geschichtsstunden, aber sie demonstrieren Dinge, die „realistisch“ sind: die Bedeutung von Heiratspolitik oder Logistik, die Komplexität von Politik oder die praktische Bedeutung von Verteidigungstaktiken. Es ist aber überhaupt nichts gegen Eskapismus einzuwenden. Problematisch ist immer die Schnittstelle zur Realität, Stichwort behauptete Authentizität.

Dein 2018 im „Standard“ veröffentlichter Artikel über die rechtsextremen Umtriebe des Entwicklers von „Kingdom Come Deliverance“ führte damals in der Kommentarspalte zu großem Widerspruch; bei deinem aktuellen Beitrag über „Call of Duty: Black Ops Cold War“ ist es nicht anders. Was müsste sich in der Spieler*innenschaft ändern, damit die von dir geschilderten Problematiken nicht länger geleugnet werden?

Das große Problem ist hier eines der Wahrnehmung: Klar sieht man die am besten, die sich im Forum besonders aufregen, Befunde ablehnen, egal wie offensichtlich sie sind oder wie vorsichtig formuliert wird, und oft das Klischeebild vom „angry gamer“ bestätigen. Das ist jedoch nur eine Minderheit, die aber dafür „extremely online“ ist und sich gewohnheitsmäßig laut zu Wort meldet. Die sind weder in der Mehrheit noch in der Spielerschaft besonders relevant; als Ausgleich sehen sie aber sich selbst und ihresgleichen als den eigentlichen Kern des Zielpublikums. Da ist dann schnell jede*r, der oder die nicht „ihre“, also die „richtigen“ Spiele spielt und ihrer Meinung ist, kein richtiger „Gamer“. Es ist die klassische „No True Scotsman“-Fallacy.

Diese eigentlich kleine Gruppe, bestärkt durch Kampagnen wie Gamergate und ihre eigenen Echokammern, sieht sich sofort und jedes Mal zur Verteidigung „ihrer Spiele“ und ihrer Kultur gegen jede Kritik berufen. Das kommt zum einen daher, weil man aus schlechter Erfahrung mit „Killerspiel“-Debatte und Co. dauernd davor auf der Hut ist, dass einem „etwas weggenommen“ werden soll — jede Kritik, so deren historisch erfahrene Gewissheit, kommt von Leuten, die keine Ahnung haben und uns nur etwas verbieten wollen. Das ist der Reflex jedes Mal, egal was ich in meinem Text schreibe: Du willst uns etwas wegnehmen, du machst etwas schlecht, dabei kennst du dich nicht aus. Das war vielleicht bei Jack Thompson der Fall, aber inzwischen kommt vor allem differenzierte Kritik längst von Menschen, die Spiele nicht fürchten, sondern sie lieben und Ahnung haben. Das geht nicht in deren Köpfe: Entweder man ist „Gamer“, dann gehört man zu einer imaginierten Community, die weiß, dass alles völlig problemlos und super ist, oder man ist der Feind, der einfach keine Spiele kennt.

Was sich da ändern müsste? Vorurteilen gegenüber Spielern und dem Medium insgesamt soll keine Bühne mehr gegeben werden, das bringt nichts. Zugleich soll mehr differenzierte Kritik ermöglicht werden. Das Publikum verkraftet schon ein bisschen Differenzierung, da muss die Diskussion nicht jedes Mal dabei anfangen, ob Spiele jetzt gewalttätig machen oder die Jugend verderben. Tun sie wohl nicht — trotzdem gibt es auch noch anderes anzumerken. Wenn differenzierte Kritik statt uninformiertem Games-Bashing möglich wird, schwindet vielleicht der unbedingte blinde Verteidigungsreflex.

Glaubst du, dass ideologische und politische Verweise in Spielen von den Entwickler*innen bewusst reflektiert werden, oder sind sie Folge eines eher naiven Vorgehens – etwas, dass man bestimmte Epochen oder Verschwörungstheorien als geeignet für eine „coole“ Geschichte ansieht und dann halt ohne viel Nachdenken verwendet?

Das hängt vom Spiel ab. Die polnischen Macher von „Hatred“ und „Ancestor’s Legacy“ sind im rechtsextremen Umfeld und wählen ihre Inhalte sicher mit anderen Hintergedanken aus als riesige Firmen wie Ubisoft, die Politik als Tapete nutzen und sich auf absurde Weise bemühen, ja keine direkten politischen Verweise in ihre Spiele zu packen. „Far Cry 5“ ist ein Spiel über bewaffnete US-Milizen, Prepper und religiöse Weltuntergangssekten in einem hyperländlichen Montana voller Redneck-Klischees, aber das Ganze hat nach Aussage der Macher gar keine politische Dimension. Was soll man dazu sagen? Da wird mit Absicht behauptet, dass politische und ideologische Inhalte nur dann vermittelt werden, wenn man „Trump ist super“ oder „Biden ist ein Kommunist“ in seinem Spiel als Aussage hat. Alles andere sei unpolitisch.

Mir scheint, dass dieses verkürzte Verständnis des Politischen der Kern der Sache ist – das wäre etwas, das wir oft auch im normalen Alltag erleben können. Politisch ist dann nur, was das gesellschaftliche Teilsystem „Politik“ (Parteien, Berufspolitiker, formulierte Programme usw.) direkt referenziert, aber dass auch Handlungen in anderen Teilsystemen mit dem politischen System gekoppelt sein können, dafür gibt es noch kaum Bewusstsein oder es wird direkt abgelehnt (was man z.B. auch daran sieht, wie man als „social justice warrior“ beschimpft wird, oder als „Schneeflöckchen“, wenn man auf Rassismus und Sexismus aufmerksam macht). Es gibt also ein naives (Un)verständnis der eigenen politischen Rolle und man merkt gar nicht, dass man gerade politisch ist. Sind Spiele da ähnlich unabsichtlich ideologisch?

Wie gesagt: Es hängt vom Spiel ab. Spiele mit dem Namen des rechten Thriller-Autors Tom Clancy im Titel positionieren sich als Franchise ja eindeutig in eine gewisse Richtung: unhinterfragte US-Hegemonie, Law & Order, Falkentum in der Außenpolitik. Aber meistens geht es nicht darum, dass man absichtlich Ideologie verkaufen will — wenn man von gefloppten PR-Stunts wie dem Spiel der Identitären Bewegung absieht. Ich bin mir sicher, dass auch von mir deswegen kritisierte Spiele wie „Kingdom Come Deliverance“ keine plump eindeutige politische Agenda haben. Letzteres transportiert aber halt — mit Absicht oder nicht — eine Ideologie, die vom weißen Mittelalter träumt, in dem es die böse „Multikulti“-Vermischung der Gegenwart angeblich noch nicht gegeben hat.

Das ist ein fixer Mythos der modernen Rechtsextremen, von Breivik bis hin zu den Identitären: die verklärte national „reine“ Vergangenheit vor einer — auch durchaus klassisch rassistisch gedachten – „Verunreinigung“. Wollte der Macher des Spiels in voller Absicht dieser extremistischen und letztlich mörderischen Ideologie eine Bühne bieten? Sicher nicht direkt. Aber er hat oft genug Sympathie zu diesem Gedankengut erkennen lassen, dass die Frage erlaubt ist, warum es denn nun dem Spiel so wichtig ist, ja nur Weiße im Spiel zu haben. Weil das der „Realismus“ gebietet? Ich bin übrigens selbst Mediävist, also Mittelalter-Kulturhistoriker, und die Sache ist beileibe nicht so klar, wie das behauptet wird.

Mehr zur gesellschaftlichen Relevanz von Computerspielen auch im 2. Band der Über/Strom-Buchreihe: Let’s Play. Was wir aus Computerspielen über das Leben lernen können

Kannst du das in zwei, drei Sätzen erläutern? Das „weiße Mittelalter“ ist in der Fantasy oft zu sehen. Es wurde 2019/20 etwa von Zuschauer*innen der „Witcher“-Serie herbeigewünscht; die Einwohner*innen einer Stadt waren diesen Leuten zu divers. Wie war das im Mittelalter eigentlich?

Mit „dem Mittelalter“ meint man zum einen fast immer nur eine westeuropäische Epoche, auch die umfasst aber einen Zeitraum von 1000 Jahren. Das ist eine Zeitspanne und letztlich auch ein geografisch so diverses und riesiges Gebiet von Abhängigkeiten, dass es einfach keine Antwort drauf gibt, wie „das Mittelalter“ so war. Im muslimischen Südspanien forschten jüdische Mathematiker, während in Nordeuropa Klöster brannten. Der byzantinische Hof verlängerte de facto die Hochkultur des tausend Jahre alten römischen Weltreichs, zugleich bauten religiöse Sekten in Frankreich befestigte Städte auf und skandinavische Bauern gründeten Monarchien in Russland und Sizilien.

„Das Mittelalter“ ist letztlich immer eine Fiktion im Nachhinein und ein Projektionsraum gewesen. Das Klischee, das viele, nicht nur in Spielen, sondern allgemein in der Populärkultur davon haben — höfische Kultur, Rittertum, Turniere etc. — ist Produkt einer ganz speziellen Romantisierung ab Mitte des 19. Jahrhunderts, just als in Europa der Nationalismus aus dem Zusammenbruch der alten Herrschaftsstrukturen entstand. Das Leben im Mittelalter, zumindest das der herrschenden Schicht, war auch zuvor aber viel kosmopolitischer und internationaler, als man glauben möchte. Es gab internationale Diplomatie, Handel, Universitäten, kirchlichen und politischen Austausch, Pilgerreisen, mit Latein eine internationale Verkehrssprache und zum Beispiel mit der Artussage sogar so etwas wie eine internationale Popkultur.

Der Blick auf die Vergangenheit ist immer von der Gegenwart geprägt; beim Mittelalter hat dieses romantisierende Bild eines ganz spezifischen, schmalen, auch meist „weißen“ Mittelalters aber eben eine ganz spezifische, eingeschränkte politische Konnotation als Projektion des entstehenden Nationalismus. Im Namen dieser Ideologien wurden dann auch fatale Feindbilder konstruiert — wer gehört hierher, wer nicht? Wer „war schon immer da“? Im Fall des mörderischen historischen Antisemitismus endet diese Fantasie dann damit, dass sechs Millionen Menschen, die seit Jahrhunderten Teil Europas waren, als „Fremdkörper“ vernichtet wurden.

Natürlich gibt es keinen unmittelbar direkten Weg vom romantischen Mittelalterbild zum Holocaust, aber diese Zusammenhänge existieren. Die vereinfachten Bilder und Mittelalterfantasien, die die Popkultur prägen, sind an sich nicht problematisch — solange mitgedacht wird, dass sie eben Bilder sind. Problematisch wird es erst, wenn damit Authentizität und Realismus behauptet oder eingefordert werden. Da darf man dann durchaus darauf hinweisen, dass alles komplexer ist.

Kingdom Come Deliverance (2018, Foto: IGDB)

Und dieses Problem, dass die Realität doch komplexer ist, als Medien, wie Spiele es ja auch sind, findet sich dann auch in Spielen mit modererner Thematik, wie dem von dir kritisierten Call of Duty?

Da sehen wir dasselbe. Im aktuellen „Call of Duty: Black Ops Cold War“ will Activision cool und edgy sein, aber bietet dabei einem zentralen Mythos der Alt-right, der „kulturmarxistischen Unterwanderung“ westlicher Gesellschaften, eine Bühne. Wollen die, dass da Spieler in diesen rechten Kaninchenbau springen? Nein, die wollen nur ihr Spiel verkaufen. Es ist nur ein Spiel. Aber im Hintergrund werden da ziemlich achtlos Weltbilder behauptet, die eben nicht neutral, objektiv oder überhaupt nur faktisch wahr sind. Das Marketing will edgy sein. Leider begeben sie sich damit auf ein Gebiet, auf dem in den letzten Jahren rechte Identitätspolitiker vor allem bei jungen Zielgruppen definiert haben, was genau „edgy“ ist.

Bräuchte es Historiker*innen oder Politikwissenschaftler*innen in Entwickler*innen-Teams, um die möglichen Folgen einer Spielerfahrung besser einzuschätzen?

Es bräuchte vielleicht hauptsächlich ein Bewusstsein dafür, dass man ein Produkt macht, das nicht im luftleeren Raum entsteht und eine Aussage transportiert, egal ob ich das beabsichtige oder nicht. Ich sähe die Aufgabe eher bei der Rezeption, bei der Kritik und der Gesellschaft, die sich nicht vom Geschrei der reflexhaften Verteidiger beirren lässt, und einfach darauf hinweist, was da ist. Spiele sind komplexe Produkte, weil sie erzählen, konstruieren und uns auch handeln lassen. Umso mehr sollte man hinsehen, welche Ideen und Ideologien da im Stillen, also ohne, dass es vielleicht die Macher selbst beabsichtigen, transportiert und damit normalisiert werden. Wer einen Hammer hat, sieht nur mehr Nägel.

Man muss zumindest darauf hinweisen dürfen, dass Spiele Weltbilder transportieren und ihre Macher eine Verantwortung haben, die sie nicht damit verleugnen können, indem sie sagen, sie machen ja nur Spiele. Erst wenn das geklärt und anerkannt ist, lässt sich gelassen darüber diskutieren, welche Weltbilder und Ideologien das überhaupt sind.

Vielen Dank für das spannende Interview!

(Titelbild: Wokandapix / Pixabay.com)

Tipps gegen Update-Stress

Wir leben in der Zeit der „ewigen Beta“. Die Programme, die heute auf unseren Computern, Tablets und Smartphones laufen, werden immer weniger als fertiges Produkt angesehen, sondern als Dienstleistung — „Software as a Service“. Wir bezahlen keine Ware, sondern erwerben eine Nutzungslizenz, oder wir schließen Abonnements ab. Eine neue Version der Software wird so oft nicht mehr explizit erworben, sondern kommt automatisch, und wenn wir ein Programm starten, um einfach damit zu arbeiten, müssen wir mitunter erstmal minutenlang warten, bis es sich aktualisiert hat.

Bekanntestes Beispiel ist Microsofts Betriebssystem Windows 10, das ca. zwei Mal im Jahr ein großes Update erhält und dazwischen mehrere kleine. Die lassen sich zwar für einige Tage verschieben, sind aber schließlich zwingend zu installieren. Auch Apple hat Mitte 2020 in seinem Betriebssystem macOS die Möglichkeit entfernt, Updates zu ignorieren. Das mobile Betriebssystem Android, viele Spiele und Anwendungsprogramme (oder „Apps“) erscheinen ebenfalls als „rolling release“ ohne absehbaren Endzustand.

Beispiele für Update-Stress

Solch regelmäßige Aktualisierungen beheben heute nicht nur Fehler, damit am Ende ein möglichst ‚rundes‘ Produkt entsteht. Oft fügen sie neue Funktionen hinzu, verändern oder entfernen bekannte Funktionen und bringen leider auch neue Fehler mit. Das alles kann auf Nutzer*innen-Seite echten Stress verursachen.

Nicht nur an mir selbst, auch in meinen diversen Kundenservice-Erfahrungen erlebe ich immer wieder Kombinationen von Situationen wie den folgenden:

  • Ein Update verändert Bezeichnungen, Symbole oder die Anordnung von Bedienelementen so, dass bekannte Funktionen nicht mehr wiedergefunden oder nicht mehr korrekt bedient werden können, obwohl sie ansonsten weiter vorhanden sind. Das bereitet Menschen große Schwierigkeiten, die sich mit Mühe in eine Nutzerschnittstelle eingearbeitet hatten und nun umlernen müssen. Das betrifft mehr Leute, als man als computeraffiner Mensch glaubt.
  • Ein Update verändert bekannte Funktionen so, dass die Leistungen dieser Funktionen (ihre Ergebnisse oder Effekte) anders sind als zuvor. Funktion A hatte vor dem Update Effekt 1 und 2, nach dem Update hat sie vielleicht noch Effekt 3, oder Effekt 2 wurde entfernt, weil dafür nun eine neue Funktion B eingeführt wurde.
  • Ein Update verändert die ‚harten‘ technischen Voraussetzungen, die nötig sind, damit das Programm vernünftig läuft — es benötigt auf einmal mehr Speicher, einen besseren Prozessor oder eine bessere Grafikkarte, um genauso schnell wie zuvor auf unsere Wünsche zu reagieren. Im schlimmsten Fall stellen wir dann fest, dass wir auch die Hardware selbst aktualisieren müssen, damit alles wieder gut funktioniert.
  • Ein automatisches Update wird genau dann durchgeführt, wenn man es gerade am wenigsten brauchen kann — statt einfach schnell die jeweilige Aufgabe zu erledigen, muss man erstmal warten, bis das Update fertig ist. Wenn dafür auch noch lange Downloads nötig sind, während der Internetzugang vielleicht gerade durch andere Haushaltsmitglieder ausgelastet ist, kann das sehr frustrierend sein.
  • Ein automatisches Update ist nicht verhinderbar („Zwangsupdate“) oder kann nicht auf einen geeigneteren Zeitpunkt verschoben werden.
  • Es wird nicht verständlich erklärt, was ein Update für Änderungen zur Folge hat, und ob es wichtig oder unwichtig für meine eigene, ganz konkrete Nutzungssituation ist.

Ihnen fallen sicher noch andere Punkte ein. Jedenfalls kann all das ‚ganz schön stressig‘ sein.

Tipps gegen den Updatestress

Auf Updates zu verzichten, ist keine gute Idee, denn oft sind die Änderungen positiv und wichtige Fehlerquellen oder Sicherheitslücken (die sich eben nie ganz im Vorfeld verhindern lassen) werden behoben. Auch Zwangsupdates können sinnvoll sein, um gegen akute Sicherheitsprobleme oder Fehler mit großen Auswirkungen vorzugehen. In diesen Fällen mag das — eigentlich ziemlich übergriffige — Verhalten der großen Softwarefirmen gerechtfertigt erscheinen, denn ein nicht aktuell gehaltenes System wird im Internet auch zur Gefahr für andere.

Daher folgen nun einige einfache Tipps, wie man Updatestress vorbeugen kann.

  1. Vereinfachung I: Man muss nicht gleich „Digital Detox“ machen, aber was nicht installiert ist, braucht auch keine Updates. Viele Geräte werden von Anfang an mit Software geliefert, die man gar nicht verwendet. Misten Sie Ihre Geräte daher regelmäßig aus und vermeiden Sie es, irgendwelche Programme aus dem Internet oder Apps aus dem Appstore runterzuladen, nur weil die Werbung irgendwelche Wunder verspricht oder ein neues Programm toller aussieht als das alte. Neu ist nicht immer besser.
  2. Vereinfachung II: Im Laufe der Zeit sammeln sich heute ziemlich viele Geräte an. Das ist nicht nur ein Problem für die natürlichen Ressourcen der Erde, das Klima und die Stromrechnung. Jedes Gerät will gewartet sein, und gerade Geräte, die wir nur selten verwenden, sind beim nächsten Mal erstmal lange mit Aktualisierungen beschäftigt. Beschränken Sie sich daher auf wenige, möglichst langlebige Geräte, die Sie wirklich brauchen und regelmäßig verwenden.
  3. Erkennen Sie Ihren Bedarf: Um zu ermitteln, welche Geräte und Programme wir ‚wirklich brauchen‘, hilft es, mal einen Monat Tagebuch über die eigenen Nutzungsgewohnheiten zu führen. Was tue ich in welchem Umfang mit meinem Smartphone, meinem Tablet, meinem PC und meinem Laptop? Kann ich eventuell bei der nächsten Mobilfunkvertragsverlängerung auf ein neues Gerät verzichten? Kann das Tablet möglicherweise PC und Laptop ersetzen? Muss das Telefon wirklich ’smart‘ sein, wenn ich daneben auch ein Tablet habe? Verzichte ich vielleicht sogar ganz auf Smartphone und Tablet, um die Computer dorthin zu verbannen, wo sie hingehören (nämlich auf den Schreibtisch statt auf die Couch oder neben das Bett)? Habe ich das Gefühl, dass die Verwendung von Gerät A, Programm B oder App C mir einen echten Nutzen oder Freude bringt? Wenn nicht, weg damit.
  4. Legen Sie Updates auf eine günstige Zeit: Um zu vermeiden, dass sich Updates gerade dann in den Vordergrund drängen, wenn Ihnen das gar nicht passt, planen Sie regelmäßige Zeitfenster für Updates ein — so wie für den Hausputz. Der ist übrigens eine gute Zeit, um größere Updates durchzuführen (besser, als Geräte dafür nachts angeschaltet zu lassen, während wir schlafen). Während wir Staub saugen, das Bad putzen oder abwaschen, können parallel Updates runtergeladen und installiert werden — die Geräte nutzen wir da ohnehin nicht und wenn wir mit der Hausarbeit fertig sind, dürften die meisten Updates auch abgeschlossen sein. Falls zwischendurch ein Neustart nötig ist, ist der auch schnell erledigt.
  5. Verschieben Sie brandneue Updates eine Weile, wenn möglich: Wenn es nicht gerade um wichtige Sicherheitslücken geht, warten Sie einige Tage ab. Schon öfter hatten etwa Nutzer*innen von Windows 10 das Problem, dass der Computer nach Updates nicht mehr startete; der Hersteller zog dann diese Updates zurück und brachte später korrigierte Versionen heraus. Mittlerweile kann man eine „Update-Pause“ für bis zu 35 Tage in Windows 10 einstellen; unter Umständen ist das sinnvoll.
  6. Informieren Sie sich im Internet, ob ein Update Probleme bereiten könnte. Seriöse Seiten sind dafür etwa technische Nachrichtenportale wie heise.de oder golem.de; Social Media und Foren verbreiten hingegen oft auch oft Halbwissen und Mythen.
  7. Machen Sie Backups: Wertvolle Texte, Fotos, Musik, usw. sollten regelmäßig gesichert werden — das geht zwar in der Cloud, aber falls das Internet mal ausfällt, schadet es auch nicht, traditionelle Backups auf externen Datenträgern zu haben. Das nimmt die Sorge davor, alles zu verlieren, wenn mal etwas schiefgeht. Sie müssen dazu keine komplexe Backupstrategie mit zig Versionen einführen. Machen Sie einfach jede Woche eine Sicherung der wichtigsten Ordner und löschen Sie nach vier Wochen die jeweils älteste Sicherung. Auch dies lässt sich übrigens mit dem Hausputztermin kombinieren.

Fazit

Natürlich könnte man noch viel weitergehen. Man könnte selbst zum ‚Techniknerd‘ werden, ein freies Betriebssystem wie Linux installieren und so eine fast vollständige Kontrolle über die eigenen Geräte und Programme erlangen. Dies jedoch verschiebt den eigenen Fokus von der möglichst einfachen Nutzung und verlangt zeitaufwendige Einarbeitung (an deren Ende zwar ebenfalls eine elegante Form von Einfachheit stehen kann, aber der Weg dahin braucht etwas Zeit und Lernwillen). Die genannten Tipps hingegen — sie dienen letztlich der Systematisierung und dem Gewinnen eines Überblicks — lassen sich auch in einem ’normalen‘ Nutzungsalltag umsetzen.

(Titelbild: mohamed_Hassan / Pixabay.com)