Lesetipp zum Verstehen von Komplexität: Tobias Moebert zur Wahrnehmung von Mensch-Technik-Interaktionen

Forderungen an Entwickler*innen, Technik transparent zu gestalten, sowie Forderungen an Nutzer*innen, sich aktiv um ein Verständnis von Technik zu bemühen, sind zwei Seiten einer Medaille: Es geht um Handlungsfähigkeit in einer technisierten Welt. Statt jede neue Technologie (bzw. deren konkrete Ausprägung als technisches Werkzeug) immer naiv zu begrüßen oder Technik gleich grundsätzlich abzulehnen, geht es um einen reflektierten Umgang, der Vor- und Nachteile bewusst erkennt, abwägt und entsprechende Handlungsoptionen identifiziert. Das ist gerade in unserer heutigen Gesellschaft wichtig, in der es immer mehr technische Systeme gibt, die unseren Alltag auf vielfältige Weise prägen, die aber uneinsehbar erscheinen, etwa Systeme maschinellen Lernens bzw. Künstlicher Intelligenz oder erste Ansätze zum Transhumanismus.

Der vom Soziologen Niklas Luhmann gern genutzte Begriff der Blackbox, des uneinsehbaren schwarzen Kastens, ist eine bequeme Metapher, um ein grundlegendes Wahrnehmungsproblem von Technik zu bezeichnen: Wir können als bloße Nutzer*innen nicht einfach in die internen Abläufe eines Computers reinschauen. Wir können auch die Wechselwirkung technischer Systeme mit ihrer Umwelt nicht immer einfach erkennen. Und selbst Expert*innen sind mitunter von den Ergebnissen maschinellen Lernens überrascht, weil zum Beispiel künstliche neuronale Netze so viele Schichten aufweisen, dass die Funktionsweise des Netzes zwar theoretisch erklärbar, aber das Zustandekommen eines konkreten Ergebnisses nicht mehr herleitbar ist. Es ist eben alles sehr komplex mit (post)moderner Technik.

Es ist kompliziert. Oder?

Aber was genau heißt das überhaupt — Komplexität in Mensch-Technik-Zusammenhängen? Was ist der Unterschied zu Kompliziertheit? Und wie nehmen Entwickler*innen und Nutzer*innen beides wahr? Das ist eine Fragestellung, die an der Schnittstelle von Kommunikationssoziologie und Informatik angesiedelt ist und noch viel zu wenig bearbeitet wird.

Sie deutet sich an in der bekannten Arbeit der amerikanischen Anthropologin Lucy Suchman, die in „Plans and Situated Actions“ in den 1980ern ethnomethodologisch untersucht hat, wie Menschen mit Kopiergeräten umgehen. Suchman hatte das konkrete Handeln der Nutzer*innen beobachtet und analysiert und so einige Grundkonzepte menschlicher Erwartungen an Technik aufgedeckt. Insbesondere die „What’s next?“-Erwartung ist da zentral — wir neigen dazu, eine Ausgabe einer Maschine sinnhaft zu interpretieren und daraus den nächsten möglichen Handlungsschritt abzuleiten.

Wir fragen uns also „Wie geht es weiter?“ um die Nutzung aufrechtzuerhalten, ganz ähnlich wie wir auch in menschlicher Kommunikation davon ausgehen, dass unsere Partner*innen etwa entsprechend des Grice’schen Kooperationsprinzips agieren und wir deren Äußerungen sinnhaft einordnen. Problematisch wird es, wenn wir da ‚auf dem Holzweg‘ sind (Suchman nennt das „garden path“), wir also entweder eine falsche Erwartung haben oder wir glauben, wir hätten etwas falsch gemacht, obwohl wir das gar nicht haben. Solche Missverständnisse entstehen, wenn die Maschine nicht transparent und verstehbar kommuniziert, wie ihre Situationsdefinition gerade aussieht.

Doch technische Systeme sind keine Menschen und die Grundannahmen ihrer Entwickler*innen liegen selten offen. Wieso reagiert der Computer nicht auf meinen Mausklick? Wieso druckt der Drucker nicht? Und „was macht er denn jetzt schon wieder?“ — der Legende nach eine häufige Frage von Airbus-Pilot*innen, wenn der Bordcomputer des Flugzeugs wieder mal was anderes tut, als man erwartet. Wir nehmen also an, dass das System auf unsere Eingabe hin etwas Bestimmtes tut, aber dann macht es doch etwas anderes oder gleich gar nichts.

Durch die enttäuschte Erwartung kann die Nutzungssituation kompliziert, komplex, sogar chaotisch erscheinen. Das führt zum Erleben von Ungewissheit, die die fortgesetzte Nutzung gefährdet und sich nebenbei auch phänomenologisch zeigen sowie psychische Auswirkungen haben kann. Diese Beobachtung sowie deren Einbettung in aktuelle soziologische Annahmen zur Unsicherheit der Gesellschaft — ob wir sie nun mit Dirk Baecker als Computergesellschaft, mit Ulrich Beck als Risikogesellschaft oder mit Andreas Reckwitz als Gesellschaft der Singularitäten bezeichnen — war vor einigen Jahren die Grundannahme meiner eigenen Disseration zur Softwarenutzung (gibt’s auf Nachfrage aus kostenlos von mir); Ungewissheit der Softwarenutzung liegt auch meinem 2020 erschienenen Fachbuch zugrunde. In beiden Büchern plädiere ich für die direkte Beobachtung von Nutzungssituationen, um die Merkmale der Situationen außerhalb des Labors herauszuarbeiten — und die Schwierigkeiten beim Umgang mit konkreter Technik.

Wie ‚es weitergeht‘ war für Lucy Suchman eine entscheidende Frage, die wir uns als Technik-Nutzer*innen bei jedem Nutzungsschritt beantworten müssen. Daran hat sich bis heute nichts geändert. Die dabei entstehende Komplexität wird nun durch eine Arbeit von Tobias Moebert (Universität Potsdam) untersucht. (Bild: Razmik Badalyan / Pixabay.com)

Doch was Kompliziertheit und Komplexität in diesem Zusammenhang eigentlich sind, war trotz bestehender Arbeiten bisher ein Desiderat. Natürlich gibt es unterschiedliche Definitionen dieser Begriffe, doch wie beides beim ganz konkreten Umgang mit Technik wahrgenommen wird und sich auf die Nutzungssituation aus Sicht der Betroffenen auswirkt, ließ sich bislang nur indirekt aus früheren Ergebnissen ableiten. Umso positiver, dass an der Universität Potsdam am Institut für Informatik und Computational Science nun eine Dissertation zum Thema erschienen ist, die genau in diese Lücke vordringt.

Tobias Moebert: Zum Einfluss von Adaptivität auf die Wahrnehmung von Komplexität in der Mensch-Technik-Interaktion

Der Informatiker Tobias Moebert hat im März 2021 seine Arbeit „Zum Einfluss von Adaptivität auf die Wahrnehmung von Komplexität in der Mensch-Technik-Interaktion. Dargestellt am Beispiel Bildungstechnologie“ vorgelegt (Download als PDF über den Publikationsserver der Uni Potsdam). Moebert entwickelt darin „ein Werkzeug“, um zu untersuchen, wie Menschen Komplexität der Techniknutzung wahrnehmen und so auch den Begriff für seinen Anwendungsbereich näher einzugrenzen. Wer aber bei einer Informatik-Dissertation unter „Werkzeug“ nur ein weiteres Computerprogramm oder ein weiteres, in einer Techniker*innenblase entstandenes Vorgehensmodell erwartet, oder auch eine bloße Studie zur Benutzbarkeit eines Produkts (Usability), wird positiv überrascht. Denn Moebert hat sich intensiv mit soziologischen und sozialwissenschaftlichen Perspektiven auf Komplexität und Techniknutzung auseinandergesetzt. Konkret fragt der Autor:

„Wie nehmen Menschen Komplexität wahr? Welche Ursachen hat die Wahrnehmung von Komplexität? Welche Folgen hat die Konfrontation mit Komplexität?“ (S. 164)

Zur Beantwortung der Fragen wurden Leitfadeninterviews mit Studierenden und Wissenschaftler*innen aus Informatik, Soziologie und Psychologie durchgeführt und die erhaltenen Aussagen anschließend inhaltsanalytisch (nach Mayring) interpretiert. Die befragten Personen waren allesamt mit zwei beispielhaft untersuchten Softwarewerkzeugen aus dem Bildungsbereich befasst — Software, deren Einsatz zu genau den erwähnten komplexen, mithin ungewissen, Nutzungssituationen führen kann, zumal sich diese Software auch wechselnden Nutzungskontexten anpassen sollte (Adaptivität).

Theoriegeleiteter Ausgangspunkt der Untersuchung war, dass komplexe Situationen dynamisch sind und dass die der Situation zugrundeliegenden Ursache-Wirkungs-Beziehungen und die Handlungsfolgen der Nutzer*innen unvorhersehbar sind. Dies lässt sich durch mehrere Indikatoren ausdrücken, etwa die Wahrnehmung einer Software als „kontraintuitiv“ (Ursache/Wirkung ist nicht allein durch Intuition erfassbar und steht oft im Widerspruch zu unseren Erwartungen, S. 27) oder als „interventionsbeständig“ (weil ein System komplexer ist als unsere Fähigkeit, es zu verstehen, scheitern Eingriffe in das System oder führen zu unerwarteten Folgen, ebd.). In der Inhaltsanalyse zeigte sich nun, dass insbesondere das Merkmal der Kontraintuitivität in allen untersuchten Beispielen auftrat.

Das Problem der Intransparenz

Interessant ist in diesem Zusammenhang der Verweis auf die Wahrnehmung von Intransparenz:

„Diese Kontraintuitivität war in der Regel darauf zurückzuführen, dass den Beteiligten entscheidendes Wissen über die zugrundeliegenden Zusammenhänge der Situation gefehlt haben. Entweder war dieses Wissen generell nicht verfügbar oder durch die Intransparenz des Systems versteckt. [Hervorh. M.D.] Als Folge konnten die Beteiligten […] oft nicht richtig intuitiv beziehungsweise zielführend handeln und es war zu erwarten, dass unerwartete Handlungsfolgen auftreten würden“ (S. 165).

Gerade der Versuch, die Software als kontextsensitiv (adaptiv) zu gestalten, führte zu Transparenzproblemen:

„Auch wenn in beiden Anwendungen grundsätzliche Bemühungen vorgenommen wurden, um die basale Funktionsweise des Adaptierungsmechanismus sichtbar zu machen, bleiben viele konkrete Details jedoch im Verborgenen (z. B. Auswahl von Lehrinhalten, getroffene Annahmen etc.)“ (S. 166)

Dies führte nach Moebert zu einem für Nutzer*innen „unerreichbare[n] Detailwissen […], das lediglich dem Konstruktionskonsortium“, sprich: den Entwickler*innen bekannt war (ebd.). Genau das ist das Problem, das bei der meist üblichen intransparenten Technik häufig der Fall ist: Wir verstehen sie nicht, wir können ihre Entscheidungen nicht nachvollzuziehen, gerade wenn die Technik Fehlverhalten zeigt:

„Als Folge haben es die Nutzenden zuweilen schwer, die Adaptierungen nachzuvollziehen. Dies trifft ganz besonders dann zu, wenn Kontexterfassung und/oder Adaptierung fehlerhaft funktionieren“ (ebd.).

Moeberts Untersuchung deckte noch einige weitere typische Problemfelder auf, die sich in anderen Untersuchungen andeuteten, aber bisher, soweit mir bekannt, zumindest nicht in dieser Stringenz empirisch untersucht wurden.

Der Autor bietet im Anschluss Orientierungspunkte für Entwickler*innen, unter anderem, um intransparentes Systemverhalten zu verbessern. Moebert empfiehlt, „zwar weiterhin die komplizierten internen Mechanismen [einer adaptiven Software] außen vor zu lassen, aber Nutzenden die Möglichkeit zu geben, adaptive Entscheidungen nachzuvollziehen“ (S. 173).

Das heißt konkret, man muss als Nutzer*in nicht im Detail die Algorithmen und Modelle offengelegt bekommen, nach denen eine Software sich an einen Kontext anpasst (und wir könnten verallgemeinern: nach denen eine Software Entscheidungen trifft und Ergebnisse ermittelt). Aber die Software kann all dies durchaus in Alltagssprache verdeutlichen, und zwar nicht versteckt in der Dokumentation, sondern an der Stelle während der Nutzung, an der ein entsprechender Hinweis auch relevant ist. In dem Zusammenhang dürfte auch Moeberts Empfehlung, „die Offenheit und Ungewissheit menschlicher Lebenserfahrungen“ (S. 169) stärker zu berücksichtigen, von Bedeutung sein.

Fazit: Nicht nur für Informatiker*innen

Die Stoßrichtung von Moeberts Untersuchung und seiner abgeleiteten Empfehlungen ist unbedingt zu unterstützen und sollte weiter ausgebaut werden. Dass ich Technik-Transparenz als gesellschaftliches Ideal ansehe, habe ich erst kürzlich wieder betont. Für das Feld der KI-Forschung kennen wir die Richtung der Explainable Artificial Intelligence. Doch auch nicht-KI-basierte Technik kann komplex sein und bedarf entsprechender transparenter Unterstützung für ihre Nutzer*innen. Dies ist etwas anderes als früher übliche Forschungen zu Usability (Benutzbarkeit) und User Experience (Benutzererfahrung). Es geht um Erklärbarkeit des Handelns mit Technik in einer Situation. Hier ist noch viel zu tun, und Moeberts Arbeit ist ein wichtiges Puzzlestück dazu.

Verwandte offene Fragen sind, welche Rolle „Trivialisierungsexperten“ wie Handbuch-Autor*innen, Technik-Journalist*innen, technikbezogene Influencer*innen, die Werbung oder der technische Kundendienst in dem Kontext spielen. All diese Instanzen können Transparenz entweder fördern oder aber Komplexität bloß verschleiern. Auch eine phänomenologische Perspektive auf die Wahrnehmung von Techniknutzung ist noch ein Desiderat.

Abschließend ein Hinweis. Wie erwähnt, handelt es sich um eine Dissertation und damit eine wissenschaftliche Qualifikationsarbeit im Fach Informatik; entsprechend formal ist der Stil. Doch davon sollte sich niemand, die*der am Thema interessiert ist, abschrecken lassen. Der Text ist durchgehend gut lesbar und technisch wird es vor allem bei der Beschreibung der Fallbeispiele. Für Nicht-Techniker*innen mögen diese Kapitel etwas ermüdend sein, aber sie sind nötig, weil sie der Hintergrund sind, vor dem sich die empirischen Ergebnisse der Inhaltsanalyse erst abheben, also verstehbar werden. Und einen letzten Vorteil hat das Format der Dissertation: Die Rohdaten der Interviews (Transkripte) sind vollständig im Anhang vorhanden und ermöglichen so einerseits den direkten Nachvollzug der Ergebnisse und andererseits laden sie geradezu zu weiteren Forschungen ein.


Titelbild: Gerd Altmann / Pixabay.com

Cyborg gegen KI? Elon Musks „Neuralink“

Auf den Unternehmer Elon Musk scheint der etwas abgegriffene Begriffs des „Machers“ noch zu passen: Elektroautos nicht nur bauen, sondern als attraktiv vermarkten? Das tut Musk mit seiner Firma Tesla, in die er seit 2004 investiert. Dafür in Windeseile eine Fabrik in Brandenburg hochziehen? Scheinbar trotz Protesten kein Problem. Eine private Alternative zur staatlichen US-Raumfahrt bieten? Musk und SpaceX tun das seit 2002; vor ein paar Monaten erstmals auch mit zwei Astronauten an Bord. Menschen und Fracht mit fast Schallgeschwindigkeit durch Tunnelröhren transportieren? Daran arbeitet seit 2013 Musks Hyperloop-Projekt.

Doch neben Transportmitteln interessiert sich Elon Musk auch für die Natur des Menschen selbst: Seit 2016 untersucht Musks Firma Neuralink Möglichkeiten, Computerchips in menschliche Gehirne einzupflanzen. Gehirnchips, die unsere Fähigkeiten erweitern – für die einen Horrorvorstellung, für die anderen nur Beginn transhumanistischer Sehnsucht. Den Prototypen eines Gehirnchips stellte Musk im Juli 2019 vor, und in einem Livestream präsentierte er am Samstag einige Fortschritte bezüglich der Implantation des Chips selbst – 1.024 Elektroden werden von einem Roboter implantiert, angeblich sanfter als bei früheren Methoden (Bericht bei golem.de).

Soll es am Anfang noch um Unterstützung für körperlich beeinträchtigte Menschen gehen, ist Musks Fernziel, die kognitiven Fähigkeiten von Menschen so zu steigern, dass wir mit Künstlicher Intelligenz (KI) mithalten können. Musk hat schon früher betont, dass er KI als zwar nützlich, aber auch als potenzielle Bedrohung ansieht; er unterstützt deshalb die Non-Profit-Organisation OpenAI, die im März mit GPT-3 die bislang am erfolgreichsten funktionierende KI zur Erzeugung längerer englischsprachiger Texte vorgestellt hat.

Die Philosophin Susan Schneider warnte 2019 nach Musks Ankündigung vor den Gefahren, die Musks Pläne für den menschlichen Geist bedeuten würden. In der Financial Times und in der New York Times warnte Schneider vor einem „Selbstmord des menschlichen Geistes“ (näher ausgeführt hat Schneider das etwas später in ihrem Buch „Artificial You: AI and the Future of Your Mind“). Erstaunlicherweise wurde in den Medien aber kaum über Musks Ausgangsthese gesprochen, die ja besagt, dass wir von KI bedroht werden und gleichsam aufrüsten müssen, um dieser Bedrohung Herr zu werden. Dabei ist gerade das Verhältnis von Mensch und KI eine Frage, die zu klären wäre, bevor wir ihretwegen wahlweise zu Cyborgs werden oder jegliche transhumanistische Idee sofort abtun.

Ist also KI für uns Technik wie jede andere, die wir als mündige Nutzer*innen verwenden, um ein konkretes Problem zu lösen?

Oder ist KI etwas, der wir uns einfach nicht werden entziehen können, von deren Leistungen wir abhängig werden (zumindest, wenn wir gesellschaftlich nicht ‚abgehängt‘ werden wollen), und die uns deswegen auch fremdbestimmen wird?

Die Antwort hängt davon ab, welche Einstellung wir modernen Technologien gegenüber einnehmen. Stehen wir ihnen optimistisch gegenüber, oder nehmen wir sie als Bedrohung wahr?

Unbehagliche Umweltkomplexität

Dass wir uns als Menschen von Technik bedroht fühlen, ist nichts Ungewöhnliches. Das betrifft uns sowohl als Gesellschaft (etwa hinsichtlich Umweltfragen und der Gefahr des Arbeitsplatzverlustes) als auch als Individuen. Insbesondere Technik, deren innerer Aufbau und deren Funktionsweise nicht auf den ersten Blick ersichtlich ist, kann zu Unbehagen führen. Das betrifft erstens ihren Einsatz, wenn wir direkt mit ihr zu tun haben, und zweitens Nebenfolgen, von denen wir als Dritte betroffen sein könnten. Denken wir etwa an das Fliegen:

  1. Viele Menschen haben Flugangst. Die Gründe dafür können vielfältig sein, aber eine der Ursachen können wir als ungläubiges Staunen vor einer als unbegreiflich empfundenen Technik beschreiben: Man ist gleichermaßen fasziniert von der Technik wie man besorgt ist, ob sie auch wirklich wie versprochen funktioniert. Wie kann es sein, dass ein Flugzeug bei Triebwerksausfall nicht einfach vom Himmel fällt? Erst wenn man Funktionsweise und Kontext der am Fliegen beteiligten Techniken und physikalischen Zusammenhänge kennt, kann man Risiken rational abschätzen und begründen.
  2. Neben dem Mitfliegen als Passagier*in sind wir vom Fliegen betroffen, weil es in unserer Umwelt stattfindet und diese Umwelt teils massiv verändert. Darauf reagieren Menschen: Denken wir etwa an Flugscham, an Proteste bei Flughafen-Ausbauten oder an Lärmbeschwerden von Anwohner*innen in Flughafennähe. Nicht das Fliegen selbst wird hier als Bedrohung gesehen, sondern die Folgen und die Voraussetzungen des Fliegens werden als Bedrohung Umwelt und der eigenen Gesundheit wahrgenommen.

Ganz ähnlich ist unsere Beziehung zu Technik insgesamt. Wir sehen uns Technik gegenüber: Wir sitzen als klar abgegrenzte Akteur*innen im Flugzeug, vor dem Computer, wir halten die Bohrmaschine in der Hand, und so weiter. Systemtheoretisch ist das eine Leistungsbeziehung zwischen System und Umwelt. Technik ist Umwelt gesellschaftlicher Systeme, wie Wirtschaft, Politik und Wissenschaft, aber auch einzelner Nutzer*innen. Nach Niklas Luhmann ist die Leistung von Technik, Komplexität zu verringern. Technik wird von ihren Entwickler*innen so eingerichtet, dass sie diese Leistung in den als am wahrscheinlichsten angenommenen Situationen erbringen kann. Um Technik zu nutzen, müssen wir nur gewisse Grundkenntnisse erwerben und können ansonsten darauf vertrauen, dass die Technik unsere Erwartungen erfüllt (wir müssen freilich auch mit Enttäuschung dieses Vertrauens umgehen).

Die systemtheoretische Perspektive auf Nutzer*in und Technik passt gut auf Verhältnisse, in denen man als Beobachter*in unterschiedliche Systeme und ihre Umwelten klar voneinander abgrenzen kann. Schwierig wird es jedoch, wo diese klare Trennung schwer fällt. Künstlicher Intelligenz etwa stehen wir nicht als gewöhnliche Nutzer*in gegenüber wie einer Bohrmaschine oder einer Textverarbeitung. Womöglich wissen wir gar nicht, dass KI hinter einer erbrachten Leistung steckt.

Im Sommer 2019 füllte die „FaceApp“ kurzzeitig das journalistische Sommerloch. Damit können Sie das Foto eines Gesichts mit KI-Hilfe und Bildverarbeitung verändern, zum Beispiel aus einem jungen Mann einen weise aussehenden älteren Herrn zu machen. Oder aus einer jungen Frau eine nette, gütige „Oma“. Andere, technisch ähnliche Anwendungen, erlauben die Generierung fiktionaler Gesichter, die ebenfalls absolut lebensecht aussehen. Das erleichtert Identitätsbetrug.

Ein noch fiktives bedrohliches Szenario könnte die behördlich angeordnete Einschränkung Ihrer Bewegungsfreiheit sein, weil Sie laut KI-Prognose bald eine Straftat begehen werden, von der Sie selbst noch gar nichts wissen. Womöglich könnten Sie Widerspruch gegen die Entscheidung einlegen, hören dann aber nur die Antwort „Es tut mir leid, aber unsere Risiko-KI hat das so entschieden.“ Dann fühlen Sie sich so hilflos wie einst Josef K. in Franz Kafkas Roman „Der Prozess“ – einem System ausgeliefert, dessen Entscheidungen man nicht versteht und gegen die man nichts, aber auch gar nichts, tun kann.

So eine KI wäre zwar immer noch Umwelt der anderen Systeme, aber ihre Leistungen kämen eher einer Naturgewalt gleich statt einer kontrollierbaren Technik. Die KI würde eher Umweltkomplexität erzeugen statt sie zu verringern. Wer mag es einem Elon Musk da verdenken, dass er Menschen mittels Chip im Kopf die Möglichkeit geben will, einer KI quasi auf Augenhöhe zu begegnen?

Zum jetzigen Zeitpunkt ist das Hauptproblem an Musks Ansatz nicht die technische Machbarkeit. Es ist auch nicht die – philosophisch sicher spannende – Frage, ob ein Chip im Gehirn den menschlichen Geist erweitert, so wie es etwa Andy Clark und David J. Chalmers 2013 in ihrer Extended Mind Theory schon für einfache Techniken wie ein Notizbuch behaupteten (und ähnlich schon früher die Medientheorie Marshall McLuhans), oder ob Susan Schneider mit ihrer Selbstmord-These Recht hat. Wenn wir wirklich von KI bedroht sein sollten, ist das Hauptproblem derzeit, ob Musks Ansatz geeignet ist, das Problem zu lösen, oder ob es nicht auch einfacher geht.

Statt Gehirnchips: Verstehen und Intervention

Eine Alternative finden wir in der Forderung, in Bezug auf Digitalisierung eine „Code Literacy“ auszubilden (so Douglas Rushkoff in seinem Buch „Program or be Programmed“), also verstehen zu lernen, wie Computer und Algorithmen mit unseren Daten umgehen, damit wir mündige Nutzer*innen sein können. In Bezug auf KI denke ich dabei an drei Aspekte:

  • die Fähigkeit, zu erkennen, dass wir in einer bestimmten Situation von KI betroffen sind;
  • das Wissen darüber, was eine KI grundsätzlich tun kann oder nicht – wo also ihre realistischen Fähigkeiten und Grenzen liegen;
  • das Wissen darüber, was Menschen, die eine KI einsetzen, mit ihrer Hilfe tun können oder nicht.

Es geht, kurz gesagt, darum, die System-Umwelt-Verhältnisse der beteiligten menschlichen, gesellschaftlichen und technischen Systeme zu klären und die erwarteten und erbrachten Leistungen einzuordnen. Dann ist es möglich, Interventionsmöglichkeiten zu identifizieren und, anders als Josef K. in Kafkas Roman, KI nicht als mystische Macht wahrzunehmen, die irgendwo im Hintergrund lauert, sondern als Technik wie jede andere auch. Die Ausbildung dieser auf KI erweiterten Code Literacy führt zu einer Demystifizierung, die schon Max Weber in Bezug auf Wahrheitsansprüche gefordert hatte, und an die zu erinnern mir mittlerweile auch für das Alltagsleben geboten erscheint.

Aktuelle KI-Systeme sind lediglich mathematische Modelle, deren Einzelteile fast lächerlich einfach erscheinen können (z.B. das einzelne künstliche Neuron eines neuronalen Netzes). Nur dank der großen Zahl der Einzelteile (z.B. aller Neuronen des Netzes) und mehrfach wiederholter Berechnungsdurchgänge entstehen Ergebnisse, die mitunter selbst die Entwickler*innen überraschen. Aber es ist nach wie vor bloße Mathematik, und eine KI kann nicht, wie in der Science Fiction, auf geradezu magische Art über sich hinauswachsen. Entwickler*innen wählen Trainingsdaten aus, legen Aktivierungsfunktionen und Gewichtungen fest, markieren Ergebnisse als gewünscht, um eine Abbruchbedingung für die Berechnung zu haben, und entwickeln Algorithmen, die selbst bei KI-Systemen auf einer basalen Ebene existieren. Daher tut auch eine KI nur das, wofür sie programmiert wurde. Sie ‚trifft‘ keine eigenen Entscheidungen.

Die Verantwortung für Fehlentscheidungen tragen Menschen, und an die müssen wir uns bei Fehlentscheidungen wenden. Zu verstehen, wie KI funktioniert und zu was sie in der Lage ist (und wozu nicht), hilft dabei. Neben bereits bestehenden Arbeiten zur menschenfreundlichen Darstellung von KI-Entscheidungsprozessen wäre es wünschenswert, wenn die Modelle und Datenbasen einer KI einer Open-Source-Pflicht unterliegen würden. Darüber hinaus bedarf es gesellschaftlicher Organisationsformen als Entlastungsfunktion – zum Beispiel in Form spezieller Abteilungen in Unternehmen und Behörden, die unsere Widersprüche gegen KI-Entscheidungen bearbeiten und KI-Entscheidungen übersteuern können, sowie neutraler Schiedsstellen, an die wir uns wenden können, wenn eine andere Einigung nicht möglich ist. Ein zu erwartender Wegfall von Arbeitsplätzen durch KI muss gesellschaftlich bearbeitet werden – von Fortbildungsprogrammen bis hin zu Grundeinkommensmodellen (denn trotz Fortbildung wird nicht jede*r eine andere Tätigkeit finden), ebenso wie mögliche ökologische Folgen des Energieverbrauchs.

Dies wären Ansatzpunkte für eine menschliche Umgangsweise mit Herausforderungen von KI-Einsatz – zwar kritisch und durchaus der Gefahren bewusst, aber unaufgeregt und grundsätzlich technik-optimistisch. KI hingegen als quasi naturgegebene Macht anzusehen, der wir uns nur durch technische Aufrüstung im Gehirn erwehren können, kommt der Bekämpfung von Feuer mit Öl gleich. Neuralinks Produkt wäre für diesen Einsatzzweck eine Technik, die mehr Komplexität schafft als sie verringert, und zumindest in dieser Hinsicht widersinnig. Nicht nur aus Machbarkeitsgründen wäre es sinnvoller, den Fokus auf die viel naheliegenderen medizinischen Möglichkeiten solcher Chips zu legen, die Musk aber nur als Einstieg sieht.

Titelbild: chenspec / pixabay.com

Den Artikel habe ich zeitgleich in meinem Blog in der Freitag.de-Community gepostet.

scobel: „Die Weltrevolution“ und die „Theorie U“

Eher zufällig blieb ich gestern Abend auf 3sat bei „scobel“ hängen. Dort ging es um Komplexität. Genauer gesagt darum, dass die drängenden Probleme auf der Welt nicht jedes für sich gelöst werden können, sondern nur im Zusammenhang, dass aber dies aus verschiedensten Gründen sehr schwierig ist. Die Sendung ist insgesamt recht sehenswert und ich verlinke hier mal den Beitrag in der 3sat-Mediathek.

Einer der Gäste der Sendung war Otto Scharmer, der mit der „Theorie U“ ein Management-Konzept entwickelt hat, das dem Organisationswandel dienen soll. Ich kannte das bis gestern nicht, aber ich hatte in dem erklärenden Beitrag in der Sendung das Gefühl, dass mir da was verkauft werden soll.

Bei der sogleich angestoßenen Google-Suche nach Kritik zu dem Modell stieß ich auf einen Text des Soziologen Stefan Kühl, der Scharmers „Theorie U“ als nur eine neue Management-Mode wie andere zuvor einstuft. Außerdem hebst Kühl die esoterisch-spirituellen Hintergründe der „Theorie U“ (u.a. Antroposophismus) hervor.

Kühls Text findet sich als PDF hier.

Eine weitere Kritik, diesmal von Svenja Hofert, ist ebenfalls interessant. Die Autorin bezieht sich teils auf Kühl, geht aber noch mehr auf die generellen Gefahren ein, wenn man Management-Theorien nicht nur als Anregung nimmt, sondern als absolute, allein selig machende Lösung zu sehen beginnt.

Aus der Kommunikationsforschung kenne ich Ähnliches, wenn man etwa im Studium das 4-Ohren-Modell Schulz von Thuns lernt und glaubt, damit Kommunikation verstanden zu haben, oder wenn sich Luhmanns Systemtheorie selbst gegen Kritik immun macht.

Dabei sind solche Modelle und „Theorien“ (wissenschaftstheoretisch ein Begriff, der streng genommen gar nicht immer passt) alles nur Anregungen, Perspektiven, die je nach Kontext mehr oder weniger brauchbar sein können. Sowas wird wohl auch für Scharmers „Theorie U“ gelten. Da ist bestimmt viel Nützliches dabei, aber in der „scobel“-Sendung wurde sie mir zu sehr als wohl der zukunftsfähige Vorschlag präsentiert, wogegen die beiden anderen Gäste, Stefan Brunnhuber und Patrizia Nanz, eher blass wirkten — obwohl gerade Nanz‘ Betonung der Schwierigkeiten, Komplexität zu bearbeiten, ehrlicher ist als mal eben ein Modell als Lösung hervorzukramen.

Da ich Scharmers Arbeit nicht kenne, kann ich das alles noch nicht einordnen, aber wenn mir etwas als Allheilmittel angepriesen wird, werde ich sofort skeptisch. Scheinbar bin ich nicht der einzige.