"KI als faschistisches Artefakt"
In Deutsche übersetzte Auszüge aus einem Text von Jürgen Geuter, veröffentlicht am 21.04.2026 via tante.cc
Englischer Originaltext siehe: AI as a Fascist Artifact
"
Unsere Welt und unser Zugang zu ihr werden zunehmend durch technologische Vermittlung strukturiert: Digitale Plattformen und Systeme sind ein enorm wichtiger Aspekt nicht nur unserer Arbeitsumgebungen oder unserer Interaktionen mit staatlichen Stellen oder den Medien, sondern auch unserer individuellen Kommunikation untereinander. Unsere Welt basiert auf technologischen Infrastrukturen, die bestimmen, was wir sehen, mit wem wir sprechen können und welche Informationen uns präsentiert werden.
Wir leben zudem in einer Zeit wachsender faschistischer Bedrohungen weltweit: In vielen Ländern versuchen neofaschistische Bewegungen und Parteien, die Macht zu ergreifen und möglicherweise sogar konservative Parteien in die Regierungen zu integrieren. Einige hatten damit bereits Erfolg. Der Faschismus ist mit voller Wucht zurück. (Antifaschisten warnen seit Jahrzehnten, doch diese Erkenntnis hilft leider niemandem. Vielleicht können wir, nachdem wir die Faschisten beseitigt haben, etwas daraus lernen.)
Und natürlich leben wir im Zeitalter der „KI“, in dem stochastische Systeme mit zugeschriebener Handlungsfähigkeit – derzeit unter dem Begriff „agentische KI“ bekannt – in all unsere beruflichen und privaten Arbeitsabläufe Einzug halten. Künstliche Intelligenz (KI) steht derzeit im Mittelpunkt des Technologiesektors und gilt als die Wundertechnologie, auf die Regierungen und Unternehmen all ihre Hoffnungen setzen, um den Spätkapitalismus noch eine Weile aufrechtzuerhalten.
In diesem Text möchte ich das Verhältnis zwischen Faschismus und der sogenannten KI analysieren. Besteht in dieser Technologie, die unsere Welt (zum Guten wie zum Schlechten, aber überwiegend zum Schlechten) immer wieder verändert, eine Verbindung zum Faschismus? Oder nutzen Faschisten sie einfach nur gern? Ist sie neutral?
Wenn wir über Faschismus nachdenken, tun wir das oft, indem wir die Akteure betrachten: Böse Individuen, die aus bösen Gründen böse Dinge tun.
Und so betrachten wir oft das Verhältnis von „KI“ und Faschismus: Wir sehen, wie Trumps Weißes Haus und andere Teile seiner Regierung generative „KI“ einsetzen, um offen faschistische Propaganda über ihren Präsidenten zu verbreiten, „KI“ nutzen, um Fotos zu manipulieren und die Opposition in ein schlechtes Licht zu rücken, und „KI“ generell einsetzen, um die Menge rassistischer und faschistischer Medien weltweit zu erhöhen.
Palantirs CEO Alex Karp spricht seit etwa zwei Jahren über nichts anderes, als wie er seine Datenintegrationsplattform (Palantirs Produkt ist ehrlich gesagt ziemlich langweilig) nutzen will, um Menschen zu töten. Und nicht irgendwelche Menschen. Er inszeniert sich und seine Softwareentwickler als Kämpfer für „den Westen“, die die USA und „den Westen“ vor „dem Feind“ beschützen. Palantir will ganz offen ein entscheidender Bestandteil der militärischen Infrastruktur werden, die über Tötungsentscheidungen entscheidet, und möchte, dass seine Software wie eine Waffe behandelt und wahrgenommen wird – was, abgesehen von einem stark faschistischen Appell zur Normalisierung von Gewalt, auch als Verkaufsargument verstanden werden kann, um die Fähigkeiten und die Leistungsfähigkeit der Software zu steigern: Niemand wird Milliarden für einfache Datenintegration ausgeben. Aber wenn sie „Ihre Feinde töten“ kann, sprudeln die Aufträge vielleicht nur so herein?
Und schließlich gibt es Leute wie Marc Andreessen, der letztes Jahr ein „Techno-Optimistisches Manifest“ veröffentlichte, das – entgegen dem, was der Titel vermuten lässt – hauptsächlich ein Dokument ist, das auf seiner Forderung basiert, sich weder regulieren noch von klügeren Köpfen belächeln zu lassen. Doch es sind nicht nur die etwas reduktionistischen Ansichten darüber, was „KI“ und andere Technologien, in die er investiert, für die Welt leisten können und leisten werden, die dieses Dokument so bemerkenswert machen. Es zitiert und stützt seine Argumentation direkt und offen auf die Schriften italienischer Faschisten und anderer rechtsgerichteter Reaktionäre wie Nick Land und benennt explizit „die Feinde“: die Kommunisten, die Technikfeinde und diejenigen, die Technologie regulieren wollen. Im Grunde die erklärten Feinde des Faschismus seit seinen Anfängen.
Die Erkenntnis, dass die Rechte Technologie oder bestimmte Technologien (wie „KI“) vereinnahmt hat, führt mitunter dazu, dass Menschen diese Technologien „retten“ oder „zurückerobern“ wollen. Sie sind so tief in unser Leben integriert, wir haben uns so sehr an sie gewöhnt, dass ein Leben ohne sie unvorstellbar erscheint. Wir lieben unsere Apps und den Komfort. Und es ist nicht die Schuld dieser Apps und Technologien, dass Faschisten sie weiterhin nutzen. Könnten wir KI (oder das Metaverse, die Blockchain oder Ähnliches) vielleicht gut, ethisch und demokratisch gestalten, wenn die Linke aufhörte, sie zu kritisieren? Könnten wir diese Technologien vor den Bösen retten? Sie wieder ins Licht rücken? Vielleicht, wenn wir sie als Open Source veröffentlichen würden?
In seinem einflussreichen Aufsatz „Haben Artefakte eine politische Dimension?“ aus den 1980er-Jahren argumentiert Langdon Winner, dass diese Auffassung von „neutraler Technologie“ nicht haltbar ist. Die politische Dimension spezifischer Artefakte ergibt sich seiner Meinung nach nicht allein daraus, wer die Technologie nutzt und zu welchem Zweck, sondern Technologien besitzen eine inhärente Politik, die sich aus den politischen Ansichten und Zielen der Entwickler sowie ihrer internen Struktur speist.
Er veranschaulicht dies am Beispiel rassistischer Brückenkonstruktionen: Als die Bürgerrechtsbewegung in den USA schwarzen Kindern das Recht auf den Besuch der oft besseren Schulen verschaffte, die zuvor nur weißen Kindern zugänglich waren, planten Politiker beispielsweise Straßen und Brücken so, dass die Busse, die die schwarzen Kinder zu den weißen Schulen bringen sollten, diese nicht passieren konnten. Dies war kein Versehen, sondern beabsichtigte Planung. Der Rassismus ist in die Struktur des Artefakts selbst eingebaut.
Winner argumentiert zudem, dass bestimmte Technologien bestimmte politische oder soziale Strukturen voraussetzen, um existieren zu können: Die Atombombe impliziert nicht nur Wissenschaftler, die sie bauen können, und einen Staat, der diese Form der Zerstörung für legitim hält, sondern auch einen Sicherheitsstaat, der sie kontrollieren und verteidigen kann. Ohne diese Strukturen lässt sich schlicht keine Atombombe bauen; sie sind implizit, wenn nicht gar notwendig, und werden durch das Artefakt selbst erzwungen.
Winners Arbeit behauptet nicht, dass die einem Artefakt innewohnende Politik immer absolut ist: Wir kennen viele potenziell repressive Technologien, die von Künstlern und Aktivisten gegen ihren ursprünglichen Zweck eingesetzt wurden. Doch das ist stets ein Kampf gegen Windmühlen: Überwachung tendiert beispielsweise immer zu einem stärkeren, rigideren und weniger freien Regierungsverständnis. Man kann natürlich (Gegen-)Überwachung einsetzen, muss sich aber stets bewusst sein, nicht die Logik zu reproduzieren, die man zu kritisieren oder anzugreifen versucht.
Ausgehend von Winners Erkenntnis stellt sich die Frage: Was ist die inhärente, strukturelle Politik von „KI“? Welche Welt, welche Weltsicht, welche Politik erfordert oder impliziert „KI“? Welchen Weg führt uns „KI“, so wie wir sie heute verstehen?
Bevor wir tiefer in dieses Thema einsteigen, möchte ich kurz auf die Definition des Begriffs „KI“ eingehen. Ehrlich gesagt halte ich „KI“ nicht für einen besonders hilfreichen Begriff – ich würde sogar generell davon abraten, ihn zu verwenden, da er mehr Verwirrung stiftet als er erklärt oder verdeutlicht. Dennoch ist der Begriff allgegenwärtig, sodass wir uns damit auseinandersetzen müssen. Eine wichtige Erkenntnis über „KI“ ist, dass es sich um keinen präzise definierten Begriff handelt: „KI“ kann ein LLM (ein stochastischer Token-Extruder), ein System zur symbolischen Wissensrepräsentation, ein Excel-Makro, ein Mitarbeiter in einem Callcenter in Indien oder einfach nur eine Folie in einer Präsentation sein. „KI“ bezeichnet nichts Spezifisches. Zumindest keine bestimmte Art oder Klasse technischer Artefakte.
Ich bin ein großer Fan von Ali Alkhatibs Definition von KI:
Ich denke, wir sollten die Vorstellung aufgeben, KI sei ein technologisches Artefakt mit politischen Merkmalen, und sie stattdessen als durch und durch politisches Artefakt anerkennen. KI ist ein ideologisches Projekt, das darauf abzielt, Autorität und Autonomie von Individuen hin zu zentralisierten Machtstrukturen zu verlagern. Projekte, die behaupten, KI zu „demokratisieren“, verwechseln regelmäßig „Demokratisierung“ mit „Kommerzialisierung“.
- Ali Alkhatib
„KI“ ist ein politisches Projekt – ich habe es auch schon als Narrativ bezeichnet –, dessen Ziel die Verlagerung von Macht und Handlungsfähigkeit weg von Einzelpersonen und Organisationen hin zu zentralisierten Machtstrukturen ist. Diese zentralisierten Machtstrukturen bestehen derzeit größtenteils aus einer Handvoll großer Technologiekonzerne und den „KI-Laboren“, in die sie Unsummen investieren.
Obwohl ich „KI“ nicht für den besten Begriff halte, werden wir ihn im Folgenden in der aktuell vorherrschenden Bedeutung verwenden: In dieser Lesart steht „KI“ für eine Klasse stochastischer Systeme des maschinellen Lernens, die aus Daten extrahierte Muster speichern und anwenden können, um entweder Mustererkennung (wie Computer Vision) oder (und das ist heute das vorherrschende Narrativ) generative Systeme („generative KI“ oder „GenAI“) zu betreiben. Wenn ich also „KI“ schreibe, denke ich an ChatGPT, Claude, Gemini, Deepseek usw.
Zurück zum Faschismus.
Es gibt natürlich eine Fülle an Forschung und Analysen aus den Medienwissenschaften und verwandten Disziplinen zum faschistischen Einsatz von „KI“: Ich empfehle insbesondere Gareth Watkins’ Essay „KI: Die neue Ästhetik des Faschismus“. Darin zeigt Watkins, dass die Struktur der Ergebnisse generativer Bildgeneratoren Eigenschaften aufweist, die gut mit der Politik und Argumentation der Rechten übereinstimmen.
„KI“ wird durch das Sammeln von Daten aus dem Internet und anderen verfügbaren Quellen erstellt, und die meisten dieser Daten sind stark rassistisch geprägt und basieren auf einem kolonialen, sexistischen und heteronormativen Welt- und Geschichtsverständnis. Es gibt praktisch keine Polizeidaten, die nicht rassistisch sind. Wenn man einen Bildgenerator auf den verfügbaren Bildern basiert, ist die Repräsentation von LGBTQIA+-Personen oder von Menschen, die nicht den gesellschaftlichen Akzeptanzerwartungen entsprechen, bestenfalls dürftig.
Und all diese Daten schließen per Definition Folgendes aus: „KI“ basiert nicht auf dem gesamten Wissen der Menschheit, sondern auf einer überwiegend westlichen Weltsicht und deren Relevanzkriterien. Kulturen, die nicht in dieses Schema passen, deren Geschichte und Wissen womöglich sogar mündlich überliefert werden, sind nicht repräsentiert. Selbst wenn diese Gruppen nicht aktiv ausgeschlossen werden (was häufig der Fall ist), gibt es große Bevölkerungsgruppen, die in den Daten einfach nicht erfasst werden und kein Mitspracherecht bei ihrer Darstellung haben. Oder wenn sie repräsentiert werden, dann nur als Problemfälle: Man denke beispielsweise an Obdachlose.
Die Rechte liebt diese Muster, weil sie ihre Vorurteile bestätigen: Fragt man einen Bildgenerator nach einem Bild von zwei küssenden Menschen, erhält man meist ein heterosexuelles Paar, oft weiß. Denn so sehen die Trainingsdaten aus. Das macht „KI“ perfekt, um die Form einer idealisierten, fiktiven „Vergangenheit“ zu erschaffen, auf die Faschisten so gerne anspielen („Make America great again“), eine Vergangenheit, die nie existiert hat, aber gerettet oder wiederhergestellt werden muss (darauf kommen wir später zurück).
Aber es gibt noch einen weiteren Aspekt der „KI“-Nutzung, der die Freude der Rechten an ihr befeuert: Sie schadet den Menschen, die sie schädigen wollen. „KI“ wird derzeit hauptsächlich zur Mediengenerierung eingesetzt (z. B. Bilder, Illustrationen, Musik oder Texte). Traditionell sind Menschen in diesen kreativen Branchen jedoch eher links orientiert und offener für Inklusion. Faschisten können schlichtweg keine gute und interessante Kunst schaffen. Die Nutzung von „KI“, um diesen Gruppen ihre Arbeit, ihre Existenzgrundlage und ihren kreativen Ausdruck zu rauben, ist genau der Grund, warum die Bildgenerierung mit „KI“ für Rechte so befriedigend ist: Es ist eine vulgäre Machtdemonstration.
Und genau das führt uns direkt zur Betrachtung der strukturellen Eigenschaften von „KI“. Denn obwohl viele Anwendungsfälle eher mit Rechten in Verbindung gebracht werden, verbergen sich in „KI“ noch tiefer liegende faschistische Tendenzen.
Moderne KI-Systeme mit relevanten Fähigkeiten existieren aufgrund von Gewalt, sie basieren auf Gewalt.
Gewalt ist mehr als nur Schlagen. Menschen ihrer Selbstbestimmung zu berauben, ist Gewalt; Menschen Leid auszusetzen, ist Gewalt. Gewalt hat viele Formen. Und KI benötigt die Akzeptanz unzähliger Formen von Gewalt (ich kann hier nicht alle aufzählen, dies ist nur eine Auswahl).
Um KI-Systeme zu trainieren, braucht man Daten. Unmengen davon. Und noch mehr. Diese Daten sind auf legalem Wege schwer zu beschaffen, insbesondere da ein großer Teil der Bevölkerung nicht möchte, dass ihre kreativen Werke oder ihre persönlichen Daten in diese Maschinen eingespeist werden. Die erste Form der Gewalt, auf der KI beruht, ist die Gewalt der Datenerfassung: KI basiert darauf, alles zu sammeln und zu horten, was sie finden kann – auch gegen den ausdrücklichen Willen und ohne Zustimmung der Betroffenen. Ich betreibe iocaine auf meinem Server, und es ist erschreckend zu sehen, wie viele KI-Scraper meine angegebenen Präferenzen ignorieren und einfach versuchen, alles, was ich je geschrieben habe, zum Trainieren ihrer Systeme zu verwenden. Und ich bin natürlich nicht der Einzige. „KI“-Labore laden ständig unlizenzierte Werke wie Bücher herunter und digitalisieren alles, was sie finden können, um ihren Datenhunger zu stillen. Sie wissen, dass es illegal und unethisch ist, aber das spielt keine Rolle. „KI“-Systeme existieren aufgrund des Glaubens: „Was man herunterladen kann, kann man auch benutzen.“ Es ist der Glaube, dass Recht durch Macht entsteht.
Die zweite Form der Gewalt findet bei der Datenkennzeichnung und -bereinigung statt. Arbeiter, hauptsächlich im globalen Süden, müssen ihre Tage damit verbringen, sich die schlimmsten Inhalte anzusehen, die man sich vorstellen kann, um Folter oder Darstellungen sexualisierter Gewalt gegen Menschen aus den Trainingsdaten fernzuhalten. Dies ist nicht nur wirtschaftliche Ausbeutung (sie werden für diese psychisch extrem belastende Arbeit sehr schlecht bezahlt), sondern auch eine Form der Gewalt gegen ihre Psyche und ihre psychische Gesundheit. Weil wir zu faul sind, nach Stockfotos zu suchen, kann eine Mutter in Kenia wegen Albträumen nicht mehr schlafen.
Die dritte Gewalt, die wir bereits erwähnt haben: Es ist die kolonialistische, westliche Sichtweise, alles, was der Westen für digitalisierungswürdig hält oder was dieser Logik entspricht, zum „gesamten Wissen der Welt“ zu erklären. Dies ist nicht nur mangelnde Repräsentation, sondern eine gewaltsame Ausgrenzung großer Teile der Weltbevölkerung. Wer in westlich-kapitalistischen Weltsichten nicht nützlich ist, dessen Geschichte und Erfahrungen gehören nicht zum „gesamten Wissen der Welt“. Man wird zu einem Menschen zweiter Klasse erklärt.
Die vierte Gewalt ist die Gewalt gegen marginalisierte Gruppen mithilfe von KI-Werkzeugen, die wir einfach hinnehmen sollen. Dies beginnt mit der Trump-Regierung, die rassistische Propaganda mithilfe von KI verbreitet, endet aber nicht dort. Das Ausmaß an Missbrauch und sexueller Gewalt, dem insbesondere Frauen ständig ausgesetzt sind, ist erschreckend. Apps wie „Nudify“ oder „Grok“ (etwa: „Zieh sie in einen Bikini“) sind nur die offensichtlichsten Beispiele dafür. Es ist nicht so, dass die meisten KI-Labore diese Art der Nutzung explizit unterstützen, aber sie schränken sie auch nicht ein: Es heißt einfach „die Bösen“ oder „die Nutzung verstößt gegen unsere Nutzungsbedingungen“. Das ist jedoch nur eine juristische Ausrede, um die Verantwortung für die Ermöglichung solchen Missbrauchs abzulehnen.
Dan McQuillan, der vermutlich als Erster in seinem Buch „Resisting AI“ den Zusammenhang zwischen Faschismus und KI herstellte, zeigte auch, wie KI als Organisationsprinzip zu dem führt, was er „Nekropolitik“ nennt.
Der Einsatz von KI im Krisenmanagement führt zu Ausnahmezuständen – Formen des Ausschlusses, die Menschen absolut verletzlich machen. Die zunehmende Verbreitung algorithmischer Ausnahmezustände in Justizvollzugs-, Sozial- und Gesundheitssystemen macht die Nekropolitik der KI sichtbar; also ihre Rolle bei der Entscheidung, wer leben und wer sterben darf.
- Dan McQuillan
Nekropolitik ist gewissermaßen die letzte Form der Gewalt, die der Einsatz von „KI“ in der Welt ausübt: die Entscheidung darüber, wer leben darf. Nicht nur im Sinne von Palantir – „Wir töten unsere Feinde“ –, sondern auch als Methode, um „unwürdigen“ Menschen den Zugang zu Gesundheitsversorgung und anderen Unterstützungssystemen zu verweigern.
Der Einsatz von „KI“ erfordert die Normalisierung dieser Formen von Gewalt. Man muss sie akzeptieren, um mit sich selbst im Reinen zu sein, wenn man diese Werkzeuge in seine Arbeitsabläufe integriert.
Und hier liegt die Verbindung zum Faschismus. Denn eines der Kernmuster des Faschismus ist die massive Normalisierung von Gewalt. Die Etablierung von Gewalt und Dominanz als Organisationsprinzip der Gesellschaft. Meist gegen den „Feind“ (Hallo Palantir), aber auch als Mittel zur Etablierung und Aufrechterhaltung sozialer und politischer Hierarchien.
„AI“ teilt diese strukturelle Normalisierung von Gewalt als Prinzip mit dem Faschismus.
Ich bin ein großer Anhänger von Stafford Beers Prinzip, dass „der Zweck eines Systems in seiner Funktion liegt“. Bei der Bewertung von Systemen muss man sich die tatsächlichen Auswirkungen auf die Welt ansehen und nicht das Handbuch oder die Werbeversprechen. Daraus lässt sich der kurzfristige Zweck von „KI“ recht einfach ableiten: die Zerstörung der Arbeitskraft.
Diese Zerstörung erfolgt auf mehreren Ebenen, indem die Grundlage angegriffen wird, die diese Organisationsformen überhaupt erst ermöglicht.
Die erste Ebene ist sehr individualistisch: Indem auf „KI“ hingewiesen wird, die einen Arbeiter ersetzen kann, wird dieser unter Druck gesetzt, härter zu arbeiten und keine Gehaltserhöhungen oder andere Verbesserungen seiner Arbeitsbedingungen zu fordern. Obwohl „KI“ Ihre Arbeit nicht erledigen kann, ist die bloße Bedrohung für Arbeitgeber nützlich, um Ihre individuelle Macht und Ihr Wertgefühl als Arbeitnehmer zu untergraben.
Die zweite Ebene greift die Idee von Solidarität und Verbundenheit an: Denn „KI“ wird Sie nicht ersetzen (nochmal: „KI“ kann die absolute Mehrheit der Arbeitnehmer nicht ersetzen!), „aber jemand, der KI einsetzt, wird es tun“. Dadurch entsteht eine Art Kampfarena, in der wir alle um Krümel und Jobs kämpfen müssen. Diese Sichtweise impliziert, dass man sich nicht gewerkschaftlich organisieren und mit seinen Kollegen vernetzen sollte, sondern sie als Feinde betrachten soll – als diejenigen, die einem den Job und die Existenzgrundlage wegnehmen. Wir kennen diese Dynamik; genau so stellt die Rechte Migration als „Angriff“ dar. Sie normalisiert außerdem erneut Gewalt und verwandelt das gesamte Dasein in einen endlosen Kampf gegeneinander (es sei denn, man gehört natürlich zu den wenigen Machthabern).
Die dritte Ebene ist etwas perfider. Denn sie verleitet uns dazu, soziale Bindungen selbst aufzulösen. Ein Beispiel: Wenn ich eine „KI“ nutze, um eine Illustration zu erstellen, anstatt einen Designer zu beauftragen, sage ich damit, dass meine Fähigkeiten und meine Arbeit zwar Wert haben, die des Designers aber nicht. Dadurch untergrabe ich implizit meine Fähigkeit, Solidarität mit Designern zu knüpfen, deren Arbeit und Lebensgrundlage ich stillschweigend für irrelevant erklärt habe. Ich stelle mich über meine Kollegen, die mit denselben Problemen zu kämpfen haben wie ich, die meine Genossen sind. Aber damit ist jetzt Schluss.
Und auch hier teilt „KI“ eine Kernidee des Faschismus: Beide basieren auf der Zerstörung von Solidarität und Arbeitskraft, um die totalitäre Kontrolle über die Machtzentren und -quellen zu festigen. (Dies ist auch eine recht direkte Verbindung zu Ali Alkhatibs Definition von „KI“.)
Der Diskurs um Desinformation und Falschinformationen ist seit der Popularisierung durch OpenAIs ChatGPT ein zentrales Thema der aktuellen KI-Systeme. KI-Systeme ermöglichen es, auf einfache Weise manipulierte Medien aller Art zu erstellen – von der Modifizierung bestehender Medien bis hin zur vollständigen Generierung neuer Inhalte aus dem Nichts.
Dies führt zu einem Vertrauensverlust untereinander („Das glaube ich nicht, das ist KI“), aber auch in die (Infrastrukturen), die wir zur zuverlässigen Produktion, Überprüfung und Verbreitung vertrauenswürdiger Wahrheiten aufgebaut haben: Journalismus, Universitäten und andere Forschungseinrichtungen sowie unser eigenes Urteilsvermögen.
KI wird als ultimativer Anrufbeantworter (oder, wie Karen Hao sie nennt: „Alles-Maschinen“) dargestellt und trennt uns dadurch von jeder verlässlichen Verbindung zur Realität: Während Journalisten und Wissenschaftler versuchen, starke Verbindungen zu überprüfbaren Phänomenen der realen Welt und dem Wissen darüber herzustellen, erschafft KI etwas aus dem Nichts und kappt so jede Verbindung, die eine Faktenprüfung und -validierung ermöglichen könnte.
Dies verstärkt unsere Abhängigkeit von diesen Systemen, da sie nur funktionieren, wenn wir uns ihnen voll und ganz verschreiben: Stochastische Token-Generatoren erlauben es nicht, Argumentations- oder Schlussfolgerungsprozesse nachzuvollziehen, zu analysieren oder zu erklären, um Schwächen oder Widersprüche aufzuzeigen: Die Antwort erscheint aus dem Nichts, und man kann ihr glauben, wenn man will. Wir ersetzen Vertrauen durch Glauben.
Und wer kontrolliert diese magische Glaubensmaschine? Die New York Times zeigte 2025, wie aggressiv Elon Musk die Ergebnisse von Grok auf Grundlage seiner faschistischen, nationalsozialistischen Überzeugungen umgestaltet. (Elon Musk zeigte den Hitlergruß im Kontext von Trumps Amtseinführung. Ich halte es für absolut gerechtfertigt, ihn einen Nazi zu nennen.)
„KI“ wird in den wissenschaftlichen Prozess (sowohl für die Begutachtung als auch für das Verfassen wissenschaftlicher Bücher und Artikel) sowie in die Bildung hineingezwängt. Und das, obwohl zahlreiche Studien belegen, dass der Einsatz von „KI“ unsere kognitiven Fähigkeiten beeinträchtigt, insbesondere kritisches Denken und Problemlösung. Und das ist kein versteckter Hinweis. Vor einigen Wochen präsentierte Sam Altman seine Zukunftsvision, in der „Intelligenz“ von OpenAI gemietet wird: Intelligenz und die Fähigkeit zu logischem Denken werden einem aktiv genommen, nicht nur um Profit zu machen, sondern um die Kritik an Machtstrukturen zu unterdrücken. Dies ist die Definition epistemischer Ungerechtigkeit.
In dieser Lesart ist „KI“ eine Maschine zur Erzeugung epistemischer Ungerechtigkeit und zur Ersetzung der Wahrheit durch die Vorstellungen einer Tech-Elite, um die Bevölkerung zu kontrollieren. Es handelt sich um ein faschistisches Projekt, das sich unmissverständlich mit dem totalitären Macht- und Kontrollwillen des Faschismus deckt, der Vernunft und Debatte durch den Glauben an Macht und Führer ersetzt.
„KI“ ist die Zukunft. Nein, vielleicht sollte ich die ZUKUNFT schreiben. Die EINZIGE ZUKUNFT.
Unsere Beteiligung an der Einführung dieser stochastischen Systeme in unsere zentralen politischen, sozialen und kognitiven Infrastrukturen beschränkt sich darauf, ein wenig über das Wie der „KI“, über die „Ethik“ und vielleicht über „Best Practices“ zu diskutieren. Es geht darum, Narrative zu schaffen, um die Einführung zu legitimieren und die Erzählung von der Unvermeidbarkeit der „KI“ abzufedern.
Aber wir haben kein Mitspracherecht. „Nein“ ist keine Option. Wir können nicht sagen, dass diese Systeme nicht tatsächlich genügend sozialen oder gar wirtschaftlichen Nutzen bringen, um ihren Energie- und Wasserverbrauch, die Menge an Elektroschrott, für die sie verantwortlich sind, oder die Schäden, die sie den Datenkennzeichnern, dem Arbeitsmarkt oder unserer gemeinsamen Kommunikationslandschaft zufügen, zu rechtfertigen. Diese Systeme werden uns mit jeder kleinen App auf unserem Smartphone und jeder Website aufgezwungen, die von uns verlangt, unsere kostbare Zeit auf diesem Planeten mit Chatbots zu verschwenden. Diejenigen an der Macht, die Reichen – meist Männer – treffen die Entscheidungen. Ungeachtet dessen, was man will. Und das ist nicht die einzige negative Auswirkung auf die Demokratie. Der andere Angriff ist weitaus heftiger.
„Künstliche Intelligenz“ (KI) wird zunehmend in Regierungsverfahren eingeführt: KI soll die Verwaltung effizienter machen und die Bürokratie abbauen. Doch Bürokratie ist nicht nur lästig, sondern eines der zentralen Instrumente demokratischer Gesellschaften, um den Kern der Demokratie zu verwirklichen: Transparenz im Umgang mit Macht, um diese Macht kontrollieren zu können. Demokratie bedeutet nicht nur Wählen, sondern auch sicherzustellen, dass alle Macht – insbesondere die des Staates – gesetzeskonform und gerecht ausgeübt wird. Stochastische KI-Systeme brechen dieses Versprechen. Die KI sagt einfach, dass man nicht die benötigte Unterstützung erhält. Warum, ist unklar; vielleicht ein Fehler, ein zutiefst rassistischer Trainingsdatensatz oder etwas anderes. Niemand weiß es. Nun liegt es an Ihnen, zu beweisen, dass Sie im Recht sind, es liegt an Ihnen, für Ihr Recht zu kämpfen, denn die Prozesse, die Ihre Rechte schützen sollten, werden ausgehöhlt, um sie zu beschleunigen: Wir zwingen marginalisierte, entrechtete Menschen, gegen eine Blackbox anzukämpfen, die mit Daten trainiert wurde, die ihre Entrechtung bereits widerspiegeln. Wir sollen in einer Welt leben, in der der Computer einfach „Nein“ sagen darf? Ein Computer, der von einigen wenigen mächtigen Männern gebaut, konfiguriert und betrieben wird.
Dies ist mehr als das Machtungleichgewicht, das der Kapitalismus üblicherweise erzeugt. Es geht um die Zerstörung zentraler demokratischer Infrastrukturen, die es der Öffentlichkeit ermöglichen, die Macht zu kontrollieren.
„KI“ als Bulldozer gegen Bürokratie ist eine Abrissbirne für demokratische Prinzipien. Ein zutiefst faschistisches Unterfangen.
„KI“ wird nicht wie eine „normale Technologie“ präsentiert oder diskutiert. „KI“ muss keine klaren Vorteile und greifbaren Ergebnisse liefern (zahlreiche Studien zeigen beispielsweise, dass die versprochenen Effizienzgewinne von „KI“ nicht real sind, aber das spielt keine Rolle). Denn „KI“ ist die Zukunft. „KI“ soll all unsere Probleme lösen. Die Klimakrise? Wir müssen nicht aufhören, SUVs zu fahren: „KI“ wird das schon regeln.
Nicht nur Risikokapitalgeber wie Marc Andreessen präsentieren „KI“ als den zentralen Baustein unserer gemeinsamen Zukunft. Selbst liberale Denker sprechen davon, dass „KI“ irgendwie „Überfluss“ schaffen würde, oder von einer anderen Erzählung, die in keiner Weise mit der Realität, in der wir leben, zu tun hat. „KI“ basiert auf Hoffnungen und Träumen, und wenn sie nicht funktioniert, liegt es nur daran, dass wir nicht genug dafür tun oder nicht fest genug daran glauben.
„KI“ ist eine religiöse Erzählung. Eine Geschichte über eine Art technologisch erzeugtes Paradies, das „wir“ (um Marc Andreessen zu zitieren) vor den Technikfeinden, den Kommunisten und all jenen schützen müssen, die Technologie regulieren wollen.
In dieser Erzählung knüpft „KI“ nahtlos an die faschistische Rhetorik der „glorreichen Vergangenheit“ an, die wiederhergestellt werden muss. Während im traditionellen Faschismus eine erfundene Vergangenheit, die durch Demokratie, Menschenrechte, Marxismus usw. zerstört wurde, wiederhergestellt werden muss, dient in dieser Lesart die religiöse Erzählung der „Singularität“ oder „AGI“ genau demselben Zweck: Sie erschafft eine Erzählung von Ruhm und Erlösung, deren (Wieder-)Erschaffung das ultimative, alles bestimmende Ziel ist.
Oder wie der Nazi Elon Musk es formuliert:
Man könnte die Menschheit gewissermaßen als biologischen Bootloader für digitale Superintelligenz betrachten.
- Elon Musk
Es ist nicht nur das pseudoreligiöse Geschwätz, sondern auch die Missachtung der Würde des menschlichen Lebens. So denken Faschisten: Sie degradieren Menschen zu Mitteln, zu Objekten, die einem Zweck dienen oder zerstört werden müssen.
Diese Denkweise schließt jeden Einzelnen von uns von der Teilnahme am kollektiven gesellschaftlichen Prozess des Nachdenkens über unsere Bedürfnisse und Wünsche aus, darüber, wie wir uns die Zukunft vorstellen. Wir sind nicht länger Teil dieser Diskussion.
Die Singularität ist „MAGA“ für Nerds. Eine faschistische Erzählung, die dazu dient, das Recht und die Fähigkeit jedes Einzelnen zu untergraben, sich Zukunftsvisionen vorzustellen.
„KI“, wie wir den Begriff heute verwenden, basiert auf faschistischen Ideen. Sie unterstützt faschistisches Denken strukturell.
Das bedeutet nicht, dass jeder Nutzer von KI-Produkten automatisch ein Faschist ist. Manche KI-Nutzer sehen sich vielleicht sogar als Antifaschisten. Doch durch die Nutzung dieser Systeme integrieren Sie eine inhärent faschistische Logik in Ihr Denken, in Ihre mentale Infrastruktur. Diese Systeme zwingen Sie dazu, die faschistischen Tendenzen in KI-Systemen zumindest als „normal“ oder „akzeptabel“ zu akzeptieren.
Sie mögen denken, dass Ihre individuelle Nutzung die KI „reinigt“. Dass Sie durch das Erstellen einer Illustration die Logik und Gewalt des Rechts des Stärkeren nicht akzeptieren, das Leid im globalen Süden nicht hinnehmen, den Vertrauensverlust in unserer Gesellschaft nicht hinnehmen. Dass Sie die Welt nicht in Menschen einteilen, deren Rechte, Forderungen und Bedürfnisse erfüllt werden sollten, und solche, deren Rechte, Forderungen und Bedürfnisse irrelevant sind.
Doch Sie bewegen Ihr Denken in diese Richtung und schaffen Legitimationsstrukturen für unmenschliches Denken.
Und das lässt mich fragen, warum irgendjemand diese Technologien und Werkzeuge retten wollen sollte. Schließlich versuchen wir doch nur, Systeme aufrechtzuerhalten, die unsere Menschlichkeit, unsere Verbindung zueinander und die von uns aufgebauten Demokratien zerstören wollen.
In unseren aktuellen Technologiediskussionen dominiert „KI“ absolut. Sie verdrängt jegliches andere Thema. Deshalb habe ich diesen Text über „KI“ geschrieben. Aber lasst euch nicht täuschen: Unsere Welt ist voller faschistischer Technologien. Die Blockchain-Szene lebt im Grunde in einem faschistischen Sumpf aus unmenschlichen und antidemokratischen Ideen. Viele Überwachungstechnologien sind nicht besser als „KI“. Wir haben hier ein grundsätzliches Problem.
Denn nicht alle Technologien, die uns umgeben und unser Leben strukturieren, sind faschistisch, keine ist explizit antifaschistisch. Keine lehnt diese Ideen ab, noch sind sie darauf ausgelegt, diese Ideen und Ideologien abzulehnen.
Antifaschismus ist keine radikale Haltung, nicht jeder Antifaschist muss ein Anarchist sein, der den ganzen Tag Schwarz trägt. Du glaubst an Demokratie? Dann bist du Antifaschist. Du glaubst an Menschenrechte? Willkommen im Kampf, Genosse.
Manche sehen in „Open Source“ unsere Rettung. Ich selbst schätze Open Source sehr und halte die Menge und Qualität der verfügbaren Open-Source-Infrastruktur für ein modernes Weltwunder, beeindruckender als die Pyramiden. Doch genau diese Gruppe will sich nicht politisch positionieren. Die gängigen Open-Source-Lizenzen basieren allesamt auf libertärem Gedankengut: Sie wollen den Einzelnen stärken, der sich in seiner Meinungsäußerung nicht einschränken lassen will – nicht etwa politische Werte zum Ausdruck bringen. Open-Source-Lizenzen verbieten nicht die Verwendung der eigenen Arbeit für Waffen. Sie erlauben auch nicht, die Nutzung auf gesellschaftlich nützliche Zwecke zu beschränken. Open Source ist beeindruckend, versucht aber, unpolitisch zu sein und hilft uns daher nicht im Kampf gegen den Faschismus. Es will neutral bleiben. Doch inmitten eines Waldbrandes gibt es keine Neutralität.
Wir müssen den Faschismus ablehnen. Wir müssen faschistisches Gedankengut aus unseren Herzen und Köpfen verbannen. Das ist unser Weg zu einer friedlichen, humanen Welt. Unser Weg zur Utopie. Oder besser: zu mehreren Utopien.
Und um das zu erreichen, müssen wir die Technologien reformieren, die immer größere Teile unseres Lebens bestimmen. Wir müssen antifaschistische Technologien und soziale Strukturen entwickeln, die auf deren Entwicklung basieren.
Denn wenn wir das nicht tun, werden wir die Konsequenzen tragen. Und die Geschichte hat gezeigt, wie diese aussehen, wenn wir Faschisten an die Macht kommen lassen.
Ich möchte diesen Beitrag mit einem Zitat aus Brian Merchants fantastischem Buch „Blood in the Machine“ abschließen.
Manche Maschinen müssen kaputt gemacht werden, damit sie aufhören, Monster zu produzieren.
- Brian Merchant
Das Monster in diesem Fall ist der Faschismus. Zusammenfassend bleibt also nur noch eines zu sagen:
"
---
Über den Autor des Orginaltextes:
Jürgen Geuter ( im Internet: tante ) studierte Informatik und Philosophie und arbeitet als Research Director an der Erforschung, Implementierung und Erprobung neuer Technologien. Als freier Berater, Autor, Soziotechnologe und Keynote Speaker beschäftigt er sich mit Themen an den Schnittstellen von Technologie, Gesellschaft und Politik. Er ist Gründungsmitglied des transdisziplinären Otherwise Network (ownw.de), welches Expert*innen unterschiedlicher Fachbereiche zur Begleitung des digitalen Wandels vernetzt. Er schreibt mehr oder weniger regelmäßig für diverse deutsche Publikationen (u.a. SPIEGEL, Zeit, Süddeutsche, Heise) und berät NGOs, Parteien sowie den Bundestag.
Englischer Originaltext: AI as a Fascist Artifact
( lizensiert unter der Creative Commons Attribution-ShareAlike 4.0 International License )
Kommentare
Kommentar veröffentlichen