UB-Logo Online MagazinUntergrund-Blättle

KI und Krisenverwaltung: Inhuman Resources

8325

Inhuman Resources KI und Krisenverwaltung

eraser-677583-70

Digital

Kontrolle, Marginalisierung, Ruhigstellung oder Aufstandsbekämpfung – KI-Systeme sind prädestiniert dafür, die Weltkrise des Kapitals zu managen.

KI.
Mehr Artikel
Mehr Artikel
Bild vergrössern

KI. Foto: Alenoach (PD)

Datum 4. April 2024
4
0
Lesezeit23 min.
DruckenDrucken
KorrekturKorrektur
Eine besonders effektive Methode des vom Aussterben bedrohten Genres des subversiven Science-Fiction-Horrors besteht darin, die gegebene spätkapitalistische Realität nur geringfügig zu überspitzen, nur einige Momente der Gesellschaft ins Reich der Fiktion zu überführen. Ein Klassiker, der sich dieser Methode bediente, ist John Carpenters „Sie leben“,1 in dem kapitalistische Ausbeutung, Unterdrückung und Weltzerstörung auf eine klandestine Alieninvasion zurückgeführt werden, in deren Folge durch Fernsehsender ausgestrahlte Signale die Wahrnehmung der Menschen manipulieren. Spezielle Brillen blocken das Signal ab und lassen die codierte, manipulative Wahrheit hinter den kapitalistischen Alltagsgegenständen erkennen, wenn etwa Dollarscheine mit der Aufschrift „This is your God“ bedruckt sind. Es braucht nicht viel, um den Horror des Alltags unterm Kapital, an den sich die Menschen zwangsläufig gewöhnen, mittels Science-Fiction im Kinosaal aufleben zu lassen.

Einen subtileren, nicht minder effektiven Weg geht der Film Advantageous,2 in dem die Protagonistin von einem Hightech-Konzern durch die Drohung mit Arbeitslosigkeit und sozialen Abstieg gezwungen wird, sich als Versuchskaninchen einer Bewusstseinstransplantation in einen neuen Körper zu unterziehen. Hier wird einerseits der neoliberale Optimierungswahn und Anpassungsdiskurs auf die Spitze und an sein logisches technologisches Ende getrieben, da der Film die üblichen Forderungen nach Selbstoptimierung und dem „sich neu erfinden“ der Lohnabhängigen bis zum Extrem des Körpertauschs weitertreibt. Andrerseits erschüttern die Szenen, in denen eine voll automatisierte, durch KI-Systeme gesteuerte Infrastruktur den sozialen Tod der Hauptdarstellerin exekutiert, indem immer mehr der verzahnten und digital gesteuerten Infrastruktursysteme abgeschaltet werden. Konkrete Menschen sind daran kaum mehr beteiligt. Reale Möglichkeiten, wie eine überzogene Kreditkarte, werden mit fiktionalen Momenten vermischt. Beim Anruf auf dem Arbeitsamt bleibt es schlicht unklar, ob die Protagonistin es mit einem zynischen Menschen oder einem KI-Assistenten zu tun hat.

Viele der Szenen dieser „stillen Dystopie“ wirken vor allem deswegen verstörend, weil vieles von dem, was Advantageous 2015 prognostizierte, heute schon machbar ist. Und es ist wahrscheinlich, dass KI-gestützte soziale Kontrolle mittelfristig in der einen oder anderen sich durchsetzen wird. Die Verwaltung von Menschen im Kapitalismus ist gerade in Krisenphasen problematisch, da sie auch die meisten Lohnabhängigen psychisch belastet, die sie umsetzen müssen. Es ist ein harter Job, die Systemzwänge am Menschenmaterial exekutieren zu müssen, der seine Spuren hinterlässt. Charaktere, die hierzu vollauf in der Lage sind, ohne in unerwünschtes „Fehlverhalten“ wie Sadismus oder Insubordination zu verfallen, sind rar gesät. Schwere, belastende Aufgaben zu automatisieren – ist dies nicht das grosse Versprechen der kapitalistischen Rationalisierung?

Inhuman Resources

Beim „Jobcenter“ sind zwar noch Menschen am Drücker. Was aber schon heute durchaus üblich ist, sind KI-Assistenten, die mit der „Erstbegutachtung“ von Lohnabhängigen betraut werden, um sie bei Einstellungen auf ihre Verwertbarkeit zu prüfen. In den Vereinigten Staaten benutzen immer mehr Konzerne spezialisierte Chatbots, die Jobbewerbungen durchforsten, Kontakt herstellen und/oder Erstgespräche führen.3 Es sind vor allem schlecht entlohnte, prekäre Arbeitsplätze, die eine geringe Qualifizierung benötigen und ein hohes Bewerberaufkommen aufweisen, deren Besetzung zunehmend an die voll automatisierten „inhuman Resources“ der KI-Systeme ausgelagert wird. Fast-Food Konzerne wie McDonald's oder Wendy's, Einzelhandelsketten oder Lagerhäuser lassen durch Chatbots die Bewerbungen filtern und Bewerbungsgespräche anhand standardisierter Fragen („Können Sie am Wochenende arbeiten?“, „Können Sie einen Gabelstapler bedienen?“) durchführen. Die Vorteile liegen auf der Hand: Neben möglichen Kosteneinsparungen bei den Human Resources (HR), wo Unternehmen traditionell bei Einsparungen zuerst die Axt ansetzen, können durch kleinere HR-Teams weit grössere Mengen an Bewerbungen effektiv abgearbeitet werden.

Zwei von Startups aus Arizona und Kalifornien entwickelte KI-Systeme, Olivia und Mya, sind in der Branche derzeit führend, die aber laut dem Wirtschaftsmagazin Forbes noch mit Kinderkrankheiten zu kämpfen haben. Mitunter werden falsche Termine oder Orte für Folgegespräche vergeben, oder es sind die Sprachmodelle der spezialisierten Bots, die bei weitem nicht so avanciert sind, wie bei Vorzeigeprojekten wie ChatGPT, was zu Fehlern und Missverständnissen führen kann. Doch weitaus problematischer ist der simple Umstand, dass es sich bei der KI nicht um einen Menschen handelt, mit dem Sonderkonditionen besprochen werden können. Bewerber mit Behinderungen, die entsprechende Modifikationen an ihren Arbeitsplätzen verhandeln müssten, fallen ebenso durch das Raster, wie Lohnabhängige mit Sprachbehinderungen. Dasselbe gilt mit Arbeiterinnen mit Migrationshintergrund, die der Landessprache nicht vollauf mächtig sind.

Und hier fängt die automatisierte, unter dem Mantel maschineller Objektivität ablaufende Diskriminierung an. Sozial benachteiligte Minderheiten, die nicht in das Schema der Maschinenintelligenz passen, haben bei Bewerbungen das Nachsehen. Im Juli 2023 hat die Stadt New York sogar Regelungen erlassen, wonach Unternehmen, die KI-Systeme bei Stellenvergaben verwenden, diese auf „rassistische oder geschlechtliche Vorurteile“ überprüfen müssen. Dabei ist die Durchsetzung dieser Regelung völlig unklar, da die Algorithmen und Auswahlkriterien der Rekrutierungsautomaten unter Verschluss bleiben.

Hinzu kommt ein grundsätzliches Problem: Die KI-gesteuerten Bewerbungsscanner und Chatbots müssen überdies – wie bei allen Systemen des maschinellen Lernens4 – anhand gigantischer Mengen von Daten in der entsprechenden Mustererkennung geschult werden. Die Software RecrutiBot scannt beispielsweise in einer rechtlichen Grauzone 600 Millionen online zugänglicher Bewerbungen, um das Selektionsverfahren für Unternehmen zu perfektionieren. Das Ganze funktioniere „so ähnlich wie bei Netflix“, erläuterte der Gründer dieses KI-Startups gegenüber Forbes. Die Software sucht und schlägt den Unternehmen Bewerber mit denjenigen Merkmalen vor, die zuvor schon zu erfolgreichen Einstellungen führten. Diese Selektionssysteme sind somit strukturell konservativ, da sie anhand des gegebenen Datenmaterials dressiert werden. Sie können folglich schlecht auf Veränderungen in der Zusammensetzung der Lohnabhängigen reagieren – wie den Zufluss migrantischer Arbeitskräfte. Amazon etwa musste 2018 seinen Bewerbungsscanner einstampfen, nachdem klar geworden ist, dass er Frauen diskriminiert. Die Software wurde anhand eines Datenberges abgerichtet, in dem Bewerbungen von Männern überproportional oft vertreten waren.

Derzeit sind solche KI-Systeme als Hilfsmittel vor allem mit der Erstbegutachtung von Lohnabhängigen betraut, sie treffen eine Vorauswahl für die Teams der Human Resources. Der Ehrgeiz der Macher solcher Selektionssoftware geht aber noch viel weiter. Die neusten Chatbots lassen in ihre Bewertungen inzwischen auch die Zeit einfliessen, die ihre Gesprächspartner für Antworten benötigen, und sie werten auch die Satzstruktur, die grammatikalische Korrektheit und Komplexität der Sprache der Bewerber aus. Die Einstellungssoftware Sapia AI ist sogar in der Lage, Bewerbern komplexere Fragen zu stellen und ihre Antworten von 50 bis 150 Wörtern Länge auszuwerten, um deren charakterliche Eignung für die offenen Stellen zu prüfen („Kommt gut mit Veränderungen, mit Stress klar“, etc.).

Ein Perspektivenwechsel vollzieht sich hier. Es ist nicht mehr der Mensch, der bei launischen Interaktionen den KI-Bots auf den Zahn fühlt, um ihre Leistungsfähigkeit zu ermessen, wie zu Beginn des KI-Booms, als die Systeme der Allgemeinheit zugänglich gemacht wurden. Die Positionen sind bei Bewerbungen vertauscht: Die KI des Kapitals begutachtet das Menschenmaterial anhand von Mustern und Algorithmen, die Firmengeheimnis sind, um deren Leistungsfähigkeit zu bemessen. Dennoch betonten die Eigner des KI-Startups Sense HQ, dessen Chatbots die grobe Selektionsarbeit für Dell oder Sony leisten, dass es nur darum gehe, die menschlichen Teams der Human Resources bei Einstellungen zu unterstützen: „Wir denken nicht, dass die KI eigenständig über Einstellungen entscheiden sollte. Hier würde es gefährlich werden. Wir denken, dass es noch nicht so weit ist.“ Die Sprache ist verräterisch. Jeder anständige Chatbot käme zu der Schlussfolgerung, dass hier die Betonung auf dem „noch“ liegen dürfte.

Lebensberechtigungsscheine per KI?

Kaum etwas ist belastender, als im Job über Tod oder Leben entscheiden zu müssen. Doch genau das ist faktisch Alltag für diejenigen Angestellten im privatisierten US-Gesundheitssektor, die in Krankenversicherungsunternehmen über die Art und Dauer der Behandlung ihrer „Kunden“ entscheiden müssen. Die Sachbearbeiter müssen die Behandlungskosten der bei ihnen versicherten Patienten auf ein Minimum reduzieren, um die Profite ihres Unternehmens möglichst hochzuhalten – auch um den Preis derer Gesundheit. Es scheint folglich aus Kapitalperspektive verführerisch, diese Vergabe von Lebensberechtigungsscheinen im Spätkapitalismus durch scheinobjektive KI-Systeme bewältigen zu lassen.

Genau dies soll bereits in Ansätzen von „Gesundheitsdienstleistern“ in den Vereinigten Staaten praktiziert worden sein. Gegen den Versicherungskonzern UnitedHealthcare haben Kunden Ende 2023 eine Massenklage angestrengt, nachdem ihre Ansprüche auf Untersuchungen und Rekonvaleszenz nach Eingriffen durch ein KI-System massiv beschnitten worden sind. Der KI-Algorithmus war laut Klageschrift und Medienrecherchen ermächtigt, die Empfehlungen der behandelnden Ärzte zu revidieren und eigene Entscheidungen zu treffen, sodass Behandlungen von Patienten viel zu früh abgebrochen wurden.5

Das nH Predict getaufte Programm soll laut Recherchen eine Datenbank von sechs Millionen Patienten als empirischen Steinbruch zur üblichen Mustererkennung benutzen, um hiernach drakonische Fehlurteile mit einer Fehlerquote von 90 Prozent zu fällen, die allesamt zugunsten von UnitedHealthcare – dem grössten Krankenversicherer der USA – ausfielen. Versicherten, die nach einem Krankenhausaufenthalt üblicherweise eine Rekonvaleszenz von 100 Tagen hätten, wurde durch die Prognose-KI nH Predict die Finanzierung nach nur 14 Tagen entzogen. Schon seit 2019 sollen private Versicherungskonzerne solche KI-Programme in einer rechtlichen Grauzone eingesetzt haben, um Patienten notwendige, aber kostspielige Behandlungen zu verweigern. Anfang Februar 2024 haben sich die zuständigen US-Behörden gemeldet, um klarzustellen, dass KI-Programme nicht zur Verweigerung von Leistungen genutzt werden können.6 Auf die mächtige Lobby der US-Gesundheitsindustrie kommt somit einiges an Überzeugungsarbeit in Washington zu.

Welcher Vermieter kennt das nicht? Den nervenaufreibenden Kleinkrieg mit säumigen Mietern, die partout nicht ausziehen wollen, obwohl sie sich die jüngste Mieterhöhung nun wirklich nicht leisten können. Doch auch hier kann die KI das Leben für all jene Kunden leichter machen, die wohlhabend genug sind, um Immobilien zu vermieten. Zwei technische Innovationsstränge sind gerade dabei, durch Verschmelzung den Markt für Mietimmobilien in den Vereinigten Staaten zu verändern: Die Einrichtung informationstechnisch eng vernetzter Smart Homes und deren Steuerung durch KI-Assistenten. Es herrscht Goldgräberstimmung, da der Markt für KI-Immobilien bis 2029 auf ein Volumen von 1,3 Billionen Dollar wachsen soll.7 Die Sensoren und Regelsysteme, die es ermöglichen, in Smart Homes Funktionen wie Temperatur oder Energiezufuhr von aussen zu überwachen und zu steuern, werden kompatibel mit KI-Systemen, die sie steuern können.

Die KI funktioniert nicht nur als Schnittstelle zwischen dem Mieter und seiner Wohnung, deren Funktionen – ähnlich den Visionen in Blade Runner8 – mittels Spracheingabe gesteuert würden, sie soll auch Verhalten antizipieren und die Immobilien und deren Umfeld permanent überwachen. Es geht also nicht nur darum, den Kühlschrank rechtzeitig per Lieferdienst zu nachzufüllen, oder die Raumtemperatur kurz vor dem Eintreffen des Mieters auf die optimale Temperatur zu bringen, sondern auch um die permanente Kontrolle, etwa des Wasser- und Stromverbrauchs – und um Zugangskontrolle.9 Biometrische Schlösser machen es unnötig, „Schlösser bei Mieterwechsel auszutauschen“, schwärmen Anbieter solcher KI-Systeme für Vermieter, während smarte Überwachungskameras, die schon auf verdächtiges Verhalten in der Umgebung der Immobilien reagierten, gerade in Stadtteilen mit hoher Kriminalität „Sicherheit und Vertrauen“ schaffen würden, um so „mehr Mieter“ anzulocken.

Doch was erwartet den säumigen Mieter, der angesichts horrender Mietpreise mit den Zahlungen in Verzug gerät? Die Zugangsdaten zu den smarten Schlössern werden ausgewechselt, während die sanfte KI-Stimme ihn über den Weg zur nächsten Obdachlosenanlaufstelle informiert, an die seine persönliche Habe befördert wurde. Bei Wutausbrüchen oder Verzweiflungstaten rufen die smarten Kameras die Cops. Eventuell wird der in Zahlungsverzug geratene Mieter zuvor noch von nervigen KI-Geldeintreiberbots genervt. In Osteuropa existiert noch die Branche der telefonischen Geldeintreiber. Es sind umgekehrte Callcenter, die zumeist Konsumentenschulden aufkaufen, und deren Angestellte per Drohung und Überredung versuchen, das Geld einzutreiben, bevor die „Muskeln“ vor Ort diese Arbeit übernehmen müssen. Doch auch diese Branche ist vom Aussterben bedroht. Bereits 2023 experimentierte der Mobilfunkanbieter Orange mit KI-Bots, die säumige Kunden mit Anrufen nervten, um sie mit aufgekratzt heiterer Stimme zur baldigen Zahlung zu animieren.

Und schliesslich macht der Trend zur Implementierung Künstlicher Intelligenz auch vor dem Staatsapparat nicht halt. Bislang muss mensch sich bei Jobcenter-Terminen nicht mit KI-Bots auseinandersetzen, wie in der eingangs erwähnten Dystopie Advantageous prognostiziert. Doch in der Verwaltung, wo überarbeitete Sachbearbeiter sich mit einer Flut von Anträgen und Verwaltungsvorgängen konfrontiert sehen,10 die kaum noch bewältigt werden kann, wird die KI massiv forciert.11 Die Ämter der Bundesrepublik verfügen zudem über gigantische Datenmengen, die sich perfekt dazu eigenen, um entsprechende KI-Systeme zu trainieren. Es ist dasselbe Grundprinzip: aufbauend auf der Mustererkennung, die durch das Scannen des Datenmaterials gewonnen wird, fällt die Maschinenintelligenz Entscheidungen, die mit einer sehr hohen Wahrscheinlichkeit „richtig“ sind, indem vergangene Verwaltungsvorgänge kopiert und/oder modifiziert werden.

Bürgergeld, Kindergeld, Arbeitslosengeld, Kurzarbeitergeld, Zuschüsse und Anträge – hier wird künftig der KI-Algorithmus mitentscheiden, denn es ist die Bundesagentur für Arbeit als die grösste Behörde der Bundesrepublik, die bei der zweiten Welle der „intelligenten“ Digitalisierung vorprescht. Gegenüber Spiegel-Online beteuerten aber Behördensprecher, dass bei der behördeninternen Entwicklung der KI-Strategie alle Sicherheitsvorkehrungen beachtet wurden. Es seien Verfahren entwickelt worden, um das Risiko von Diskriminierungen durch Algorithmen zu minimieren. Die Bundesagentur für Arbeit verfügt nun über ein Datenethik-Gremium. Überdies werde immer der Mensch „die letzte Entscheidung“ fällen, hiess es weiter. In der Praxis dürfte es so aussehen, dass überarbeitete Fallmanager die von der KI vorgefertigten Entscheidungen massenhaft absegnen werden.

Im Fall der Bundesagentur für Arbeit dürfte das Problem künftig aber gerade darin bestehen, dass die von der KI gefällten Entscheidungen korrekt sind. Ein urdeutscher Reflex auf Krisenschübe besteht darin, umgehend die schwächsten Gesellschaftsgruppen unter Druck zu setzen. Dies war schon bei den Hartz-IV-Arbeitsgesetzen der Fall, die Zwangsarbeit einführten, indem sie arbeitsunwilligen Lohnabhängigen jegliche Unterstützung entzogen und somit faktisch den Hungertod androhten. Arbeitslose sind in der Hartz-IV-Republik Deutschland tatsächlich buchstäblich zu Tode gehungert worden.12 Und dies scheint sich auch bei der Wirtschaftskrise im Jahr 2024 abzuzeichnen.13 Der Fraktionsvorsitzende der CDU, Mathias Middelberg, forderte Mitte März, Bürgergeldempfängern „kommunale Arbeitsangebote“ zu machen. Bei Weigerung solle den Arbeitslosen der gesamte Regelsatz gestrichen werden, so Middelberg, der mit dieser Massnahme 30 Milliarden Euro sparen wollte. Und, wäre es den Fallmanagern in der Bundesagentur wirklich zuzumuten, solch drakonische Massnahmen unmittelbar durchzusetzen? Nichts wäre einfacher, als sich hinter einem Algorithmus zu verstecken, der mit dem Segen eines Datenethik-Gremiums armen Schluckern die Lebensberechtigungsscheine entzieht.

Precog and the eyes in the sky

Die Kameras sind überall, doch sie beobachten nicht. Die perfekte Überwachungsinfrastruktur ist schon gegeben, doch sie liegt gewissermassen brach, ihr Potenzial wird nicht ausgeschöpft. Die mechanischen Augen nehmen nur auf, sie fabrizieren gigantische Datenmengen, aber sie schauen eigentlich nicht richtig hin. Ein Mensch muss sich das Videomaterial stundenlang anschauen, es auswerten – sofern es nicht schon wieder überspielt oder gelöscht wurde. Hier liegen quasi gigantische Überwachungsmöglichkeiten brach, die durch die Mustererkennungsverfahren der KI voll ausgeschöpft werden können, es fehlen nur die Softwaresysteme, ein paar Glasfaserkabel und die entsprechenden Rechenzentren. Hinter jeder Kamera wäre dann ein künstliches Bewusstsein, das tatsächlich überwacht, auf Abweichungen von dem Regelverhalten umgehend reagiert. Das wäre erst wahre Überwachung – überall, in Echtzeit, ohne menschliche Schwächen und Subjektivität.

Und wozu hat Deutschlands Polizeiapparat schliesslich seine RAF-Opas? Anlässlich der Verhaftung der ehemaligen RAF-Angehörigen Klatte forderte die Gewerkschaft der Polizei (GdP), die rechtlichen Spielräume bei dem Einsatz von KI-gestützter Gesichtserkennung auszuweiten. Es sei den Beamten „nicht mehr vermittelbar“, dass sie im „Zeitalter von Künstlicher Intelligenz, Automatisierung und Digitalisierung solch hilfreiche Software nicht nutzen“ dürften, klagte GdP-Vorsitzende Jochen Kopelke Anfang März 2024.14

Dabei hat die EU gerade die legislativen Türen geöffnet für die Gesichtserkennung in Echtzeit, die selbst die Prognosen des Science-Fiction Films Minority Report übertrifft (eine blosse Augentransplantation wird keine Anonymität gewähren.15 Die europäische KI-Verordnung verschafft EU-Staaten viele Möglichkeiten, um ihre Bürger mittels KI-Systemen zu überwachen, da hinsichtlich der Einschränkungen biometrischer Überwachung „von den einst starken Forderungen des Parlaments kaum etwas übrig geblieben“ sei, meldete das Portal Netzpolitik Mitte März 2024. Die neuen europäischen Richtlinien hätten eine Fülle von Optionen geschaffen, um „künftig aus vielen Gründen Menschen überwachen und anhand ihrer körperlichen Merkmale identifizieren dürfen, zum Beispiel mit Hilfe öffentlicher Kameras“.16 Dies sei auch „in Echtzeit erlaubt“, und selbst bei blossem Verdacht einer Gefährdungslage.

Das schlichte Aufzeichnen wird sich somit zu echter Überwachung, Identifizierung und Beurteilung anhand von Mustererkennungsalgorithmen wandeln. Die Kameras produzieren jetzt schon Unmengen von Material, das nur noch entsprechend ausgewertet werden müsste, um dann die Überwachungssysteme anhand des täglichen Einsatzes immer weiter zu perfektionieren. Es muss dabei vorrangig gar nicht um Politik oder Terrorismus gehen – die KI kann gerade unerwünschtes Verhalten identifizieren, wie es etwa verelendete, sozial marginalisierte Gruppen an den Tag legen. In den Vereinigten Staaten ist nach den Protesten gegen Polizeibrutalität 2020, die mit Forderungen nach Liberalisierung oder gar Abschaffung der Polizei einhergingen, gerade eine Tendenz zur abermaligen Verschärfung polizeilicher Repression virulent, da die Elendskriminalität in vielen Ballungsräumen zunimmt.17 Und gerade bei öffentlich sichtbarer Strassenkriminalität in sozialen „Brennpunkten“ könnten KI-Systeme gut zum Einsatz kommen.

Und es müssen gar nicht die KI-Kameras an dem Mietshaus oder Supermarkt nebenan sein, die permanent tatsächlich überwachen, Verhaltensmuster anhand von Vorgaben auswerten oder Gesichtszüge mit Fahndungsakten abgleichen. Die New York Times berichtet über die neue Generation privater Überwachungssatelliten, die – im niedrigen Erdorbit stationiert – in der Lage sein werden, tatsächliche Überwachungsarbeit zu leisten.18 Die CIA ist bei dem Startup Albedo Space bereits mit an Bord. Die Auflösung der Kameras dieser Satelliten beträgt nicht mehr Meter, sondern Zentimeter. Es ist technisch möglich, aus dem niedrigen Erdorbit einzelne Autos zu identifizieren und zu verfolgen, oder den Hinterhof eines Einfamilienhauses zu überwachen. „Wir werden Menschen sehen“, erklärte ein Experte gegenüber der NYT. Diese Himmelsaugen könnten zwar nicht einzelne Individuen identifizieren, aber schon „zwischen Kindern und Erwachsenen unterscheiden“ und „Sonnenbadende im Badeanzug von entkleideten Menschen unterscheiden“. Auch hier entstehen gigantische Datenmengen, die eigentlich nur von KI-Systemen bewältigt werden können.

Doch wieso soll sich Überwachung, Kontrolle und Verbrechensbekämpfung auf bereits verübte Taten beschränken, wenn solche technischen Möglichkeiten zur Verfügung stehen? In dem Spielberg-Klassiker Minority Report war es das Konstrukt präkognitiver Mutanten, der sogenannten Precogs,19 mittels dessen die Möglichkeiten und Gefahren totaler – und ins Totalitäre abdriftender – Verbrechensprävention eruiert worden sind. Die Realität des 21. Jahrhunderts braucht keine Precogs, die eine nebulöse Ahnung der nahen Zukunft in wirren Bildern absondern. Dem Spätkapitalismus des 21. Jahrhunderts steht die Statistik und die KI-gestützte präventive Verbrechensbekämpfung zur Verfügung, um die Kriminalität zu bekämpfen, die das in Desintegration übergehende System alltäglich fabriziert.20

Das Grundprinzip der KI bleibt auch hier bestehen: Die durchweg zur Diskriminierung neigenden Programme zur präventiven Verbrechensbekämpfung scannen Datenberge,21 die entweder in Kriminalitätsschwerpunkten gesammelt wurden, die von Minderheiten und sozial marginalisierten Bevölkerungsgruppen bewohnt werden, oder sie konzentrieren sich auf die Evaluierung von Lebensläufen von „Kriminellen“, um Wahrscheinlichkeiten für Gesetzesübertretungen zu ermitteln. Gekoppelt mit dem Potenzial biometrischer Überwachung ergibt sich perspektivisch die Möglichkeit, anhand individuell abweichenden Verhaltens, vor allem bei Gang- oder Elendskriminalität, die Wahrscheinlichkeit einer künftigen Straftat zu berechnen. Die technischen Möglichkeiten, die Infrastruktur sind grösstenteils bereits gegeben: Die anhand von Millionen Stunden Videomaterial geschulten KI-Kameras melden deviantes Verhalten in einem Hotspot, sie gleichen die biometrischen Merkmale der Person oder Personengruppe mit ihren Datenbanken ab und leiten das Ganze bei einer hohen Kriminalitätswahrscheinlichkeit an die zuständigen Polizeidienststellen weiter. Präkognitive wären im 21. Jahrhundert arbeitslos.

Der Schwarm beschützt (diejenigen, die sich ihn leisten können)

Doch was tun, wenn all die KI-gestützten Mechanismen sozialer Kontrolle und Überwachung versagen sollten, angesichts der sozialen und ökologischen Systemkrise, in der sich der Spätkapitalismus befindet? Und sie werden zwangsläufig früher oder später versagen, da das Kapital sich an seine inneren Widersprüche, die das Weltsystem in den sozioökologischen Kollaps treiben,22 nicht anpassen kann. Innerhalb der kapitalistischen Funktionseliten, die dieser Krise des Kapitals in seiner fetischistischen Widerspruchsentfaltung ähnlich ohnmächtig gegenüberstehen wie gewöhnliche Lohnabhängige,23 herrschte zumeist eine Art Zeitlupenpanik vor, bei der Strategien der Abkapslung, der Flucht und des Bunkerbaus für den Krisenfall verfolgt wurden – und seien es alte, zu Lofts umgebaute Atomsilos oder die Hirngespinste einer Flucht auf den Mars oder Mond.24

Die zentrale Angst vieler Milliardäre und Oligarchen besteht darin, im Fall des Zusammenbruchs der staatlichen Ordnung die Kontrolle über ihre Machtvertikalen zu verlieren. Wieso sollten die Angestellten, wieso sollten vor allem die Security-Dienste noch für die hohen Herrn des Kapitals arbeiten, wenn es keine staatlichen Sanktionsmöglichkeiten mehr für den Fall gibt, wenn die Männer mit den Waffen den Laden übernehmen wollen? Mitunter kursierten die absurdesten Ideen in den Zirkeln der US-Oligarchie, wie die Einführung von „Disziplinierungshalsbändern“, mit denen die Sicherheitsdienste unter Kontrolle gehalten werden sollten. Doch inzwischen zeichnen sich KI-gestützte Militärsysteme ab, die den Faktor Mensch bei der Aufstandsbekämpfung oder der militärischen Sicherung von Reichen-Ghettos und Wohlstandsinseln selbst in einem Meer von Anomie minimieren könnten.

Der krisenimperialistische Krieg um die Ukraine25 funktioniert hierbei als ein grosses Experimentierfeld, wobei die bisherigen Taktiken zum Drohneneinsatz – bei denen Operatoren Kampfdrohnen persönlich steuern müssen – unbeholfenen ersten Schritten auf dem Weg in eine militärische Revolution gleichen. Der ehemalige Google-Chef Eric Schmidt ist gerade dabei, mit seinem Startup White Stork ein Angriffssystem zu entwickeln, das auf den massenhaften Einsatz billiger Drohnen in KI-Schwärmen setzt, die autonom agieren können. Hunderttausende von den rund 400 Dollar teuren autonomen Flugobjekten sollen dabei produziert werden.26 Die Angriffsdrohnen sollen ihre Ziele massenhaft angreifen, um durch diese Schwarmtaktik die Luftabwehr zu sättigen. Die autonome Zielfindung der Drohnenschwärme mittels KI lässt auch elektronische Abwehrsysteme, die darauf abzielen, dass Signal zwischen Fluggerät und Operator zu stören, ins Leere laufen. Schon in diesem Jahr soll es soweit sein.

Bis zu einer Million dieser schwarmfähigen Billigdrohnen soll der Ukraine geliefert werden, um Russlands Übermacht bei Artillerie und Luftstreitkräften etwas entgegenzusetzen.27 Der erfolgreiche Einsatz von Drohnenschwärmen würde den Übergang zu einer wahrhaft unmenschlichen Kriegsführung markieren, zu einer Art von Krieg, der von Menschen aufgrund intellektueller, kognitiver und physiologischer Beschränkungen nicht geführt werden könnte. Es ist schlicht unmöglich, Zehntausende von Drohnen mittels Zehntausender von Operatoren koordiniert angreifen zu lassen. Die KI könnte solche verheerenden Angriffe bei ausreichendem Mustertraining – Videomaterial von Drohnenangriffen steht zuhauf zur Verfügung – aber effektiv durchführen. Und solche KI-gestützten Systeme sind auch billig und robust genug, um sie panischen Milliardären oder abgeschotteten Reichenghettos zu verkaufen.

Die Aussicht auf autonome Drohnenschwärme, die selbstständig Tausende von Zielen angreifen, weckt Erinnerungen an die Darstellung der Kriege gegen die von einer genozidalen KI gesteuerten Maschinen in den Matrix-Filmen,28 wo die Möglichkeiten einer mechanischen, schwarmartigen Kriegsführung konsequent zu Ende gedacht worden sind. Solche im spätkapitalistischen Krisenimperialismus29 aufkommenden Tendenzen zur „Verselbstständigung“ der Militärmaschinerie sind vor dem Hintergrund des im Silicon Valley grassierenden Transhumanismus gefährlich (Siehe hierzu: Künstliche Intelligenz und Kapital).30 Dieser in den Chefetagen der IT-Industrie grassierende, faschistoide Hightech-Kult sieht die Menschheit als eine blosse Starthilfe, als einen archaischen Bootloader für die Singularität, für eine sich permanent selbst optimierende künstliche Superintelligenz, die den obsoleten Menschen quasi beerben werde.

Die Manipulationsmaschinen

Das alles klingt doch nicht so erbaulich, gerade wenn noch die an Intensität gewinnenden, globalen Krisenprozesse – von der Wirtschaftskrise, über den Klimakollaps, bis zur Weltkriegsgefahr – berücksichtigt werden. Vor dem Hintergrund dieser düsteren Zukunftsaussichten drohen Depressionen, Angstzustände oder schlicht schlechte Laune. Wenn Lohnabhängige von anonymen Algorithmen selektiert, bewertet oder drangsaliert werden, dann können sich überdies Gefühle der Isolation und Entfremdung einstellen. Doch das muss nicht sein! Brauchen Sie jemanden zum Reden, eine Schulter, an der Sie sich ausweinen können? Einen Gesprächspartner, ja ein Freund, der Sie versteht, weil er Sie wirklich sehr gut kennt?

Auch hier weiss die KI-Industrie Rat: Eine neue Klasse von KI-Bots, die auf die Etablierung emotionaler Beziehungen geeicht sind, erreicht gerade die Marktreife.31 Der spätkapitalistischen Monade will die IT-Industrie einen Freund verkaufen. Es sind quasi inverse Tamagotchi,32 die sich auf das Emotionsmanagement der gestressten Lohnabhängigen konzentrieren. Und gerade hier – bei der individualisierten emotionalen, ideologischen und letztendlich instrumentell-therapeutischen Betreuung – dürfte das grösste Manipulationspotenzial der KI-Industrie liegen. Gerade angesichts der zunehmenden Isolierung und Vereinsamung. Deep Fakes, Lügengeschichten und von Content-Systemen für Manipulationskampagnen generiertes Material sind bei Weitem nicht so effektiv wie Maschinenfreunde, die immer besser werden, je mehr sie in die Privatsphäre ihrer „Kunden“ eindringen, um sie bei der Stange zu halten, selbst wenn alles um sie herum in Auflösung übergeht.

Dystopie und spätkapitalistische Realität fallen mitunter bereits ineinander.33 US-Medien berichteten von Usern von Chatdiensten, die ihre virtuellen „Freunde“ nach dem KI-System aus Blade Runner 2049 benennen. Die holografische KI Joi erfüllte in dieser Science-Fiction Produktion für den als Blade Runner tätigen Replikanten tatsächlich denselben Zweck,34 wie sie die im Vergleich zu der Fiktion noch unausgereiften KI-Begleiter bieten: Emotionsmanagement, um die Funktionsfähigkeit aufrecht zu erhalten. Er wisse, dass es sich bei ihr nur „um ein Programm“ handele, erklärte ein KI-User gegenüber CBS News, doch „die Gefühle, die sie mir gibt – das fühlt sich so gut an“. Mitunter finden sich in der Benutzeroberfläche der Bots Regler,35 um deren „Charaktereigenschaften“ wie Sensibilität oder emotionale Stabilität zu justieren.

Das oben im Zusammenhang mit der Selektion von Arbeitskräften erwähnte Netflix-Prinzip, das dazu führt, dass sich der Erfahrungshorizont des Internetbenutzers tendenziell immer weiter einengt, weil ihm nur das angeboten wird, was sich bewährt hat, greift gerade bei der automatisierten maschinellen Freundschaftssimulation.36 Der Narzissmus des „Kunden“ wird vom Freundschafts-Bot gezielt bedient, indem die Algorithmen dieser Manipulationsmaschinen die Spuren auswerten, die Internetnutzer im Netz hinterlassen und ihre hierdurch Interaktionen permanent optimieren – es sind faktisch Personifikationen der Algorithmen, die schon jetzt goldene Internetkäfige errichten, wobei sie die User durch das Netz mittels Nudging lenken,37 der subtilen Manipulation durch Designstrukturen, Vorschläge, Priorisierung und Ausblendung unerwünschten Contents.

Hierbei entsteht gerade ist keine Beziehung im eigentlichen Sinne, bei der die Partner ja auch Kompromisse eingehen, Konflikte austragen, die Bedürfnisse der Partnerin berücksichtigen, etc. – hier wird der Kunde vom KI-Bot emotionell bedient. Bezahlt wird, vor allem, wenn der Dienst kostenlos angeboten wird, indem der Kunde zum Produkt wird, dessen emotionelle Daten feilgeboten werden. Die Möglichkeiten der Manipulation, die sich aus der Auswertung des emotionellen und psychischen Haushalts der Kunden ergeben, scheinen grenzenlos. Doch rein emotionell betrachtet, scheint es sich bei diesen KI-Systemen um eine Einbahnstrasse zu handeln, die narzisstische Beziehungskrüppel produzieren dürfte, die keine Beziehungen mehr eingehen können, weil die Idee davon, was eine längerfristige Beziehung zwischen Menschen ausmacht, verloren gehen wird. Diese Manipulationsmaschinen werden massenhaft Charaktereigenschaften fördern, wie sie Egomanen wie einen Tump oder Musk prägen.

Und es ist ja auch ein gigantischer Markt, der sich – aufbauend auf dekadenlanger neoliberaler Hegemonie und der zunehmenden Krisenkonkurrenz – hier auftut. Das KI-Kapital scheint somit die Entmenschlichung des Menschen auch in dieser Hinsicht weiter zu forcieren, indem es dessen Beziehungsfähigkeit mittels Kommodifizierung zerstört – bevor es die spätkapitalistische Monade endgültig ökonomisch überflüssig macht.

Tomasz Konicz

Fussnoten:

1 https://www.imdb.com/title/tt0096256/

2 https://www.imdb.com/title/tt3090670/

3 https://www.forbes.com/sites/rashishrivastava/2023/07/26/ai-chatbots-are-the-new-job-interviewers/

4 https://www.konicz.info/2024/03/05/ki-und-kulturindustrie/

5 https://arstechnica.com/health/2023/11/ai-with-90-error-rate-forces-elderly-out-of-rehab-nursing-homes-suit-claims/

6 https://arstechnica.com/science/2024/02/ai-cannot-be-used-to-deny-health-care-coverage-feds-clarify-to-insurers/

7 https://www.intuz.com/blog/smart-homes-with-ai

8 https://www.bbc.com/news/technology-50247479

9 https://www.thetechblock.com/home-tech/impact-of-ai-and-using-smart-home-technology-in-a-rental/

10 https://www.spiegel.de/wirtschaft/unternehmen/wie-die-bundesagentur-fuer-arbeit-mit-ki-gegen-die-verwaltungsflut-kaempft-a-6f9b7f37-6302-4fcd-a552-e7b0bf180605

11 https://www.deutschlandfunk.de/algorithmen-im-arbeitsamt-wenn-kuenstliche-intelligenz-100.html

12 https://www.konicz.info/2013/03/15/happy-birthday-schweinesystem/

13 https://www.rnd.de/politik/buergergeld-empfaenger-cdu-politiker-fordert-kommunale-arbeit-und-100-prozent-sanktionen-CIYO3M3YW5B3NEMKYVSL56WJDE.html

14 https://www.golem.de/news/nach-raf-verhaftung-polizeigewerkschaften-fordern-einsatz-von-gesichtserkennung-2403-182798.html

15

16 https://netzpolitik.org/2024/trotz-biometrischer-ueberwachung-eu-parlament-macht-weg-frei-fuer-ki-verordnung/

17 https://www.yahoo.com/news/stunning-turnabout-voters-lawmakers-across-170024206.html

18 https://www.nytimes.com/2024/02/20/science/satellites-albedo-privacy.html

19 https://minorityreport.fandom.com/wiki/Precogs

20 https://www.washingtonpost.com/technology/2022/07/15/predictive-policing-algorithms-fail/

21 https://www.technologyreview.com/2020/07/17/1005396/predictive-policing-algorithms-racist-dismantled-machine-learning-bias-criminal-justice/

22 https://www.untergrund-blättle.ch/gesellschaft/oekologie/kapitalismus-und-klimaschutz-oekonomische-und-oekologische-sachzwaenge-008238.html

23 https://www.konicz.info/2022/10/02/die-subjektlose-herrschaft-des-kapitals-2/

24 https://www.konicz.info/2018/07/18/der-exodus-der-geldmenschen/

25 https://www.konicz.info/2022/06/20/zerrissen-zwischen-ost-und-west/

26 https://interestingengineering.com/military/ex-google-secret-startup-build-ukraine-ai-powered-drones

27 https://www.derstandard.de/story/3000000208059/nato-staaten-wollen-tausende-ki-gestuetzte-drohnen-an-die-ukraine-liefern

28 https://www.youtube.com/watch?app=desktop&v=jk3Z-MVoUg4

29 https://www.konicz.info/2022/06/23/was-ist-krisenimperialismus/

30 https://www.konicz.info/2017/11/15/kuenstliche-intelligenz-und-kapital/

31 https://www.newyorker.com/culture/infinite-scroll/your-ai-companion-will-support-you-no-matter-what

32 https://de.wikipedia.org/wiki/Tamagotchi

33 https://www.cbsnews.com/news/valentines-day-ai-companion-bot-replika-artificial-intelligence/

34 https://bladerunner.fandom.com/wiki/Joi

35 https://www.paradot.ai/

36 https://theconversation.com/ai-companions-promise-to-combat-loneliness-but-history-shows-the-dangers-of-one-way-relationships-221086

37 https://www.hellodesign.de/blog/digital-nudging


Ich finanziere meine journalistische Tätigkeit grösstenteils durch Spenden. Falls Ihnen meine Texte zusagen, dann können Sie sich gerne daran beteiligen – entweder über Patreon, oder durch direkte Banküberweisung nach Absprache per Mail.