Viele von uns, vor allem diejenigen, die aus dem östlichen Teil Europas kommen, neigen dazu, die EU-Institutionen als etwas weit Entferntes und Unzugängliches zu betrachten: als eine Festung auf dem Berg. Insofern ist es dringend notwendig, die durch diesen Filter diskutierten Themen für breite Kreise der Gesellschaft relevant zu machen. Wie inklusiv sind die europäische KI-Strategien, und was lassen sie aus?
In diesem Beitrag werde ich einen kurzen Blick auf die KI-Strategien kleiner EU-Länder werfen, die in der Regel weder Zugang zu grossen Datenmengen haben noch auf grosse finanzielle Ressourcen zurückgreifen können, die aber trotzdem versuchen, ihre eigene Handlungsmacht in diesem Bereich zu etablieren. Ich werde mich mit den KI-Strategien von Litauen, Lettland und Estland beschäftigen, die sowohl in sozialistischen als auch in postsozialistischen Zeiten als fortschrittlich in der Entwicklung der digitalen Technologien galten und die sich in der Gegenwart entsprechend als Teil einer internationalen Tech-Avantgarde darstellen. Diese postsozialistischen Staaten zu betrachten, erlaubt es zu verstehen, wie sich kleine Länder die Entwicklung von KI im Hinblick auf den Umgang mit einer unsicheren Zukunft vorstellen. Es ermöglicht aber auch zu begreifen, was solche Vorstellungen, die von der Top-Down-Sicht der KI-Strategien geprägt sind, ausblenden.
Die EU als Regulierer der digitalen Disruption
In den letzten Jahren hat die EU begonnen, Vorschläge zur Regulierung des europäischen digitalen Markts in Bezug auf Daten, Plattformen und algorithmische Systeme zu entwickeln. Erst vor wenigen Wochen hat die EU einen Vorschlag für die KI-Regulierung veröffentlicht, der auf ein “Ökosystem des Vertrauens” abzielt, die Risiken und Potenziale von KI thematisiert und einen europäischen Rahmen für die Entwicklung und Nutzung von KI schaffen soll (Proposal for a Regulation, 2021).Dieser Vorschlag ist an diverse Verlautbarungen angelehnt. Erstens die EU-Erklärung zur Zusammenarbeit im Bereich KI (2018), zweitens die Ethikleitlinien für eine vertrauenswürdige KI (2019), drittens das Weissbuch zur KI (2020). Alle zielen darauf ab, die KI in der europäischen Wirtschaft zu fördern, Risiken abzuschätzen, die Bürger*innen darauf vorzubereiten und einen ethischen sowie rechtlichen Rahmen für diese Entwicklungen zu schaffen (National Strategies on Artificial Intelligence, 2020).
Der europäische Diskurs postuliert die Unvermeidbarkeit von KI-Technologien, die nicht nur entwickelt, aber auch reguliert und vertrauenswürdig sein müssen. (National Strategies on Artificial Intelligence, 2020: p. 5) Rund um diese Debatten um die Entwicklung und Regulierung digitaler Ökonomie und KI im Besonderen haben viele EU-Mitgliedsstaaten, einschliesslich Lettland, Estland und Litauen, ihre KI-Strategien veröffentlicht (National Strategies on Artificial Intelligence, 2020).
Die baltischen Staaten publizierten ihre KI-Strategien im Jahr 2019 und 2020. Die drei Strategien sind inhaltlich ähnlich, unterscheiden sich aber massgeblich in ihrer Darstellung. Alle drei Staaten zielen darauf ab, den Einsatz und die Akzeptanz von KI in der Gesellschaft zu erhöhen, rechtliche Rahmenbedingungen für die KI-Entwicklung zu schaffen sowie die für KI benötigten Forschungseinrichtungen, Daten, Fähigkeiten und Ausbildung ihrer BürgerInnen zu verbessern (National Strategies on Artificial Intelligence, 2020). So gesehen sind die Strategien nicht überraschend und scheinen der EU-Linie zu KI zu entsprechen.
Die KI-Strategies Estlands, Litauens und Lettlands
Von der formalen Seite her unterscheiden sich die Strategien jedoch. Die estnische KI-Strategie, veröffentlicht von der Regierung von Estland, wird in Form einer 10-seitigen Tabelle präsentiert, die konkrete Massnahmen, Projekte und Finanzierungsziele für 2019-2021 skizziert (z. B. Prinzipien zur verantwortungsvollen Nutzung von Daten, Erhöhung der Verfügbarkeit offener Daten, Aufnahme von KI-Technologien durch den privaten und öffentlichen Sektor, verstärkte Bildung und Forschung in Bezug auf KI). Das Dokument ist in englischer Sprache zugänglich.Zusätzlich zu der Strategie gibt es auch einen Bericht von über 40 Seiten, der die KI-Konzeptualisierung und -Technologien sowie die Situation in Estland eingehend untersucht und einen estnischen Begriff – “kratt” – für KI einführt, der “als Synonym für vollautomatische Informationssysteme (…) fungiert.”
Die litauische KI-Strategie trägt den Kopf eines angeblichen Humanoiden auf der Titelseite. Sie ist vom Ministerium für Wirtschaft und Innovation veröffentlicht worden, umfasst 20 Seiten, die auch in englischer Sprache zugänglich sind. Hier wird die Bedeutung von KI, der europäische und globale Kontext der Auswirkungen von KI-Technologien und die litauische Position mit dem Fokus auf externe und interne (wirtschaftliche) Beziehungen dargestellt. Ebenso geht es um die Integration von KI-Technologien in Wirtschaft, Erforschung von KI, um Mitarbeiter*innenqualifizierung und um verantwortungsvollen sowie ethischen Umgang mit Daten.
Die lettische KI-Strategie ist weniger transparent, zumindest nicht für Letten. Veröffentlicht als Microsoft Word Datei und nur in lettischer Sprache zugänglich, umfasst diese Strategie über 40 Seiten. Im Gegensatz zu zwei anderen Strategien beschreibt sie die KI-Technologie in dem sie die möglichen sozioökonomischen Veränderungen mit dem Fokus auf die sogenannte vierte industrielle Revolution, über internationale und lettische Erfahrungen in diesem Kontext, sowie die Themen Daten, Bildung, Kooperation u.a. diskutiert.
Ein unvermeidbarer und positiver Prozess?
Die drei Strategien der baltischen Staaten erkennen die Wichtigkeit der Innovationen, Regulierung der Wirtschaft und Forschung bei der Entwicklung von KI an. Doch interessanterweise scheint die lettische Strategie auf die komplexe Auseinandersetzung über KI-Technologien für die lettischsprachige Bevölkerung zugeschnitten zu sein, die litauische Strategie ist hingegen die hippe Variante und versucht Strahlkraft mit Begriffen wie “KI-Ökosystem” und “Ethik” zu entwickeln, bleibt aber sehr abstrakt, während die auf Englisch publizierte estnische Strategie die bodenständige und marketing-affine Variante ist.Während strategisches Denken im Zusammenhang mit solch komplexen Entwicklungen wie KI-Systemen begrüsst werden sollte, fällt auf, dass diese Strategien KI-Entwicklungen als unvermeidbaren und positiven Prozess beschreiben, der KI-Technologien in der Gesellschaft integrieren soll. Diese stellen KI-Entwicklungen in einem rationalen, vermeintlich objektiven Rahmen dar und lassen damit politische Widersprüche, ethische Fragen und Konflikte, die tatsächlich vor Ort existieren, aussen vor.
Beim Lesen der Strategien habe ich mich gefragt, wie KI gesellschaftlich vertrauenswürdig gemacht werden kann, wenn die Strategien zwar auf die Wichtigkeit von gesellschaftlicher Relevanz und Ethik im allgemeinen hinweisen, aber die Meinungen, Kritik und Probleme von Akteur*innen, die tagtäglich für eine verantwortungsvollere Einsetzung algorithmischer Systeme argumentieren, weder einbeziehen noch erwähnen.
Konfliktreiche Potenziale
In diesem Zusammenhang ist es interessant, dass die Strategien mögliche Risiken thematisieren. Die lettische Strategie weist auf das konfliktreiche Potenzial von KI-Systemen hin, obwohl die ausgewiesenen Problemfelder etwas überraschend sind. Hier werden ertrinkende Menschen, Zug- und Autounfälle, Landdüngung und Baugenehmigungsfragen als konfliktreiche Beispiele der KI-Anwendung erwähnt.Der estnische Bericht spricht von ethischen Fragen und erwähnt sogar kurz die Nichtdiskriminierung von Minderheiten. In Anbetracht der vielen aktuellen Debatten, die um diskriminierende Probleme wie automatisierte Triage oder Sexismus und Rassismus von KI-Systemen kreisen, ist es interessant, dass keines dieser Themen in diesen Strategien mehr Beachtung findet. Die problematische Intransparenz und das „Übervertrauen“ in solche Systeme wird zwar erwähnt, aber nur am Rande.
Wie sieht es mit dem Potenzial von KI-Systemen aus, sprachliche und ethnische Minderheiten in den baltischen Ländern zu diskriminieren oder prekäre, algorithmisch gesteuerte ArbeiterInnen bei Unfällen oder Krankheiten allein zu lassen? Was ist mit den Rechten auf Transparenz solcher Systeme für die Arbeiter*innen, die bereits von algorithmischen Systemen geführt werden? Darüber hinaus: wie steht es mit der Notwendigkeit aus, eine konstruktive und kritische Auseinandersetzung mit solchen Systemen in der Gesellschaft, anstatt nur Vertrauen und Auflistung der Risiken, zu fördern? In der litauischen Strategie lässt sich ein interessanter Satz dazu finden, der für die unvermeidliche Zukunftsvision solcher Systeme plädiert:
“Leadership should communicate the positives of AI and the potential for increase of productivity and time for tasks that require critical thinking, rather than the possibility of job loss.” (Lithuanian Artificial Intelligence Strategy, 2019: p. 15).
Kritische Perspektiven von NGOs und Arbeiter*innen?
Aber warum sollten Strategien kritische Mikrothemen enthalten? Ist das nicht das eigentliche Ziel der Strategien, abstrakt zu sein und weit in die Zukunft zu denken? Ich denke, es ist an die Zeit, politische Strategien zu vergesellschaften. Es wäre von Vorteil, wenn die digitalen Strategien bei der Einbindung lokaler Akteur*innen nebenWirtschaftsvertreter*innen auch kritische Perspektiven von NGOs und Arbeiter*innen berücksichtigen würden. Die Probleme letzterer ernst zu nehmen, die sehr oft im Kontext digitaler Industrien globale Probleme sind, würde bedeuteten Grundlagen für eine gerechtere und auf Gleichheit beruhende Gesellschaft zu schaffen. Im Zuge dessen hätten kritische KI-Strategien das Potenzial, von breiteren Teilen der Gesellschaft als relevant wahrgenommen zu werden und mehr von jenem Vertrauen in KI-Systeme zu generieren, das von der Politik so sehnlichst gewünscht wird.Wenn ich mir die litauische KI-Strategie anschaue, fällt auf, dass sie von 19 Personen geschrieben wurde, überwiegend aus den Bereichen Wirtschaft, Politik und Wissenschaft, ohne Beteiligung der zivilgesellschaftlichen Akteur*innen oder Arbeiter*innen. Ebenfalls auffällig ist, dass nur 3 von 19 (15%) Autor*innen weiblich sind. Im Falle des estnischen Berichts beträgt der Frauenanteil in der Expert*innenarbeitsgruppe 8 von 31 (25%) und in der Arbeitsgruppe zu Rechtsfragen hingegen einen Frauenanteil von circa 60% (23 von 37).
Ich habe die Liste der Personen, die die lettische Strategie geschrieben haben, nicht gefunden. Von welcher KI-Ethik sprechen wir, wenn die „Offline-Ethik“ in diesem Bereich fragwürdig ist? Ich weise auf diese Punkte nicht hin, um die Prozesse in den baltischen Staaten explizit zu kritisieren, und zudem noch in deutscher Sprache, als ob Deutschland nicht ähnliche Probleme hätte. Mir geht es darum, einen interessierten Blick auf die baltischen Staaten zu werfen und diese Strategien zunächst einmal aus kritischer Sicht ernst zu nehmen.
Arbeitskämpfe im KI-Kapitalismus
Werfen wir also einen letzten kurzen Blick auf die bestehenden Initiativen zum Umgang mit ethischen Fragen der algorithmischen Systeme in den baltischen Staaten am Beispiel Litauens, die zwar in der Strategie ausgelassen werden, aber in der Praxis existieren. Eine dieser potenziellen Zonen konstruktiver Konflikte sind die gewerkschaftlich organisierten Plattformarbeiter*innen (http://g1ps.lt/kurjeriai/) in Litauen. Sie versuchen, sich für bessere Arbeitsbedingungen zu organisieren, da ihre Arbeit, darunter die der Auslieferung von Lebensmitteln, durch „algorithmisches Management“ organisiert wird, das sich nur um Effizienz aber nicht um die Gesundheit und das Wohlergehen der Arbeiter*innen schert.Ich beobachte diese Organisation schon seit einiger Zeit. Ihr Engagement wird von Medien, Politik und Wirtschaft zunehmend ernst genommen. Beispielsweise hat eine der Plattformen vor kurzem damit begonnen, ihre “Partner”-Arbeiter*innen mit Unfallversicherungen zu versorgen. Das ist grossartig, aber es zeigt auch viele Probleme der prekären algorithmischen Arbeit, die algorithmischen Systemen innewohnt und über die man auch in den erwähnten Strategien sprechen müsste, um überhaupt gesellschaftliches Vertrauen und vor allem die Fähigkeit zur Kritik an KI-Systemen herausbilden zu können. Und so illustriert dieser Fall algorithmischer bottom-up Politik den Kontrast und eine besondere Art der blinden Fehlkommunikation zwischen der makro-strategischen Sicht auf eine unpolitische, konfliktfreie Entwicklung von KI als reibungslosen Fortschritt und den tatsächlich existierenden Alltagsproblemen bei der Arbeit mit algorithmischen Managementsystemen.