Literaturscreening & Analytik Bestseller-Algorithmen
Digital
Die Anwendung von Computer-Algorithmen erfasst immer neue Lebensbereiche. Mittlerweile sind davon auch Buchautoren und Buchautorinnen betroffen.
Mehr Artikel
12. Februar 2020
0
0
4 min.
Drucken
Korrektur
In ihrem Buch „Angriff der Algorithmen“ beschreibt die Mathematikerin Cathy O'Neil, auf welche Weise Programme wie „Lisa“ funktionieren und was für Folgen ihre breite Anwendung in der Gesellschaft hat. Algorithmen sind letztlich nichts anderes als in Computer-Code eingebettete menschliche Zwecke. Im Grunde sind sie nur dazu da, bestimmte Dinge zu differenzieren und Abläufe zu beschleunigen – das allerdings mit einer atemberaubenden Effizienz (O'Neil 2017, 160). Diese Effizienz wird mit Profit und Wachstum des jeweiligen Unternehmens belohnt, was die Konkurrenz dazu zwingt, ebenfalls solche Programme einzusetzen. Im Fall von „Lisa“ geht es darum, jene entscheidenden maschinell erfassbaren Informationsschnipsel zu finden, die mit dem Verkaufserfolg von Büchern korrelieren (ebd., 164). Weil sich die Vorlieben der Leserinnen und Leser ändern können, lernt das Programm ausserdem an aktuellen Veröffentlichungen und deren Verkaufszahlen weiter und passt sich dadurch immer wieder an den aktuellen Massengeschmack an (Mayer-Kuckuk 2019, 12).
Algorithmen sind intransparent. Aufgrund ihrer Komplexität könnten sie in ihrer Funktionsweise nur von einer relativ kleinen Gruppe von spezialisierten Programmierern und Programmiererinnen verstanden werden (O'Neil 2017, 39). In der Regel fallen sie ohnehin unter das Geschäftsgeheimnis von Firmen, so dass nur sehr wenige Menschen überhaupt Zugang zu ihnen haben (ebd., 44). Und sofern es sich um neuronale Netze – wie „Lisa“ eins ist – handelt, hört die menschliche Kontrolle völlig auf. Neuronale Netze bestehen aus mehr als Tausend Schichten simulierten „Nervengewebes“ und programmieren sich laufend selbst neu. „Neuronale Netze sind undurchschaubar wie Götter und ihre Funktionsweise ist nicht zu erkennen.“ (Ebd., 12). Welche Kriterien ein neuronale Netz entwickelt hat, behält es für sich. Autoren und Autorinnen, deren Manuskript abgelehnt wurde, erfahren daher nicht warum. Letztlich sind es mathematische Cut-Off-Werte, die alles abweisen, was jenseits von ihnen liegt (ebd., 182). Die dabei genutzten Daten basieren ihrem Wesen nach auf der Vergangenheit und damit auf der Annahme, dass die Muster der Vergangenheit sich in der Zukunft wiederholen werden (ebd., 57). Auf diese Weise wird die Vergangenheit in Code eingebettet, operationalisiert und als vermeintliches Zukunftswissen ausgegeben (ebd., 276). Faktisch wird lediglich reproduziert, was zuvor zum Erfolg geführt hat. Das verstärkt aktuelle Trends und laufende Entwicklungen. Für den Buchmarkt bedeutet das, dass es zu einer allgemeinen Angleichung der Inhalte und Stile kommen wird (Maxeiner 2019, 18).
Auch Autoren können Muster erkennen. Es wird ihnen künftig kaum etwas anderes übrig bleiben, als sich zunehmend darauf zu konzentrieren, den obskuren Kriterien der Algorithmen gerecht zu werden. Im Zusammenhang mit „Lisa“ ist immerhin bekannt, dass es stark auf die Benutzung aktiver Verben achtet (Mayer-Kuckuk 2019, 12). Ausserdem weiss man, dass Witze für Computerprogramme äusserst irritierend sind (O'Neil 2017, 178). Alles in allem werden Schriftstellerinnen künftig darauf gedrillt, einem vage durchschaubaren System von Kriterien gerecht zu werden. Im Zweifelsfall werden sie einfach die erfolgreichen Kollegen imitieren, um die Anforderungen des Selektions-Algorithmus zu erfüllen. So entstehen selbstbezügliche Schleifen, die sich selbst bestärken (ebd., 45). In der Folge wird es „immer mehr vom Immergleichen geben“ (Maxeiner 2019, 18), Neuartiges zu schreiben wird systematisch entmutigt. Eine frische neue Autorin, die mit einer gewissen Sorte von Witz oder Ironie das Zeug haben könnte, eine völlig neue Stilrichtung zu kreieren, wird dagegen von einer sturen Software davon abgehalten werden, überhaupt etwas zu veröffentlichen. Originelle Literatur wird man künftig in Nischen suchen müssen und hoffen, dass es diese in Zukunft überhaupt noch geben wird.
Daten, Computer, Software und Co. werden nicht mehr aus unserem Leben verschwinden (O'Neil 2017, 296). Die Programme, Algorithmen, neuronalen Netze, etc. entwickeln sich ständig weiter und breiten sich zunehmend aus, ständig auf der Suche nach neuen Anwendungsmöglichkeiten (ebd., 275). Fast immer geht es darum, Arbeitsabläufe zu optimieren, Verkaufszahlen zu verbessern, Profite zu steigern, kurz: den Geboten des allgemeinen Verwertungsgeschehens zu folgen. Vor allem weil es effizient und kostengünstig ist, werden Menschen also immer stärker dazu gezwungen, den Kriterien von Maschinen gerecht zu werden. So wird alles immer weiter einer allgemeinen Berechenbarkeit untergeordnet und der Raum für autonomes Denken zunehmend enger.