„Erlesenes“ ist ein zweiwöchentlicher Newsletter von reframe[Tech] - Algorithmen fürs Gemeinwohl und bietet eine kuratierte Auswahl an wissenschaftlichen Studien, journalistischen Artikeln und Debattenbeiträgen sowie Fundstücken mit Augenzwinkern aus sozialen Medien zum Themenkomplex Algorithmen und KI. Mit „Erlesenes“ wollen wir den Diskurs rund um algorithmische Entscheidungssysteme und ihre Chancen sowie Risiken für das Gemeinwohl einordnen, wir möchten den Blick über den Tellerrand wagen und Perspektiven fernab des dominierenden Diskurses aufgreifen. So wollen wir die Abonnent:innen in dem sich rasch verändernden Themenfeld up-to-date halten. Jede Ausgabe finden Sie auch auf unserem Blog. Hier geht's zum Blog!

 

 

Liebe Leser:innen, 

Kolonialismus reloaded? Diese Frage drängt sich immer wieder auf, wenn man sich neue – und doch altbekannte – Machtstrukturen im Tech-Sektor anschaut. Deswegen haben wir auch schon öfters im KI-Kontext hier im Newsletter darüber berichtet. Eine Investigativrecherche von AlgorithmWatch deckt nun ein System auf, in dem Big Tech von illegalen Netzwerken profitiert und Lohndumping begünstigt. Es ist ein weiteres Puzzleteil in der globalen Wertschöpfungskette, die KI-Systeme dank manueller Arbeit und ausbeuterischen Arbeitsbedingungen erst ermöglicht. Des Weiteren werden in dieser Erlesenes-Ausgabe folgende Fragen gestellt: Wenn KI-Agenten Fehler machen, wer bezahlt dann die Rechnung? Was bedeutet es, wenn KI-generierte Lügen überzeugender klingen als die Wahrheit? Und wie steht es um den Einsatz (generativer) KI-Systeme in der Verwaltung?

Außerdem: Ein neues KI-Modell namens „Aurora” zeigt, wie KI für präzisere Klimavorhersagen genutzt werden kann.

Viel Spaß beim Lesen wünschen  

Elena und Teresa 

Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: www.reframetech.de/newsletter/

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.

Kolonialismus reloaded

Gig Economy: Wie KI-Training einen globalen Schwarzmarkt für Clickwork-Jobs erschaffen hat, AlgorithmWatch, 22.5.2025
Hinter millionenschweren KI-Systemen verbirgt sich ein globaler Schwarzmarkt, der koloniale Strukturen ins digitale Zeitalter überträgt. Eine investigative Recherche von AlgorithmWatch deckt auf, wie Firmen, die Daten für KI-Systeme aufbereiten lassen, die Anwerbung von Arbeitskräften an kriminelle Akteur:innen auslagern und damit systematisches Lohndumping über Landesgrenzen hinweg unterstützen. Wie das funktioniert? In Social-Media-Gruppen werden Konten für Plattformen wie Outlier (ein Unternehmen, das zum 13,8-Milliarden-Dollar-Konzern Scale AI gehört und für Techunternehmen wie Meta, Google und SAP arbeitet) gehandelt. Menschen aus dem Globalen Süden kaufen diese Konten mit europäischen oder US-amerikanischen Identitäten, um höheren Honorare zu erhalten. Sie übernehmen manuelle Arbeiten für das Training von KI-Anwendungen wie Chatbots (z. B. das Kategorisieren von Bildern), während der ohnehin geringe Lohn zwischen ihnen und den ursprünglichen Kontoinhaber:innen aufgeteilt wird. Unternehmen wie Outlier behaupten zwar, über „vielschichtige” Sicherheitssysteme zu verfügen, doch die Realität sieht anders aus. Wenn Techkonzerne das KI-Training outsourcen, verlieren sie nicht nur die Kontrolle über ihre Lieferkette, sondern fördern auch ein System, in dem Menschen im Globalen Süden unter prekären Bedingungen für westliche Techkonzerne arbeiten.
Hier geht’s zum Artikel!

Wenn KI-Agenten Fehler machen: Wer zahlt die Rechnung?

Who’s to Blame When AI Agents Screw Up? WIRED, 22.5.2025
Sie bestellen Pizza über einen KI-Agenten und bekommen im besten Fall statt Zwiebelringen Zwiebeln dazu – oder im schlimmsten Fall etwas, wogegen Sie allergisch sind. Wer ist rechenschaftspflichtig? KI-Agenten sind Programme, die weitgehend selbstständig – also ohne menschliche Aufsicht – komplexe Aufgaben erledigen können. Der Softwareingenieur Jay Prakash Thakur experimentiert seit Jahren damit. Seine Prototypen zeigen das Potenzial dieser Technologie, aber auch ihre (rechtlichen) Risiken. Thakurs Restaurant-Simulation funktionierte beispielsweise neun von zehn Mal perfekt. Beim zehnten Mal wurden aus „Zwiebelringen” plötzlich „extra Zwiebeln” und komplexere Bestellungen gingen regelmäßig schief. In einem anderen Experiment verlinkte ein Shopping-Agent auf die falsche Website, sodass Kund:innen automatisch zu viel bezahlt hätten. Dieses Problem verschärft sich bei Multi-Agent-Systemen, bei denen verschiedene KI-Programme zusammenarbeiten. Die Versicherungsbranche reagiert bereits und bietet spezielle Policen für KI-Chatbot-Pannen an. Doch die rechtlichen Fragen bleiben komplex: Können Agenten im Namen von Nutzer:innen Datenschutzrichtlinien umgehen? Wer haftet bei einer Falschinterpretation in der Interaktion zwischen Agenten-Systemen unterschiedlicher Firmen? Expert:innen mahnen zur Vorsicht: „Wenn Sie eine zehnprozentige Fehlerquote bei ‚Zwiebeln hinzufügen‘ haben, ist das noch lange nicht marktreif.“
Hier geht‘s zum Artikel!

 

KI in der Verwaltung: Große Versprechen, kleine Schritte

Why Generative AI Isn’t Transforming Government (Yet) — and What We Can Do About It, TechPolicy.Press, 21.5.2025
Warum geht die Digitalisierung in der Verwaltung nur so langsam voran? Der Experte Tiago C. Peixoto hat Praktiker:innen aus dem öffentlichen Sektor nach Beispielen für den Einsatz generativer KI in Verwaltungsabläufen befragt: „Die Antworten waren zahlreich, aber enttäuschend.“ Dabei klingen die Prognosen vielversprechend. Doch die meisten KI-Einsätze in Behörden sind keine echte Automatisierung. Behörden funktionieren nach den Prinzipien von Max Weber: regelbasiert, hierarchisch und nachvollziehbar. Generative KI hingegen produziert variable Ergebnisse, die auf statistischen Wahrscheinlichkeiten basieren. „Das ist, als würde man einen Notar durch einen Jazz-Musiker ersetzen, der bei jeder Aufführung improvisiert“, erklärt Peixoto. Dennoch gibt es auch positive Beispiele. In Nigeria wurden mit einem KI-Tutoring-System in sechs Wochen Lernfortschritte erzielt, die zwei Jahren normalen Unterrichts entsprechen (Erlesenes berichtete). In Kontexten mit begrenzten menschlichen Ressourcen könnten KI-Systeme bessere Ergebnisse liefern als überforderte oder schlecht ausgebildete Mitarbeiter:innen. Peixotos Fazit lautet daher: Anstatt auf vollständige Automatisierung zu setzen, sollten Behörden sich auf „strategische Erweiterung” und „delegierte Autonomie” fokussieren. In diesem Zusammenhang ist auch der Vorschlag von Wikimedia Deutschland, verstärkt regelbasierte Ansätze anstelle von generativen KI-Systeme zu berücksichtigen, sehr lesenswert.
Hier geht's zum Artikel!

Wenn KI-Lügen überzeugender sind als die Wahrheit

What Happens When AI-Generated Lies Are More Compelling than the Truth? Behavioral Scientist, 18.5.2025
Schon seit der Erfindung der Fotografie gibt es gefälschte Bilder. So vergrößerte Mathew Brady 1860 Abraham Lincolns Hemdkragen, um dessen knochigen Hals zu verstecken. Doch die neuen KI-generierten „Deepfakes” sind anders: Sie entstehen scheinbar aus dem Nichts, allein durch eine Texteingabe, ihr Ursprung lässt sich nicht nachverfolgen. Die Beispiele dafür häufen sich. So verwirrten 2021 computergenerierte Tom-Cruise-Videos Millionen TikTok-Nutzer:innen. 2024 musste X Taylor Swifts Namen zeitweise aus der Suche verbannen, da die Plattform von KI-generierten Pornobildern überflutet wurde. Die wahre Gefahr liegt jedoch nicht nur in unserer Leichtgläubigkeit, sondern auch in unserem wachsenden Zynismus. OpenAI-Chef Sam Altman glaubt, das Problem löse sich, wenn sich alle „daran gewöhnt haben”. Expert:innen befürchten jedoch das Gegenteil: Wir könnten anfangen, an der Realität selbst zu zweifeln. Wenn Wahrheit bröckelt, profitieren Autokrat:innen, denn Zweifel und Unsicherheit sind Gift für die Demokratie. „Wenn der Mensch von Informationen überwältigt wird, greift er zum Mythos”, erkannte schon Medientheoretiker Marshall McLuhan. Mythen sprechen Emotionen an, nicht die Vernunft. Vielleicht erklären das auch, warum bizarre Verschwörungstheorien so erfolgreich sind. „Wenn alle Beweise unwirklich erscheinen, wird Fremdartigkeit selbst zum Wahrheitskriterium”, so der Autor dieses Beitrags, Nicholas Carr.
Hier geht’s zum Artikel!

 

Aurora und die Erdbeobachtung

A foundation model for the Earth system, Nature, 21.5.2025
Ein neues KI-Modell namens „Aurora” zeigt, wie KI für Klimavorhersagen eingesetzt werden kann. Das System wurde mit über einer Million Stunden geophysikalischer Daten trainiert und übertrifft etablierte Vorhersagesysteme in vier Bereichen: Luftqualität (in 74 Prozent der Fälle genauer), Ozeanwellen (86 Prozent), Tropensturm-Bahnen (100 Prozent) und hochaufgelöste Wettervorhersagen (92 Prozent). Das Besondere an Aurora ist sein Ansatz: Einmal vortrainiert, lässt es sich für verschiedene Aufgaben anpassen. Während herkömmliche Systeme Jahre der Entwicklung benötigen, waren für jedes Aurora-Experiment nur vier bis acht Wochen nötig. So sagte Aurora beispielsweise im Mai 2022 einen verheerenden Sandsturm im Irak einen Tag im Voraus vorher, prognostizierte im Juli 2023 die Bahn des verheerenden Taifuns Doksuri in China sehr genau und war das einzige KI-System, das im November 2023 die extremen Windgeschwindigkeiten des Orkans Ciarán über dem Ärmelkanal korrekt vorhersagte. Die Vision ist es, präzise und kostengünstige Vorhersagen zu demokratisieren. Anstatt auf teure Supercomputer angewiesen zu sein, könnten bald auch kleinere Organisationen Zugang zu hochwertigen Klimaprognosen haben.
Hier geht’s zum Artikel!

 
Bunte Spielfiguren zu sehen

Follow-Empfehlung

AlgorithmWatch

AlgorithmWatch ist eine gemeinnützige NGO, die Prozesse algorithmischer Entscheidungsfindungen betrachtet und einordnet, damit der Einsatz von Algorithmen und KI nicht nur einigen Wenigen, sondern Vielen zugutekommt.

Verlesenes

Rebelliert jetzt auch der Toaster?

Roboter, der mit der rechten Hand sehr nachdenklich den Kopf berührt