„Erlesenes“ ist ein zweiwöchentlicher Newsletter von reframe[Tech] - Algorithmen fürs Gemeinwohl und bietet eine kuratierte Auswahl an wissenschaftlichen Studien, journalistischen Artikeln und Debattenbeiträgen sowie Fundstücken mit Augenzwinkern aus sozialen Medien zum Themenkomplex Algorithmen und KI. Mit „Erlesenes“ wollen wir den Diskurs rund um algorithmische Entscheidungssysteme und ihre Chancen sowie Risiken für das Gemeinwohl einordnen, wir möchten den Blick über den Tellerrand wagen und Perspektiven fernab des dominierenden Diskurses aufgreifen. So wollen wir die Abonnent:innen in dem sich rasch verändernden Themenfeld up-to-date halten. Jede Ausgabe finden Sie auch auf unserem Blog. Hier geht's zum Blog!

 

 

Liebe Leser:innen,  

„Frauen sorgen sich, Männer nutzen einfach Künstliche Intelligenz (KI)“, so lautet eine gängige Interpretation. Aber warum greifen Frauen wirklich seltener zu generativer KI als Männer? Das neue Jahr beginnt bei #Erlesenes mit einer Studie, die dieser geringeren Nutzung generativer KI durch Frauen nachgeht. Liegt der Gendergap am Ende etwa gar nicht an fehlenden Kompetenzen und mangelndem Zugang, sondern in einer kritischeren Bewertung gesellschaftlicher Risiken von KI?

Bleiben wir bei der Geschlechterdimension von KI: Wird die digitale Bloßstellung von Frauen auf Elon Musks Plattform X gezielt als Mittel der Demütigung eingesetzt? Berichte von Betroffenen und die Einschätzungen von Wissenschaftlerinnen lassen wenig Zweifel daran.

Aber auch die guten Nachrichten sollen nicht zu kurz kommen: Können wir in Zukunft Krankheiten KI-gestützt im wahrsten Sinne des Wortes im Schlaf vorhersagen?

Außerdem fragen wir uns: Welche Auswirkungen hat der ungeheure Energiehunger des weltweiten KI-Konsums im taiwanesischen Watt?

Viel Spaß beim Lesen wünschen  

Elena und Teresa 

 

Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: www.reframetech.de/newsletter/

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.

Sexualisierte Bloßstellung: die neue Form digitaler Gewalt

‘The Humiliation Is the Point’: Women Speak Out Over Sexualized Grok Images, Newsweek, 11.1.2026
In den letzten Wochen hat sich auf der Plattform X ein besorgniserregendes Phänomen ausgebreitet: Nutzer:innen erstellen mithilfe des KI-Chatbots Grok von Elon Musk sexualisierte Bilder von Frauen, ohne deren Zustimmung einzuholen. Die Aufforderungen lauten beispielsweise: „Steck sie in einen Bikini“ oder „Zieh ihr die Kleidung aus“. Einige dieser Beiträge wurden hunderttausendfach angesehen. Die Moderatorin und Autorin Jess Davies bemerkte, wie Grok massenhaft Bilder von Frauen ohne Kleidung und in sexuellen Posen produzierte. Als sie dann an Silvester darauf aufmerksam machte, reagierten Nutzer, indem sie sexualisierte Bilder von Davies selbst erstellten. Auf einem der bearbeiteten Bilder hielt sie ausgerechnet ihr eigenes Buch über Frauenfeindlichkeit im Internet in den Händen. Davies ist kein Einzelfall, deswegen nennt sie Grok eine „Waffe“, um Frauen zum Schweigen zu bringen, die Demütigung sei für die Ersteller:innen dabei Teil dieser Absicht. Sandra Wachter, Professorin für Technologie und Regulierung an der Universität Oxford, kritisiert, dass Techunternehmen Technologien auf den Markt bringen, die das gezielte und nicht einvernehmliche Entkleiden von Frauen und Kindern ohne ausreichende Schutzmechanismen ermöglichen. Die britische Regierung prüft inzwischen den Inhalt der Plattform und erwägt ein Verbot.
Hier geht’s zum Artikel!

Die stille Allianz von Tech und Militär

‘Data is control’: what we learned from a year investigating the Israeli military’s ties to big tech, The Guardian, 30.12.2025
Seit Januar 2025 berichten die Journalisten Harry Davies und Yuval Abraham über die vertieften Beziehungen von Microsoft und anderen großen Techunternehmen zu Israel. Nun sprachen die beiden mit The Guardian über ihre Erkenntnisse des vergangenen Jahres. Nach dem 7. Oktober wollte das israelische Militär laut Abraham täglich Hunderte Ziele in Gaza bombardieren, wodurch der Einsatz technischer Systeme massiv stieg. KI ermöglicht die Analyse von Informationsmengen, die für Menschen nicht mehr handhabbar sind, und begünstigt somit Massenüberwachung, so Davies. So deckte eine Untersuchung ein solches Programm auf, das nahezu alle palästinensischen Telefonate abhörte und in der Cloud von Microsoft speicherte (Erlesenes berichtete). Eine weitere Recherche belegte, dass das Militär ein ChatGPT-ähnliches Werkzeug zur Auswertung dieser Daten entwickelt hat, auf dessen Grundlage militärische Angriffe erfolgten. Die bekannte Fehlerrate des Systems wurde dabei in Kauf genommen. Die Veröffentlichungen führten dazu, dass Microsoft Israels Zugang zu einigen Technologien einschränkte. Beide Journalisten berichten gleichzeitig von einem wachsenden Unbehagen in den Techunternehmen: Manche Mitarbeitenden fragen sich zunehmend, wozu ihre Produkte beitragen und welche Verantwortung die Unternehmen tragen könnten, sollte der Internationale Gerichtshof zu dem Schluss kommen, dass Israel einen Völkermord begangen habe, so Yuval Abraham.
Hier geht‘s zum Artikel!

 

Die informierte Zurückhaltung

NHB Commentary - How Risk Perceptions Shape the Gender Gap in Generative AI Use, University of Oxford, 14.1.2026
Frauen haben Vorbehalte, Männer nutzen generative KI? Eine Studie hat nun die geschlechtsspezifischen Wahrnehmungen und ihren Einfluss auf die Nutzung generativer KI genauer untersucht. In der Studie werden repräsentative Umfragedaten aus Großbritannien mit rund 8.000 Teilnehmenden ausgewertet, um zu erforschen, warum Frauen generative KI deutlich seltener nutzen als Männer. Das Ergebnis widerlegt gängige Annahmen über fehlende digitale Kompetenzen oder Zugangsbeschränkungen. Laut Studie liegt der entscheidende Unterschied in der Bewertung gesellschaftlicher Risiken. Die Wissenschaftler:innen entwickelten einen Index, der Bedenken hinsichtlich psychischer Gesundheit, Privatsphäre, Klimaauswirkungen und Störungen des Arbeitsmarktes erfasst. Die intersektional angelegte Analyse zeigt, dass die größten Unterschiede bei jüngeren, digital versierten Personen auftreten. Gerade die technisch fähigste Gruppe lehnt die Technologie demnach aufgrund ethischer und sozialer Überlegungen am stärksten ab, mit einem Gendergap von 45 Prozentpunkten. Die geschlechtsspezifischen Unterschiede bei der Einführung generativer KI sind somit weniger auf Fähigkeiten oder Zugang zurückzuführen, sondern resultieren aus systematischen Unterschieden in der Wahrnehmung der gesellschaftlichen Risiken von KI durch Frauen und Männer. Die Autor:innen warnen letztlich vor Konsequenzen für die wirtschaftliche Ungleichheit in einer zunehmend KI-gestützten Wirtschaft, aber plädieren dafür, dass inklusivere KI-Nutzung durch den Umgang mit gesellschaftlichen Risiken entsteht, nicht allein durch mehr Schulungen.
Hier geht's zum Artikel!

Vom Watt zur Cloud

AI’s green-energy goal is devastating Taiwan’s coastal villages , Rest of World, 12.1.2026
An der Westküste Taiwans lebt die Familie von Li Cheng-chieh seit Generationen von der Austernzucht in den Wattgebieten. Vor vier Jahren wurden im Rahmen eines neuen Offshore-Windprojekts dicke Kabel zur Stromübertragung verlegt. Dabei wurden Gräben gegraben, Sedimentschichten aufgewühlt und fast alle Austern getötet. Aufgrund der flachen Gewässer und stetigen Winde hat die Region in den letzten Jahren Investitionen in Milliardenhöhe angezogen. Die Energie wird benötigt, um die Nachfrage nach Chips zu decken, die weltweit KI-Systeme antreiben. Der Energiebedarf dieses Sektors wird sich bis 2028 voraussichtlich verachtfachen. Vor der Küste von Changhua sind derzeit etwa 170 Windkraftanlagen in Betrieb; die Zahl soll in diesem Jahr auf über 400 steigen. Fischer:innen wie Lin Kuo-wen berichten, dass große Schiffe den Meeresboden ebnen und Fundamente für Turbinen setzen. Statt Fische zog er zuletzt nur noch Trümmer aus dem Wasser. Gleichzeitig sind die Entschädigungen ungleich verteilt. Nur lizenzierte Fischereifahrzeuge sind dazu berechtigt und Austernzüchter:innen werden nur dann entschädigt, wenn die Kabel direkt durch ihre Farm verlaufen. Der Fall zeigt die Schattenseite des rasant wachsenden Energiehungers von KI-Unternehmen, selbst dort, wo versucht wird, ihn nachhaltig zu decken.
Hier geht’s zum Artikel!

 

Die Sprache des Schlafs

New AI model predicts disease risk while you sleep, Stanford Medicine Center, 6.1.2026
Kann eine einzige Nacht Schlaf verraten, welche Krankheiten uns in 20 Jahren erwarten? Wissenschaftler:innen des Stanford Medicine Instituts haben mit „SleepFM” ein KI-Modell entwickelt, das anhand physiologischer Daten aus nur einer Nacht das Risiko für mehr als 100 Gesundheitsprobleme vorhersagen soll. Das Modell wurde mit fast 600.000 Stunden Schlafdaten von 65.000 Teilnehmenden aus der Polysomnographie trainiert. Bei dieser Untersuchung werden Gehirnaktivität, Herzaktivität, Atmung sowie Augen- und Beinbewegungen gemessen. Um diese Datenmenge nutzen zu können, entwickelten die Forschenden ein Basismodell, das sich an großen Sprachmodellen orientiert. „SleepFM” lernt gewissermaßen die Sprache des Schlafs, erklärt James Zou, Professor für biomedizinische Datenwissenschaft. Nach dem Training wurde das Modell zunächst für Standardaufgaben wie die Klassifizierung von Schlafphasen eingesetzt. Anschließend glichen die Forschenden die Schlafdaten mit den langfristigen Gesundheitsverläufen derselben Personen ab. „SleepFM” analysierte über 1.000 Krankheitskategorien und identifizierte 130 Kategorien, die mit angemessener Genauigkeit vorhergesagt werden konnten. Besonders aussagekräftig waren die Ergebnisse für Krebs, Schwangerschaftskomplikationen, Durchblutungsstörungen und psychische Erkrankungen. Emmanuel Mignot, Professor für Schlafmedizin und Co-Seniorautor der Studie, erklärt, dass asynchrone Körpersignale – etwa wenn das Gehirn schläft, das Herz jedoch nicht – frühe Hinweise auf spätere Erkrankungen liefern könnten.
Hier geht’s zum Artikel!

 

Follow-Empfehlung

Alan Turing Institute

Das Alan Turing Institute ist Großbritanniens nationales Institut für Datenwissenschaft und KI.

Bunte Spielfiguren zu sehen
Roboter, der mit der rechten Hand sehr nachdenklich den Kopf berührt

Verlesenes

Bis das der Tod, äh ChatGPT euch scheidet.