„Erlesenes“ ist ein zweiwöchentlicher Newsletter von reframe[Tech] - Algorithmen fürs Gemeinwohl und bietet eine kuratierte Auswahl an wissenschaftlichen Studien, journalistischen Artikeln und Debattenbeiträgen sowie Fundstücken mit Augenzwinkern aus sozialen Medien zum Themenkomplex Algorithmen und KI. Mit „Erlesenes“ wollen wir den Diskurs rund um algorithmische Entscheidungssysteme und ihre Chancen sowie Risiken für das Gemeinwohl einordnen, wir möchten den Blick über den Tellerrand wagen und Perspektiven fernab des dominierenden Diskurses aufgreifen. So wollen wir die Abonnent:innen in dem sich rasch verändernden Themenfeld up-to-date halten. Jede Ausgabe finden Sie auch auf unserem Blog. Hier geht's zum Blog!

 

 

Liebe Leser:innen, 

ganz Europa ächzt derzeit unter einer Hitzewelle und da stellt sich uns die Frage: Kann Künstliche Intelligenz (KI) Abhilfe schaffen? Die schlechte Nachricht vorweg: Die Klimakrise wird sich durch KI allein nicht lösen lassen. Doch es gibt auch eine gute Nachricht: Es existieren vielversprechende Beispiele dafür, wie Städte mithilfe von KI ihre Bevölkerung besser vor Hitze schützen können. In dieser Ausgabe stellen wir deswegen einen Artikel vor, der anhand von Beispielen aus Tel Aviv, Kairo und Barcelona zeigt, wie KI bei der Verschattung, dem gezielten Einsatz von Ventilatoren und der Planung schattiger Gehrouten unterstützend wirken kann.

Bleiben wir bei Städten: Eine Recherche von MIT Technology Review, Lighthouse Reports und Trouw beleuchtet den Versuch – und das Scheitern – der Stadt Amsterdam, ein „faires“ algorithmisches System für Sozialhilfeanträge zu implementieren.

Außerdem: Bilder, die täuschen und solche, die aufklären.

Viel Spaß beim Lesen wünschen  

Elena und Teresa 

Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: www.reframetech.de/newsletter/

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.

Blau leuchtende Gehirne und weiße Roboter: Das Problem mit KI-Bildern

Rethinking Robots: Why Visual Representation of AI Matters, Internet Exchange, 5.6.2025
Auch heute sehen wir noch Bilder von Robotern und denken dabei sofort an Künstliche Intelligenz (KI). Diese vertrauten Visualisierungen prägen jedoch unser Verständnis von KI auf problematische Weise, denn Bilder bleiben besser im Gedächtnis haften als Worte und beeinflussen unsere Wahrnehmung. Tania Duarte, Gründerin der NGO „We and AI“ („Wir und KI“), erklärt dies wie folgt: „Wenn Menschen KI als Roboter oder leuchtendes blaues Gehirn wahrnehmen, schalten sie ab. Sie empfinden entweder Angst, Ehrfurcht oder Verwirrung, aber keine Handlungsfähigkeit.“ Die Initiative hat acht problematische Bildmotive identifiziert: herabfallender Code, weiße Roboter, religiöse Anspielungen, Gehirn-Metaphern, weiße Männer in Anzügen, die Farbe Blau, Science-Fiction-Referenzen und Anthropomorphismus, also die Vermenschlichung von Technologie. Sie alle verschleiern die Realität, dass KI von Menschen gemacht wird, durch menschliche Entscheidungen geprägt und von uns hinterfragt werden kann. Wenn KI jedoch als magisch oder unvermeidlich dargestellt wird, fordert die Öffentlichkeit seltener Transparenz oder Regulierung. So können Unternehmen leichter übertriebene Behauptungen verbreiten und sich der Kontrolle entziehen. Die Lösung? Bilder, die die Realität der KI widerspiegeln, wie die Seite „Better of Images of AI“ beweist. Denn bessere Narrative können zur realistischeren Einschätzung von KI führen.
Hier geht’s zum Artikel!

Wenn Städte „ kochen“

5 Ways AI Supports City Adaptation to Extreme Heat, medium, 11.6.2025
Extreme Hitze stellt eine wachsende Bedrohung für Millionenstädte weltweit dar. Bis 2050 wird sich die Zahl der von Hitzewellen betroffenen Städte voraussichtlich verdreifachen, dabei könnten Spitzentemperaturen von 48 °C zur neuen Normalität werden. Aber bereits jetzt erleben europäische Städte anhaltende Hitzewellen mit Temperaturen über 40 °C. Fünf Beispiele zeigen, wie Städte KI gegen Hitze einsetzen können: So kühlt Barcelona beispielsweise die U-Bahn mit einem KI-System, das kontinuierlich Temperatur, Luftfeuchtigkeit und Fahrgastzahlen analysiert, um 187 Stationsventilatoren optimal zu steuern. In Texas kartieren Forscher:innen Wärmeinseln und in Tel Aviv simulieren KI-Modelle, wie sich verschiedene Planungsmaßnahmen auf die Verschattung auswirken würden. In Boston wiederum wird die grüne Infrastruktur mithilfe eines Systems überwacht, das Satellitenbilder nutzt, um ein digitales Inventar städtischer Bäume zu erstellen und Lücken in der Baumkrone zu identifizieren. In Kairo hingegen generiert ein KI-System thermisch optimierte Gehrouten, die schattige Wege während des ganzen Tages maximieren. Die Klimakrise werden wir nicht mit KI lösen können, aber diese Systeme können Städten helfen, ihre Bewohner:innen besser zu schützen.
Hier geht‘s zum Artikel!

 

Illusion des Denkens: Warum KI bei Logik versagt

‚The illusion of thinking‘: Apple research finds AI models collapse and give up with hard puzzles, Mashable, 9.6.2025
KI-Systeme können zwar Code programmieren, scheitern aber bei einem einfachen Logikrätsel. Apple-Forscher:innen haben herausgefunden, dass selbst die fortschrittlichsten „Denkmodelle“ bei komplexeren Problemen völlig scheitern. In der Studie wurden große Schlussfolgerungsmodelle, sogenannte „Reasoning“-Modelle (LRMs) wie OpenAI o1, DeepSeek R1 und Claude 3.7 Sonnet Thinking an klassischen Logikrätseln wie die Türme von Hanoi, Schachfiguren-Springen und dem Flussüberquerungsproblem mit Fuchs, Huhn und Getreide getestet. Diese Rätsel sind vielen aus dem Mathematikunterricht bekannt: Einmal verstanden, muss man nur der Logik folgen. Während die KI-Modelle bei mittelschweren Rätseln besser abschnitten als normale Sprachmodelle, scheiterten sie bei einfachen Problemen häufiger. Interessant dabei war, dass sie bei schwierigeren Problemen einfach aufgaben. Selbst wenn sie die Lösungsalgorithmen direkt erhielten, scheiterten die Modelle weiterhin. Die Apple-Forscher:innen sprechen in diesem Zusammenhang von einer „Illusion des Denkens“: KI-Modelle schneiden zwar bei Mathematik und Programmierung gut ab, bei komplexeren Problemen täuschen die Systeme jedoch nur vor, zu denken.
Hier geht's zum Artikel!

Smart, aber unfair

Inside Amsterdam’s high-stakes experiment to create fair welfare AI, MIT Technology Review, 11.6.2025
Amsterdam sollte ein Beispiel dafür sein, dass Algorithmen im Sozialwesen zu fairen Ergebnissen führen können. Das „Smart Check“-System sollte Sozialhilfeanträge automatisch auf Betrug prüfen und dabei gerechter sein als menschliche Sachbearbeiter:innen. Die Stadt befolgte alle Empfehlungen für ethische KI: Sie konsultierte Expert:innen, führte Bias-Tests durch, vermied demografische Faktoren und setzte auf ein erklärbares Modell. Doch bereits die ersten Tests zeigten Probleme: So markierte der Algorithmus Migrant:innen und Männer überproportional häufig für Untersuchungen. Die Stadt wandte eine Technik namens „Training-Data Reweighting” („Neugewichtung von Trainingsdaten”) an, um verschiedene Gruppen in den Trainingsdaten neu zu gewichten und damit die Verzerrungen zu korrigieren. Als „Smart Check“ 2023 im Live-Test eingesetzt wurde, markierte es jedoch mehr Menschen als zuvor und zeigte erneut Verzerrungen. Nach der Verarbeitung von 1.600 Anträgen stoppte die Stadt das Projekt und kehrte zum analogen System zurück, das laut eigener Analyse ebenfalls diskriminiert – nur anders. Vielleicht sind manche Bereiche eben grundsätzlich ungeeignet für algorithmische Entscheidungen, egal wie ethisch sie entwickelt werden (Erlesenes berichtete).
Hier geht’s zum Artikel!

 

KI-Propaganda im Nahost-Konflikt

The AI Slop Fight Between Iran and Israel, 18.6.2025, 404 Media
Der Krieg zwischen Israel und dem Iran findet nicht nur auf dem Schlachtfeld, sondern auch in den sozialen Medien statt. Während beide Länder ihre Bevölkerung auffordern, keine echten Aufnahmen von Angriffen zu teilen, überschwemmten KI-generierte Fälschungen die Plattformen. Besonders aktiv ist dabei der TikTok-Kanal „3amelyonn“ („KI-Widerstand“), der seit April 2025 gefälschte Zerstörungsszenen produziert. Ein Video, das einen angeblich zerbombten Ben-Gurion-Flughafen zeigt, wurde über zwei Millionen Mal angesehen, Aufnahmen von einem „zerstörten Tel Aviv“ sogar elf Millionen Mal. Dies ist jedoch nicht nur das Metier anonymer Amateur- und Profi-Propagandist:innen. Auch die Staatschefs des Iran und Israels bedienen sich dieser Technik. So veröffentlicht der Oberste Führer des Iran auf seinem X-Account KI-generierte Raketenstarts, die ähnlichen Posts auf dem Account des israelischen Verteidigungsministers in nichts nachstehen. Hany Farid, Professor an der UC Berkeley warnt: „Das Opfer in diesem KI-Krieg ist die Wahrheit. Indem sie mit KI-Schlamm die Lage vernebeln, kann jede Seite behaupten, dass alle anderen Videos gefälscht sind.“ Die Überprüfung erfordert einen großen Aufwand, den Gelegenheitsnutzer:innen nicht betreiben.
Hier geht’s zum Artikel!

 
Bunte Spielfiguren zu sehen

Follow-Empfehlung

Melissa Heikkilä

Melissa Heikkilä ist preisgekrönte KI-Reporterin und berichtet über die Auswirkungen von KI auf unsere Gesellschaft.

Verlesenes

Känguru bleibt am Boden

Roboter, der mit der rechten Hand sehr nachdenklich den Kopf berührt