|
„Erlesenes“ ist ein zweiwöchentlicher Newsletter von reframe[Tech] - Algorithmen fürs Gemeinwohl und bietet eine kuratierte Auswahl an wissenschaftlichen Studien, journalistischen Artikeln und Debattenbeiträgen sowie Fundstücken mit Augenzwinkern aus sozialen Medien zum Themenkomplex Algorithmen und KI. Mit „Erlesenes“ wollen wir den Diskurs rund um algorithmische Entscheidungssysteme und ihre Chancen sowie Risiken für das Gemeinwohl einordnen, wir möchten den Blick über den Tellerrand wagen und Perspektiven fernab des dominierenden Diskurses aufgreifen. So wollen wir die Abonnent:innen in dem sich rasch verändernden Themenfeld up-to-date halten. Jede Ausgabe finden Sie auch auf unserem Blog. Hier geht's zum Blog!
|
|
|
|
|
|
|
|
|
Liebe Leser:innen,
Erlesenes meldet sich zurück aus der Sommerpause und serviert nun wieder wie gewohnt eine Auswahl an Lesestoff. In dieser Ausgabe zeigen die Beiträge auf unterschiedliche Weise, dass Künstliche Intelligenz (KI) nicht nur technisch oder ökonomisch betrachtet werden sollte. Viel entscheidender ist, in welchem Kontext die Technologie eingesetzt wird, wer Verantwortung übernimmt und wessen Perspektiven einfließen: In Ruanda, Ghana und Nigeria nutzen lokale Communities KI-Systeme bedarfsorientiert, um lokale Probleme zu lösen. Ein Essay mahnt, wie gefährlich Schweigen in der heutigen Debatte um technologische Innovation ist, und zieht Lehren aus IBMs Verstrickungen in den Holocaust. Das Schicksal von Adam Raine macht wiederum deutlich, welche fatalen Folgen es haben kann, wenn Unternehmen keine Verantwortung für die Sicherheit ihre Produkte übernehmen. Außerdem: Ein KI-unterstütztes Stethoskop liefert vielversprechende Hilfe bei der Diagnostik von Herzkrankheiten.
Viel Spaß beim Lesen wünschen
Elena und Teresa
Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: www.reframetech.de/newsletter/
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.
|
|
|
|
|
Wenn die nächste Brücke entscheidet, ob ein Kind zur Schule kommt
How AI is powering grassroots solutions for underserved communities, World Economic Forum, 2.9.2025
Derzeitig wird KI vor allem mit großen Sprachmodellen (wie ChatGPT) und mit globalem Wettbewerb in Verbindung gebracht. Doch abseits der Schlagzeilen kann mithilfe der Technologie das Leben unterversorgter Gemeinden verbessert werden. In Ruanda nutzt beispielsweise die Organisation „Bridges to Prosperity“ („Brücken zum Wohlstand“) KI-Tools zur Brückenplanung. Statt wie bisher mehrere Jahre für Vermessungen zu benötigen, liegen nun innerhalb weniger Monate Karten vor, die Millionen Kilometer bislang unbekannter Wasserwege dokumentieren. So können Brücken entstehen, die den Zugang zu Märkten, Gesundheitsversorgung und Schulen überhaupt erst ermöglichen. In Ghana wiederum nutzen über 110.000 Kleinbäuerinnen und -bauern in mehr als 20 afrikanischen Sprachen den Chatbot „Darli AI“ für Anliegen wie Schädlingsbekämpfung oder Düngemittel. Im nigerianischen Slum „Makoko“ kartieren die Bewohner:innen mithilfe eines KI-Systems und von Drohnen ihre Umgebung sogar selbst. Die entstandenen Daten nutzen sie, um eine bessere Klimaanpassung und städtische Versorgung einzufordern. KI-Systeme können also zu einer nachhaltigen digitalen Transformation beitragen, Barrieren abbauen und Teilhabe ermöglichen – wenn sie bedarfsorientiert entwickelt und ethisch eingesetzt werden.
Hier geht’s zum Artikel!
|
Kultur passt nicht ins Dataset
Confusing the Map for the Territory, The limits of datasets for culturally inclusive AI. Communications of the ACM, 2.9.2025
Wir alle kennen Karten, die uns den Weg weisen, manchmal aber auch die Welt verzerren: Die Mercator-Projektion – eine Übertragung der kugelförmigen Erde auf eine flache Karte – lässt Afrika darauf kleiner erscheinen als Grönland, obwohl es viel größer ist. Ähnlich verhält es sich mit KI-Datensätzen: Sie sind zwar hilfreiche Werkzeuge, reduzieren die Wirklichkeit aber immer auch auf Kategorien und Labels. Die Forscherin Rida Qadri erklärt, was dies für kulturelle Inklusion bedeutet. KI-Bildgeneratoren produzieren beispielsweise Bilder pakistanischer Städte, die voller Klischees wie Chaos und Armut sind und somit die echte Vielfalt vor Ort übersehen. Ähnlich problematisch ist es, wenn Sprachmodelle Begriffe wie „queer“ oder „dyke“ (ursprünglich eine abwertende Bezeichnung für lesbische Frauen, die inzwischen teilweise als Selbstbezeichnung zurückerobert wurde) automatisch als Hassrede markieren, ohne den sozialen Kontext zu berücksichtigen. Identitäten, Bedeutungen und Sprachgebrauch sind umstritten, verändern sich und sind nicht universal übertragbar. Ohne kritische Überprüfung setzen sich diese Verzerrungen in den Outputs der KI-Systeme fort. Der Text plädiert deshalb für andere Ansätze: Datensätze sollten als fragile Artefakte begriffen werden, es sollten mehrstimmige Annotationen eingeführt und Fachwissen aus Archiven, Museen oder lokalen Kontexten einbezogen werden. Vor allem sollte die Illusion aufgegeben werden, dass es jemals den „einen“ vollständigen Datensatz gibt.
Hier geht‘s zum Artikel!
|
|
|
|
|
Die wahre Bedrohung: Schweigen statt Roboter
IBM's Technology Use in the Holocaust Holds a Warning for AI: The Real Threat Is Silence, Not Robots, AI Human Story, 3.9.2025
Wenn wir Technologien nur linear denken – schneller, größer, besser –, übersehen wir ihre Schattenseiten. KI-Ethikerin Camila Lombana-Diaz erinnert in ihrem Essay daran, dass bereits im 20. Jahrhundert „fortschrittliche“ Systeme wie die Lochkarten-Technologie von IBM im Holocaust zur Organisation von Massenmord eingesetzt wurden. Gefährlich sind dabei nicht die Maschinen, sondern das Schweigen, wenn Kritik, Dissens und ethische Reflexion verdrängt werden. Basierend auf Hegels Philosophie argumentiert sie, dass echter Fortschritt aus Widerspruch entsteht: These, Antithese, Synthese. Genau das fehle der KI-Debatte heute. Ethik wird marginalisiert, Regulierungsbemühungen werden verzögert und kritische Stimmen sogar zensiert. So entstehe eine „dialektische Krise“, in der Innovationen nicht mehr von kritischer Auseinandersetzung profitieren können. Ohne Antithese gibt es aber keine nachhaltige Entwicklung. Diese hat, so Lombana-Diaz, erneuerbare Energien gefördert und Airbags oder Assistenzsysteme hervorgebracht. Auch KI-Technologie braucht ihre Kritiker:innen, um besser zu werden, denn die größte KI-Bedrohung seien nicht rebellierende Roboter, sondern das Schweigen der kritischen Debatte, so die Autorin.
Hier geht's zum Artikel!
|
ChatGPT, Suizid und die Frage nach Verantwortung
ChatGPT encouraged Adam Raine’s suicidal thoughts. His family’s lawyer says OpenAI knew it was broke, The Guardian, 29.8.2025
Ein 16-jähriger Schüler beginnt mit Mathe-Fragen an ChatGPT und endet mit Suizidplänen. Seine Familie verklagt nun das Unternehmen hinter dem Chatbot, OpenAI. Wie konnte es dazu kommen? Adam Raine nutzte ChatGPT zunächst für Geometrie und Chemie. Doch binnen weniger Monate wandten sich seine Anfragen dem Thema Suizid zu: „Warum habe ich kein Glück? Ich fühle mich einsam, langweilig, ängstlich und verloren, habe aber keine Depression.“ Anstatt ihm professionelle Hilfe zu empfehlen, „fragte“ das System ihn, ob er seine Gefühle erkunden möchte. Im April 2025 nahm sich der Teenager das Leben. Der Anwalt der Familie, Jay Edelson, wirft OpenAI vor, das Unternehmen habe das Modell GPT-4o bewusst fehlerhaft entwickelt. Die Klage basiert auf Medienberichten, denen zufolge OpenAI auf Drängen von CEO Sam Altman die Sicherheitstests von GPT-4o beschleunigt habe. Mehrere Mitarbeiter:innen kündigten, darunter der Sicherheitsexperte Jan Leike, der schrieb: „Sicherheitskultur und -prozesse sind glänzenden Produkten gewichen.“ OpenAI gestand Schwächen ein und versprach Verbesserungen. Trotzdem bewirbt Altman ChatGPT weiterhin für Schulen. „Die Idee, dass Sam Altman sagt: ‚Wir haben ein kaputtes System, aber wir müssen es Achtjährigen geben‘, ist nicht okay“, kritisiert Edelson.
Hier geht’s zum Artikel!
|
|
|
|
|
KI-Stethoskop erkennt drei Herzkrankheiten in 15 Sekunden
AI stethoscope can detect three heart conditions in 15 seconds - BHF, British Heart Foundation, 30.08.2026
Seit über 200 Jahren nutzen Ärzt:innen Stethoskope, um die Herztöne zu untersuchen. Eine Studie aus London zeigt nun, dass ein KI-gestütztes Stethoskop drei gefährliche Herzkrankheiten in nur 15 Sekunden erkennen kann. Das spielkartengroße Gerät kombiniert EKG-Aufzeichnung mit Mikrofonanalyse und nutzt cloudbasierte KI-Algorithmen, die mit Daten von zehntausenden Patient:innen trainiert wurden. Dabei erkennt es winzige Unterschiede im Herzschlag und im Blutfluss, die für das menschliche Ohr nicht wahrnehmbar sind. Das „Smart Stethoscope“ wurde bei über 12.000 Patient:innen in 200 Hausärzt:innenpraxen getestet. Dadurch verdoppelte oder verdreifachte sich je nach Erkrankung die Wahrscheinlichkeit einer frühen Diagnose. Das Gerät könnte somit dabei helfen, lebenswichtige Therapien früher einzuleiten. Allerdings gibt es auch Herausforderungen, denn zwei Drittel der vom KI-Stethoskop erkannten Verdachtsfälle auf Herzschwäche erwiesen sich in weiteren Tests als falsch positiv. Zudem stellten 70 Prozent der teilnehmenden Praxen die Nutzung nach zwölf Monaten ein oder verwendeten das Gerät nur selten. Ein erstes Fazit? KI-Technologie kann die gesundheitliche Grundversorgung schrittweise verbessern, auch wenn ihre Integration in den Praxisalltag noch Herausforderungen birgt.
Hier geht’s zum Artikel!
|
|
|
|
|
|
|
Follow-Empfehlung
Camila Lombana-Diaz ist KI-Ethikerin und Autorin unseres Perspektiven-Artikels.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|