|
„Erlesenes“ ist ein zweiwöchentlicher Newsletter von reframe[Tech] - Algorithmen fürs Gemeinwohl und bietet eine kuratierte Auswahl an wissenschaftlichen Studien, journalistischen Artikeln und Debattenbeiträgen sowie Fundstücken mit Augenzwinkern aus sozialen Medien zum Themenkomplex Algorithmen und KI. Mit „Erlesenes“ wollen wir den Diskurs rund um algorithmische Entscheidungssysteme und ihre Chancen sowie Risiken für das Gemeinwohl einordnen, wir möchten den Blick über den Tellerrand wagen und Perspektiven fernab des dominierenden Diskurses aufgreifen. So wollen wir die Abonnent:innen in dem sich rasch verändernden Themenfeld up-to-date halten. Jede Ausgabe finden Sie auch auf unserem Blog. Hier geht's zum Blog!
|
|
|
|
|
>
|
|
|
|
|
Liebe Leser:innen,
lange wurde - und wird immer noch - darüber diskutiert, welche Rolle Künstliche Intelligenz (KI) im Militär und im Krieg künftig spielt. Doch eines wird aktuell immer deutlicher: Die Dystopie ist längst da. KI-Systeme sind mittlerweile selbstverständlicher Teil realer Kriegsschauplätze, sei es in Gaza oder im Iran. Deswegen beginnt diese Erlesenes-Ausgabe mit einem Artikel, der diese Entwicklungen genauer anschaut und zeigt, dass bestehende internationale Regeln und Normen damit nicht Schritt halten können.
Bleiben wir bei Zukunftsangst, allerding aus einer anderen Perspektive: Was bedeutet das Phänomen der „KI-Resignation“ im Kontext von Jugendlichen und welche Räume schaffen wir, damit sie technologische Zukünfte kritisch und aktiv mitprägen können?
Was passiert mit kritischem Denken, wenn immer mehr Denkarbeit an Maschinen ausgelagert wird? Eine neue Studie legt nahe, dass Führungskräfte Denkarbeit gern an Chatbots delegieren und dass dieses „cognitive offloading“ das Gehirn verkümmern lässt.
Außerdem: Ein neuer Ansatz soll KI-Modelle erklärbarer machen, etwa in sensiblen Bereichen wie Medizin oder autonomem Fahren.
Viel Spaß beim Lesen wünschen
Elena und Teresa
Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: www.reframetech.de/newsletter/
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.
|
|
|
|
|
Neue Waffen, alte Regeln
Black-box AI and cheap drones are outpacing global rules of war, Rest of World, 5.3.2026
Der andauernde Konflikt im Nahen Osten lenkt die Aufmerksamkeit auf zwei Entwicklungen, die die Kriegsführung grundlegend verändern könnten. Einerseits gibt es KI-Systeme, deren Funktionsweise für Außenstehende kaum nachvollziehbar ist, die das US-Militär aber bereits in der Kriegsführung einsetzt. Das KI-System „Claude” von Anthropic generiert beispielsweise Wertungen von Informationen, identifiziert Ziele und simuliert Kampfszenarien. Nun hat das Pentagon angekündigt, den Vertrag mit dem Unternehmen wegen Meinungsverschiedenheiten über deren Einsatz zu kündigen (Erlesenes berichtete) und steigt auf OpenAI um. Andererseits gibt es kostengünstige Drohnen, die vergleichsweise einfach produziert oder aus handelsüblichen Komponenten zusammengebaut werden können. Steve Feldstein, Senior Fellow beim Think Tank „Carnegie Endowment for International Peace“, sieht ein großes Problem in ungetesteten Systemen, die potenziell zu Angriffen auf zivile Einrichtungen wie Krankenhäuser und Schulen führen könnten. Zudem sind die Systeme nachweislich fehleranfällig. So lag beispielsweise die KI-gestützte Datenbank „Lavender“, die Israel zur Analyse von Überwachungsdaten und zur Identifizierung potenzieller Ziele im Gazastreifen nutzt, in mindestens zehn Prozent der Fälle falsch. Während diese Technologien zunehmend eingesetzt werden, stellt sich die Frage, ob die bestehenden internationalen Regeln und Normen mit dieser Entwicklung Schritt halten können. Feldstein antwortet darauf eindeutig mit „Nein”. Hier geht’s zum Artikel!
|
Delegiertes Denken
Study Finds That Execs Are Already Outsourcing Their Thinking to AI, Futurism, 8.3.2026
Wer seine Denkarbeit an KI-Systeme auslagert, verliert die Fähigkeit zum kritischen Denken. Das gilt offenbar auch für diejenigen, die KI am lautesten propagieren. Eine neue Studie zeigt, dass ausgerechnet Führungskräfte kognitive und emotionale Aufgaben massiv an Chatbots auslagern. Für die Studie wurden 200 Eigentümer:innen, Gründer:innen und CEOs im Vereinigten Königreich befragt. 62 Prozent der Befragten nutzen KI-Systeme, um Entscheidungen zu treffen. 140 der Befragten gaben an, ihre eigenen Ideen infrage zu stellen, wenn diese mit den Empfehlungen der KI kollidieren. 46 Prozent verlassen sich mittlerweile mehr auf Ratschläge von KI-Systemen als auf die ihrer Kolleg:innen. Eine andere Studie aus dem vergangenen Jahr ergab auch, dass Menschen, deren Arbeit vor allem aus Analyse und Denken besteht und die der Genauigkeit generativer KI-Systeme vertrauen, weniger zum kritischen Denken neigen. Wenn Menschen überzeugt sind, dass eine Aufgabe kompetent automatisiert wurde, ziehen sie sich eher zurück. Die Wissenschaftler:innen führen dieses Verhalten auf sogenanntes „cognitive offloading“, also das Auslagern von Denkarbeit an technische Systeme zurück. Genau dieses Auslagern des Denkens an KI-Systeme soll jedoch das Gehirn verkümmern lassen. Auch Führungskräfte, die diese Technologie offensiv vertreten, scheinen keine Ausnahme von dieser Regel zu sein. Hier geht‘s zum Artikel!
|
|
|
|
|
KI-Resignation: Wenn die Zukunft schon entschieden scheint
When the Future Feels Foreclosed: AI Resignation and the Power to Act, Future Humanities, 18.2.2026
Stellen Sie sich vor, Sie sind 17 Jahre alt und möchten Architekt:in werden. Dann lesen Sie, dass KI-Systeme bald Gebäude entwerfen können. Sie fragen sich: „Warum sollte ich das noch lernen?” Genau diese Haltung beschreiben drei Wissenschaftler:innen in einer neue Studie als „KI-Resignation”. Das Konzept erfasst, wie junge Menschen KI nicht nur als nützliches oder fehlerhaftes Werkzeug wahrnehmen, sondern auch als überwältigende und scheinbar unvermeidliche Kraft, die ihre Handlungsmöglichkeiten und ihre Fähigkeit, die Zukunft mitzugestalten, einschränkt. Dafür führten die Wissenschaftler:innen qualitative Workshops mit deutschen Schüler:innen im Alter von 15 bis 18 Jahren durch. Sie identifizierten dabei vier widersprüchliche Dynamiken, die diese Resignation strukturieren: die Spannung zwischen Begeisterung für digitale Dienste und wachsender Abhängigkeit von ihnen, zwischen mühelosem Informationszugang und der Einschränkung der eigenen Lernfähigkeit, zwischen Versuchen der Selbststeuerung und wiederholtem Scheitern daran sowie zwischen Zukunftserwartungen und dem Gefühl, dass diese bereits verschlossen sind. Die Autor:innen führen an, dass „KI-Resignation” eine stabilisierende Funktion innerhalb des digitalen Kapitalismus erfülle. Wenn Abhängigkeit von KI-Systemen als normal erscheint, stabilisiert sie genau die Strukturen, die diese Abhängigkeit erst hervorbringen. Die Bildungspolitik müsse demnach Räume schaffen, in denen Jugendliche technologische Zukünfte kritisch reflektieren und aktiv mitgestalten können. Hier geht's zum Artikel!
|
Wie offen soll KI sein? Indiens Politik sucht Antworten
Advancing Open Source AI in India: Recommendations for Governments and Technology Developers, digital futures lab, February 2026
In Indien werden KI-Systeme zunehmend Teil der staatlichen Infrastruktur, sei es in der Gesundheitsversorgung, in der Bildung oder bei der Bereitstellung von Sozialleistungen. Damit rücken auch politische Fragen in den Mittelpunkt: Wer entwickelt diese Systeme, wer finanziert sie und wer kann sie überprüfen oder anpassen? Ein neuer Bericht des „Digital Futures Lab” schlägt Open-Source-KI als strategische Option für das sich entwickelnde KI-Ökosystem Indiens vor. In diesem Zusammenhang wird untersucht, welche Rolle Offenheit für die Zukunft des Landes in diesem Kontext spielen sollte. Der Bericht legt dar, dass es dabei nicht nur um die Frage geht, ob KI-Systeme offen oder geschlossen sind. Vielmehr ist entscheidend, welche Teile eines Systems zugänglich gemacht werden – etwa Daten, Software oder Modelle – und welche Möglichkeiten sich dadurch für Innovation, lokale Anpassung und öffentliche Kontrolle ergeben. Gleichzeitig macht der Bericht deutlich, dass Offenheit kein Selbstläufer ist. Sie kann Innovation beschleunigen, bringt aber auch Risiken mit sich, beispielsweise Missbrauch oder neue Anforderungen an die staatliche Aufsicht. Politik und Entwickler:innen müssen daher entscheiden, wo Offenheit sinnvoll ist und wo Grenzen notwendig sind. Auf dieser Grundlage formuliert der Bericht konkrete Empfehlungen. Diese reichen von offener KI-Infrastruktur bis zu klaren Transparenzstandards für öffentlich finanzierte Systeme. Hier geht’s zum Artikel!
|
|
|
|
|
Diagnose-Erklärbarkeit statt Black Box?
Improving AI models’ ability to explain their predictions, MIT News, 9.3.2026
KI-Systeme werden in der medizinischen Diagnostik immer häufiger eingesetzt. Doch Ärzt:innen müssen verstehen können, warum ein System ein bestimmtes Ergebnis generiert. Eine Methode, um das zu erreichen, ist das „concept bottleneck modeling“ (Konzept-Engpass-Modellierung). Dabei leitet ein Modell eine Vorhersage über für Menschen verständliche Konzepte ab. Bisher wurden diese Konzepte meist im Voraus von Expert:innen definiert. So konnten Ärzt:innen etwa das Konzept „gruppierte braune Punkte“ vorschlagen, um ein Melanom zu erkennen. Solche vorab definierten Konzepte können jedoch irrelevant sein oder nicht genügend Details bieten, wodurch sich die Genauigkeit des Modells verringert. Die neue Methode extrahiert dagegen Konzepte, die während des Trainings im Modell entstehen. Ein sogenannter „sparse autoencoder“ (spärlicher Selbstkodierer) wählt die relevantesten Merkmale aus und fasst sie zu wenigen Konzepten zusammen. Anschließend generiert ein KI-System eine Beschreibung für jedes Konzept in verständlicher Sprache. Im Vergleich zu anderen Modellen erreichte dieser vom MIT (Massachusetts Institute of Technology) entwickelte Ansatz bei Aufgaben wie der Identifizierung von Hautläsionen eine höhere Genauigkeit bei gleichzeitig präziseren Erklärungen. Einer der Autoren weist jedoch darauf hin, dass weiterhin erklärbare Modelle oft weniger genau sind als manche Black-Box-Modelle. Hier geht’s zum Artikel!
|
|
|
|
|
|
Follow-Empfehlung
Rina Chandran ist stellvertretende Chefredakteurin beim Online-Magazin „Rest of World”, das über Technologie und ihre Auswirkungen außerhalb westlicher Industrieländer berichtet.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|