|
„Erlesenes“ ist ein zweiwöchentlicher Newsletter von reframe[Tech] - Algorithmen fürs Gemeinwohl und bietet eine kuratierte Auswahl an wissenschaftlichen Studien, journalistischen Artikeln und Debattenbeiträgen sowie Fundstücken mit Augenzwinkern aus sozialen Medien zum Themenkomplex Algorithmen und KI. Mit „Erlesenes“ wollen wir den Diskurs rund um algorithmische Entscheidungssysteme und ihre Chancen sowie Risiken für das Gemeinwohl einordnen, wir möchten den Blick über den Tellerrand wagen und Perspektiven fernab des dominierenden Diskurses aufgreifen. So wollen wir die Abonnent:innen in dem sich rasch verändernden Themenfeld up-to-date halten. Jede Ausgabe finden Sie auch auf unserem Blog. Hier geht's zum Blog!
|
|
|
|
|
>
|
|
|
|
|
Liebe Leser:innen,
was bedeutet Sicherheit im Kontext von Künstlicher Intelligenz (KI) und insbesondere beim konkreten Einsatz der Technologie? Das mag man sich fragen, wenn man die heutige Erlesenes-Ausgabe liest.
Werden wir konkreter: Was bedeutet der aktuelle Streit zwischen dem KI-Unternehmen Anthropic und dem US-Verteidigungsministerium für die Grenzen militärischer KI-Nutzung? Was sagt es über den Stand der KI-Sicherheit aus, wenn ausgerechnet eine frühere Leiterin von Responsible-AI-Teams warnt, dass es keine wissenschaftlich belastbaren Testmethoden für generative Modelle gibt?
Die Frage nach belastbaren Benchmarks führt direkt zur nächsten: Was taugen Sicherheitsbenchmarks, wenn sie außerhalb ihres englischen Trainingskontexts, etwa in afrikanischen Sprachen, systematisch an Leistung verlieren?
Ein positives Beispiel darf nicht fehlen: Was bedeutet es für die digitale Souveränität Afrikas, wenn Sprachdaten nicht von Techkonzernen kontrolliert, sondern von lokalen Institutionen besessen und offen lizenziert werden?
Außerdem: Sind agentenbasierte KI-Systeme am Ende nichts anderes als „stochastische Schwärme“, die statistische Muster neu kombinieren?
Viel Spaß beim Lesen wünschen
Elena und Teresa
Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: www.reframetech.de/newsletter/
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.
|
|
|
|
|
Wenn Sicherheit auf Militärinteressen trifft
US military leaders pressure Anthropic to bend Claude safeguards, The Guardian, 25.2.2026
Das Unternehmen Anthropic, das sich unter den großen KI-Anbietern als sicherheitsorientierter präsentiert, steht derzeit unter Druck des US-Militärs. Verteidigungsminister Pete Hegseth hat dem Unternehmen laut Berichten eine Frist gesetzt, um den Bedingungen des Ministeriums zuzustimmen. Andernfalls drohen Strafmaßnahmen. US-Verteidigungsbeamte fordern nämlich uneingeschränkten Zugang zu den Funktionen des KI-Sprachmodells Claude, doch Anthropic weigert sich, sein Modell für Massenüberwachung oder autonome Waffensysteme ohne menschliche Kontrolle freizugeben. Bereits im Juli 2025 schloss das Verteidigungsministerium Verträge mit mehreren großen KI-Unternehmen, darunter Anthropic, Google und OpenAI, im Wert von bis zu 200 Millionen Dollar. Bis vor Kurzem war Claude das einzige Modell, das in geheimen Militärsystemen eingesetzt werden durfte, wie etwa bei der Ergreifung von Venezuelas Präsidenten Maduro. Inzwischen unterzeichnete das Pentagon allerdings auch Vereinbarungen mit xAI von Elon Musk sowie mit OpenAI, deren Modelle laut Berichte für alle rechtmäßigen Zwecke genutzt werden können. Das passt in ein größeres Bild: Das Pentagon investiert seit Jahren Milliarden US-Dollar in KI-gestützte Technologien. Zusätzlich beleuchtet der Beitrag die parteipolitische Dimension des Streits, etwa durch Hinweise auf Amodeis Engagement für schärfere KI-Regulierung und die Verbindungen Anthropics zu Akteuren aus dem Umfeld der Biden-Regierung. Hier geht’s zum Artikel!
|
Von Papageien und Code
Stochastic Flocks and the Critical Problem of 'Useful' AI, TechPolicy Press, 22.2.2026
KI-Technologien entwickeln sich stetig weiter. Die aktuelle Debatte dreht sich um „agentenbasierte KI“. Dabei handelt es sich um Systeme, die nicht mehr nur Text generieren, sondern „eigenständig“ Code schreiben, Programme ausführen und mehrstufige Aufgaben übernehmen. Eryk Salvaggio beschreibt diese Entwicklung als einen „stochastischen Schwarm“. In Anlehnung an die von Emily Bender und Timnit Gebru geprägte Metapher der stochastischen Papageien – also Systeme, die lediglich statistisch wahrscheinliche Muster aus Trainingsdaten reproduzieren – meint er damit Systeme, die parallel Outputs erzeugen, diese miteinander abgleichen und weiterverarbeiten. Der Autor argumentiert jedoch, dass sich damit die grundlegenden Probleme nicht erledigen: Die Modelle bleiben statistische Mustererkenner, auch wenn sie nun im „Schwarm zusammenarbeiten“ zu scheinen. Fehler können sich dabei unbemerkt verstärken, besonders wenn der erzeugte Code in sensiblen Bereichen wie der Verwaltung oder bei Sozialleistungen eingesetzt wird. Dadurch entstehe eine Situation, die einem unregulierten Luftraum ähnele. Salvaggios warnt vor einer Kultur, in der immer mehr gesellschaftliche Fragen als technische Probleme behandelt werden, die sich mit neuem Code lösen lassen. Entscheidend sei daher nicht nur, was die Systeme können, sondern wem sie nützen, wer die Risiken trägt und welche politischen Entscheidungen stillschweigend an automatisierte Systeme ausgelagert werden. Hier geht‘s zum Artikel!
|
|
|
|
|
Pilot-Fegefeuer?!
World lacks rigorous scientific methods to test AI safety: Rumman Chowdhury, Hindustan Times, 19.2.2026
Datenwissenschaftlerin und KI-Ethikerin Rumman Chowdhury hat bereits zweimal erlebt, wie Teams für „verantwortungsvolle KI“ aufgelöst wurden: zunächst bei Twitter nach der Übernahme durch Elon Musk, später im US-Verteidigungsministerium nach politischer Umstrukturierung und der Rücknahme von KI-Regulierung durch Präsident Donald Trump. Entsprechend kritisch fällt ihre Bilanz anlässlich des AI Impact Summits in Indien aus: Freiwillige Selbstverpflichtungen und Ethik-Teams reichen nicht aus, wenn sie von Unternehmens- und Regierungswechseln abhängig sind. Außerdem seien die verfügbaren Testinstrumente zur Bewertung von KI-Systemen wissenschaftlich unzureichend. Benchmarks seien im Grunde nichts anderes als Frage-Antwort-Paare und niemand könne sagen, wer entscheidet, dass sie repräsentativ sind. Das zugrunde liegende Problem ist, dass die für eine frühere Generation von Technologien entwickelten Bewertungsmethoden überholt sind. In der Branche wird dieses Ergebnis „Pilot-Fegefeuer“ genannt: Modelle verbleiben in Testumgebungen, ohne realistisch überprüft zu werden. Doch selbst dort, wo man versucht, Verantwortung organisatorisch zu verankern, hängt die Wirksamkeit davon ab, wo die Teams für KI-Ethik innerhalb einer Organisation angesiedelt sind. Sie seien nur wirksam, wenn sie im Produktteam verortet sind und nicht als reine Policy- oder Forschungsabteilungen am Rand stehen. Außerdem brauche nachhaltige KI-Governance verbindliche gesetzliche Vorgaben statt freiwillige PR-Zusagen. Als Beispiel nennt sie den Digital Services Act der EU, der klare Maßstäbe festschreibt. Hier geht's zum Artikel!
|
Wie sprachneutral ist Sicherheit?
UbuntuGuard: A Culturally-Grounded Policy Benchmark for Equitable AI, arxiv.org, 19.1.2026
Große Sprachmodelle werden weltweit eingesetzt, ihre Schutzvorkehrungen wurden jedoch meist auf Englisch entwickelt und getestet. Genau das wird zum Problem, sobald sie in nicht englischsprachigen Sprachräumen eingesetzt werden. Ein Forschungsteam hat deswegen mit „UbuntuGuard“, einem Datensatz zur Überprüfung von Sicherheitsmechanismen, untersucht, wie zuverlässig diese in zehn afrikanischen Sprachen funktionieren. Dazu haben 155 Expert:innen aus Ghana, Nigeria, Südafrika, Uganda, Kenia und Malawi über 8.000 sensible Anfragen formuliert, die beispielsweise die Themen Gewalt, Gesundheit oder politische Manipulation behandeln. Aus diesen Fällen wurden Regeln abgeleitet und Beispielgespräche erstellt, die anschließend in die jeweiligen Sprachen übertragen wurden. Getestet wurden so 13 große Sprachmodelle. Die Ergebnisse bestätigen, dass viele Systeme in englischen Umgebungen deutlich besser abschneiden als in afrikanischen Sprachen. Bleiben die Regeln auf Englisch und wechselt nur die Anfrage in eine afrikanische Sprache, verschlechtert sich die Leistung dennoch. Robust wirken viele Modelle vor allem dort, wo sie auch trainiert wurden. Die Ergebnisse unterstreichen daher den dringenden Bedarf an mehrsprachigen, kulturell verankerten Sicherheitsbenchmarks, um verlässliche und gerechte Prüfmodelle auch für ressourcenschwache, also datenarme Sprachen zu entwickeln. Hier geht’s zum Artikel!
|
|
|
|
|
Vom Datensatz zur Datensouveränität
Google backs African push to reclaim AI language data, Rest of World, 11.2.2026
Wer mit einem KI-System in einer afrikanischen Sprache interagiert, erhält oft keine verlässliche Antwort. Selbst wenn das System eine Antwort generiert, sind die Ergebnisse häufig fehlerhaft. Google hat nun einen Schritt unternommen, der über die üblichen technischen Lösungen hinausgeht. Das Unternehmen hat „WAXAL“ veröffentlicht, einen Datensatz für 21 afrikanische Sprachen, darunter Acholi, Hausa, Luganda und Yoruba. Der Name leitet sich vom Wolof-Wort für „sprechen“ ab. Der Datensatz wurde über einen Zeitraum von drei Jahren entwickelt, enthält über 11.000 Stunden Sprachdaten und gehört den afrikanischen Partner:innen, die an dem Projekt mitgearbeitet haben – nicht Google. Da die Daten unter einer offenen Lizenz stehen, die auch die kommerzielle Nutzung erlaubt, ist die Hoffnung, dass afrikanische Entwickler:innen in die Lage versetzt werden, eigene Anwendungen aufbauen zu können, ohne von Silicon Valley anhängig zu sein. Sechs weitere Sprachen sind aktuell in Vorbereitung, wenngleich die große Dialektvielfalt auf dem Kontinent weiterhin eine technische Herausforderung darstellt. Die Universität von Ghana nutzt die Daten bereits für die Forschung im Bereich der Gesundheitsversorgung von Müttern. Der nigerianische Linguist Kola Tubosun weist jedoch auf das Problem hin, dass den von Google veröffentlichten Yoruba-Daten diakritische Zeichen fehlen, was die Leistung der Text-to-Speech-Funktion erheblich beeinträchtigen könnte. Hier geht’s zum Artikel!
|
|
|
|
|
|
Follow-Empfehlung
Dr. Rumman Chowdhury ist renommierte Datenwissenschaftlerin und KI-Expertin.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|