„Erlesenes“ ist ein zweiwöchentlicher Newsletter von reframe[Tech] - Algorithmen fürs Gemeinwohl und bietet eine kuratierte Auswahl an wissenschaftlichen Studien, journalistischen Artikeln und Debattenbeiträgen sowie Fundstücken mit Augenzwinkern aus sozialen Medien zum Themenkomplex Algorithmen und KI. Mit „Erlesenes“ wollen wir den Diskurs rund um algorithmische Entscheidungssysteme und ihre Chancen sowie Risiken für das Gemeinwohl einordnen, wir möchten den Blick über den Tellerrand wagen und Perspektiven fernab des dominierenden Diskurses aufgreifen. So wollen wir die Abonnent:innen in dem sich rasch verändernden Themenfeld up-to-date halten. Jede Ausgabe finden Sie auch auf unserem Blog. Hier geht's zum Blog!

 

 

Liebe Leser:innen, 

wussten Sie, dass Google an einem KI-Überwachungsprojekt der US-Grenzschutzbehörde beteiligt ist, obwohl das Unternehmen sich lange damit gebrüstet hat, seine Technologie für so einen Einsatz nicht zur Verfügung zu stellen? „The Intercept“ hat nun einen konkreten Fall aufgedeckt, der den dual use von KI-Systemen in Zeiten der stärkeren Verbreitung von Überwachungstechnologien zeigt.

Aber keine Sorge, wir haben auch Lichtblicke im Gepäck: Ein Beispiel zeigt, wie der Seestern die Entwicklung eines Geräts zur besseren Herzüberwachung inspiriert hat. Und auch Neuigkeiten im Rechtsstreit um Urheberrechtsfragen zwischen OpenAI und der New York Times machen Hoffnungen.

Außerdem: Eine Studie hat den Einsatz von KI bei Wahlen in 15 Ländern untersucht.

 Viel Spaß beim Lesen wünschen  

Elena und Teresa 

Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: www.reframetech.de/newsletter/

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.

Grenzenlos überwacht

Google Is Helping the Trump Administration Deploy AI Along the Mexican Border. The Intercept, 3.4.2025
Technologien, die eigentlich unser Leben erleichtern sollen, werden zunehmend auch zu Überwachungszwecken eingesetzt. Wie das Magazin „The Intercept“ berichtet, beteiligt sich Google – entgegen früheren Aussagen – an einem KI-Überwachungsprojekt der US-Grenzschutzbehörde CBP (Customs and Border Protection). Während Thomas Kurian, CEO von Google Cloud, noch 2020 den Mitarbeitenden versicherte, das Unternehmen arbeite „nicht an Projekten im Zusammenhang mit der Durchsetzung von Einwanderungsgesetzen an der Südgrenze“, zeigen Vertragsdokumente nun das Gegenteil. Im Zentrum des Projekts steht die Modernisierung von Videoüberwachungstürmen im US-Bundesstaat Arizona. Google stellt dafür eine zentrale Cloud-Plattform namens MAGE (ModulAr Google Cloud Platform Environment) zur Verfügung, die als Drehscheibe für Videoüberwachungsdaten dient und KI-Analysetools hostet. Die Technologie soll es ermöglichen, Personen und Fahrzeuge automatisch zu erkennen, wenn sie sich der Grenze nähern – ohne menschliche Überwachung. Kritiker:innen bezeichnen das Projekt als „KI-gestützte Geldverschwendung“ und warnen, dass Grenzgemeinden den Preis mit ihrer Privatsphäre zahlen.
Hier geht’s zum Artikel!

Von der Natur inspiriert

Scientists unveil starfish-inspired wearable tech for heart monitoring, Show Me Mizzou, 2.4.2025
Vielleicht ist es Ihnen schon einmal aufgefallen, dass Ihre Smartwatch Herzdaten liefert, die oftmals unzuverlässig sind, besonders wenn Sie sich bewegen. Forscher:innen der Universität von Missouri haben dafür eine kreative Lösung gefunden, inspiriert von einem unerwarteten Vorbild aus dem Meer: dem Seestern. Das neu entwickelte tragbare Gerät in Seesternform nutzt dessen spezielle fünfarmige Struktur, um stabiler am Körper zu haften als herkömmliche Geräte. „Ähnlich wie ein Seestern hat unser Gerät fünf Arme, die jeweils mit Sensoren ausgestattet sind“, erklärt Sicheng Chen, einer der Hauptautor:innen der Studie. Diese erfassen gleichzeitig die elektrische und mechanische Aktivität des Herzens – auch bei Bewegung. Die integrierte KI-Technologie filtert bewegungsbedingte Störungen heraus und analysiert die Signale in Echtzeit. Die Daten werden direkt an eine Smartphone-App übermittelt und können von Ärzt:innen eingesehen werden. Mit einer Genauigkeit von über 90 Prozent bei der Erkennung von Herzerkrankungen macht das Gerät die Herzüberwachung für Patient:innen deutlich zuverlässiger.
Hier geht‘s zum Artikel!

 

KI-Wettrüsten: Nicht nur Silicon Valley spielt mit

The AI Race Has Gotten Crowded – and China Is Closing In on the US, WIRED, 7.4.2025
Erinnern Sie sich noch, als ChatGPT vor drei Jahren scheinbar aus dem Nichts auftauchte und nur zwei US-Unternehmen dominierten? Der aktuelle 2025 AI Index der Universität Stanford zeigt, dass sich der globale KI-Wettbewerb verschärft hat. Neben OpenAI und Google drängen nun auch Meta, Anthropic und Elon Musks xAI auf den Markt. Auch das chinesische Unternehmen DeepSeek ist der US-Konkurrenz trotz amerikanischer Chip-Beschränkungen dicht auf den Fersen. „Es ist gut, dass diese Modelle nicht alle von fünf Leuten im Silicon Valley entwickelt werden“, sagt Vanessa Parli, Forschungsdirektorin am HAI, dem Stanford Institute for Human-Centered AI (Stanford-Institut für menschenzentrierte KI). Zudem beobachtet sie den Trend, dass, während Unternehmen Geheimhaltung betreiben, die akademische KI-Forschung an Qualität und Bedeutung gewinnt. Diese technologischen Entwicklungen haben auch Auswirkungen auf den Arbeitsmarkt. Die Nachfrage nach Fachkräften steigt, während immer mehr Menschen erwarten, dass KI-Technologien ihre Arbeitsplätze verändern werden. Klar ist, die Technologie entwickelt sich in einem rasanten Tempo. Umso wichtiger wird es sein, mehr Aufmerksamkeit auf Sicherheit, verantwortungsvollere Systeme und ethische Nutzung zu richten.
Hier geht's zum Artikel!

NYT gewinnt Runde im ChatGPT-Urheberrechtsstreit

Judge calls out OpenAI’s „straw man“ argument in New York Times copyright suit, ArsTechnica, 4.4.2025
Während Medienunternehmen um ihre Inhalte kämpfen, beschäftigen sich Gerichte mit der Frage, woher KI-Systeme wie ChatGPT ihr „Wissen“ beziehen (Erlesenes berichtete). In einem aktuellen Urteil wies der US-Bezirksrichter Sidney Stein den Antrag von OpenAI zurück, eine Urheberrechtsklage der New York Times (NYT) abzuweisen. Die Zeitung wirft dem KI-Unternehmen vor, ChatGPT reproduziere urheberrechtlich geschützte Nachrichtenartikel. Das Argument von OpenAI, dass die NYT bereits 2020 hätte wissen müssen, dass ChatGPT auf ihre Artikel trainiert wurde, überzeugte den Richter nicht: „Die Tatsache, dass ein:e Reporter:in über das KI-Training von OpenAI gesprochen hat, zeigt nicht, dass die Zeitung wusste, dass ChatGPT möglicherweise Jahre später die Berichterstattung reproduzieren könnte“. Außerdem sieht es der Richter als plausibel an, dass OpenAI zur Urheberrechtsverletzung durch ChatGPT-Nutzer:innen beitragen könnte. Die NYT hatte mehr als 100 Seiten mit Beispielen vorgelegt, die zeigen, wie ChatGPT Teile von bezahlten Artikeln in den generierten Antworten wiedergibt. OpenAI hält an seiner Position fest, dass das Training von KI mit urheberrechtlich geschützten Werken eine „faire Nutzung“ darstellt.
Hier geht’s zum Artikel!

 

KI bei Wahlen: Die ersten Learnings

What we learned from tracking AI use in global elections, Rest of World, 8.4.2025
2024 wurde oft als das Jahr der „KI-Wahlen“ bezeichnet (Erlesenes berichtete), mit düsteren Vorhersagen über einen „Tsunami an Fehlinformationen“. Die Realität zeigt jedoch ein differenzierteres Bild. Eine Studie des Onlinemagazins Rest of World hat den Einsatz von KI bei Wahlen in 15 Ländern untersucht. Die Ergebnisse zeigen, dass KI zwar vielfältig eingesetzt wurde, aber nicht die befürchtete Informationskrise auslöste. Politiker:innen nutzten KI hauptsächlich für ihre Kommunikation: So hielt z. B. der inhaftierte Ex-Premierminister Imran Khan eine Rede mithilfe von KI. Bürger:innen hingegen erstellten hauptsächlich spielerische Inhalte wie Memes: In Südafrika etwa visualisierten Nutzer:innen, wie das Land unter Präsidentschaftskandidat Julius Malema aussehen würde. Ein Problem bleibt jedoch die Medienkompetenz. Eine Studie in Indonesien ergab, dass 63 Prozent der Befragten glauben, dass KI-Inhalte ihre politischen Ansichten beeinflussen könnten. Und viele Menschen, vor allem ältere, konnten KI-generierte Inhalte nicht zuverlässig erkennen. Expert:innen sehen 2024 als „Generalprobe“, denn die Technologie wird immer besser. Besorgniserregend ist zudem, dass Plattformen wie Meta ihre Faktenprüfungen einschränken, was angesichts der bevorstehenden Wahlen im Jahr 2025 kritische Auswirkungen haben könnte.
Hier geht’s zum Artikel!

 
Bunte Spielfiguren zu sehen

Follow-Empfehlung

Aarushi Gupta

Aarushi Gupta ist Senior Research Manager am Digital Futures Lab und arbeitet zu ethischen Fragen von KI und deren Auswirkungen auf gesellschaftliche Ungleichheiten

Verlesenes

KI hat entschieden: Pogačar gewinnt jetzt einfach alles

Roboter, der mit der rechten Hand sehr nachdenklich den Kopf berührt