„Erlesenes“ ist ein zweiwöchentlicher Newsletter von reframe[Tech] - Algorithmen fürs Gemeinwohl und bietet eine kuratierte Auswahl an wissenschaftlichen Studien, journalistischen Artikeln und Debattenbeiträgen sowie Fundstücken mit Augenzwinkern aus sozialen Medien zum Themenkomplex Algorithmen und KI. Mit „Erlesenes“ wollen wir den Diskurs rund um algorithmische Entscheidungssysteme und ihre Chancen sowie Risiken für das Gemeinwohl einordnen, wir möchten den Blick über den Tellerrand wagen und Perspektiven fernab des dominierenden Diskurses aufgreifen. So wollen wir die Abonnent:innen in dem sich rasch verändernden Themenfeld up-to-date halten. Jede Ausgabe finden Sie auch auf unserem Blog. Hier geht's zum Blog!

 

 

Liebe Leser:innen,

die Forderung, dass sowohl Chancen als auch Risiken von algorithmischen Entscheidungssystemen und KI Beachtung finden sollten, mag abgedroschen klingen, in der Realität liegen aber Licht und Schatten der Technologien nach wie vor dicht beieinander: Während Audioerkennung etwa Walen das Leben rettet, können Fehler maschineller Übersetzungen Menschenleben gefährden. Forscher:innen können nun mithilfe von KI Proteine entwickeln, die neue Medikamente ermöglichen sollen. In Südafrika setzt Kreditscoring derweil strukturelle Diskriminierungen der Apartheid fort. Mehr über diese Fallbeispiele findet sich in der neusten Ausgabe von „Erlesenes“!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei Twitter unter @reframeTech.

Viel Spaß beim Lesen wünschen

Teresa und Michael

Audioerkennung rettet Walleben?

Whale Safe project trials mic’d buoys with AI scanning to help prevent ship strikes, 28.9.2022, The Verge
Algorithmen können uns dabei helfen zu erkennen, in welcher Sprache eine Person spricht. Forscher:innen des Benioff Ocean Science Laboratory nutzen Software nun aber dafür, anhand von Walgesängen die entsprechende Spezies zu identifizieren. Dies dient nicht nur der Forschung: Entsprechende Sensorik ist inzwischen auf Bojen in den Häfen von Los Angeles oder Long Beach installiert, um den Standort der Wale und die Richtung, in die sie schwimmen, zu erkennen. Dafür werden die Daten alle zwei Stunden an die Forscher:innen zur Überprüfung geschickt, welche die Daten außerdem mit Berichten über den Seegang kombinieren. So entsteht nicht nur eine Live-Karte der Walpopulation in der Bucht, sondern auch ein Frühwarnsystem für Schiffe: Die Forscher:innen können sie vor einer möglichen Kollision warnen, wenn sie sich dem Hafen nähern. Damit konnte die Anzahl der für die Tiere meist tödlichen Unfälle von über 80 Kollisionen pro Jahr verringert werden.
Hier geht’s zum Artikel!

Maschinelle Übersetzung gefährdet Menschenleben?

Death by Machine Translation?, 21.9.2022, Slate
Wo wir gerade bei maschinellen Übersetzungen sind: Sicherlich hat jede:r von uns schon einmal einen Text falsch übersetzt bekommen. Auch wenn wir über falsch übersetzte Texte oft lächeln, können solche Fehler auch konkrete Risiken mit sich bringen. Die freie Journalistin Sofia Quaglia sammelt in diesem Artikel einige erschreckende Beispiele, wie sehr offizielle Stellen teilweise auf algorithmische Übersetzungen vertrauen. Da ist etwa die Geschichte eines jungen Bauarbeiters aus Israel, der 2017 ein Bild eines Baggers mit „guten Morgen“ auf Arabisch untertitelte. Facebooks Software übersetzte die Bildunterschrift aber in „hurt them“ auf Englisch, was die israelische Polizei las und den jungen Mann daraufhin kurzzeitig verhaftete und befragte. Dieses und weitere Beispiele zeigen, dass viele Behörden keine klare Regelung dafür haben, wann sie auf maschinelle Übersetzungsdienste zurückgreifen dürfen oder welche Kontrollmechanismen bestehen müssen, um Fehler aufzudecken. Ebenso zeigen sie, wie wichtig es ist, dass Behördenmitarbeitende ein Bewusstsein für die Stärken und gerade auch Schwächen von Übersetzungssoftware haben.
Hier geht’s zum Artikel!

 

Künstliche Proteine mithilfe Künstlicher Intelligenz entwickeln

Scientists are using AI to dream up revolutionary new proteins, 15.9.2022, Nature
Das Programm AlphaFold ging vor einiger Zeit durch die Medien: Mithilfe von einem System maschinellen Lernens wurden dabei bekannte Proteinstrukturen simuliert, was dabei helfen kann, schneller und effektiver Medikamente zu entwickeln. Nun sind Forscher:innen noch einen Schritt weiter gekommen: Sie können komplett neue und unbekannte Proteinstrukturen „erfinden“. Erst im Juni dieses Jahres wurde in Südkorea erstmals ein Medizinprodukt zugelassen, das auf einem solchen maschinell generierten Protein basiert. Für die Entwicklung dieser Coronaimpfung waren Monate an Arbeit notwendig. Ein Team um David Baker an der Universität Washington in Seattle kann nun neue Moleküle in Sekunden erstellen. Dieses Projekt ist einer von inzwischen weltweit rund 40 Ansätzen zum KI-basierten Design von Proteinen. Und auch wenn von diesen maschinell geschaffenen Proteinen nur etwa eines von zehn stabil ist, hoffen Forscher:innen bereits darauf, dass sie so neue Medikamente oder Materialien werden entwickeln können.
Hier geht's zum Artikel!

Wenn Rassismus Teil der technischen Infrastruktur wird

Apartheid by Algorithm, 22.8.2022, Logic
Julien Migozzi, Forscher an der University of Oxford zeigt in diesem Artikel, welche Auswirkungen der zunehmende Einsatz von Algorithmen in der südafrikanischen Gesellschaft hat. Das kommt nicht von ungefähr: Algorithmische Technologien seien in Südafrika besonders fortgeschritten, weil sie auf ähnlichen Prinzipien beruhen wie die historische, rassistische soziale Kontrolle in diesem Land. Das Beispiel Kreditscoring zeigt auf, was diese Verbindung heute bedeutet: Sie führt dazu, dass unter der Apartheid benachteiligte Gruppen heute eine deutlich niedrigere Kreditwürdigkeit zugesprochen bekommen, obwohl rechtlich keine Diskriminierung erlaubt ist. Das liegt unter anderem daran, dass diese Bevölkerungsgruppen aufgrund geringerer Erbschaften im Schnitt weniger wertvolle Immobilien besitzt als Weiße. Migozzi verweist in diesem Artikel ausführlich auf den historischen Hintergrund und schlussfolgert, dass diese Scoring-Algorithmen bestehende Ungleichheiten zementieren: Segregation, die zuvor von öffentlichen Institutionen durchgesetzt wurde, ist jetzt ein großes Geschäft, angetrieben von Big Data.
Hier geht's zum Artikel!

 
 
Bunte Spielfiguren zu sehen

Follow-Empfehlung

Julien Migozzi

Der Autor des letzten Artikels und forscht zu Technologie, Urbanismus und Segregation

Verlesenes

Vielleicht ist Bildgenerierung doch eher Zufall und braucht gar keine präzisen Prompts?

Sprechblase von einer Hand gehalten mit zwei Twitter-Tauben drin