„Erlesenes" ist ein zweiwöchentlicher Newsletter von reframe[Tech] - Algorithmen fürs Gemeinwohl und bietet eine kuratierte Auswahl an wissenschaftlichen Studien, journalistischen Artikeln und Debattenbeiträgen sowie Fundstücken mit Augenzwinkern aus sozialen Medien zum Themenkomplex Algorithmen und KI. Mit „Erlesenes" wollen wir den Diskurs rund um algorithmische Entscheidungssysteme und ihre Chancen sowie Risiken für das Gemeinwohl einordnen, wir möchten den Blick über den Tellerrand wagen und Perspektiven fernab des dominierenden Diskurses aufgreifen. So wollen wir die Abonnent:innen in dem sich rasch verändernden Themenfeld up-to-date halten. Jede Ausgabe finden Sie auch auf unserem Blog. Hier geht's zum Blog!

 

 

Liebe Leser:innen,

das Warten hat ein Ende: Erlesenes ist zurück! Wir – Michael Puntschuh und Teresa Staiger – werden zweiwöchentlich die Welt der Algorithmen und Künstlichen Intelligenz (KI) durchforsten und Ihnen fortan mit diesem Newsletter eine kuratierte Auswahl an Artikeln, Studien und Beiträgen zusammenstellen. Wir wollen die Einordnung erleichtern und gemeinwohlorientierten Algorithmeneinsätzen mehr Raum geben, ohne die Augen vor den Risiken zu verschließen.

Aus Ethik der Algorithmen wird reframe[Tech]! Wir haben uns inhaltlich weiterentwickelt und setzen uns im Projekt reframe[Tech] – Algorithmen fürs Gemeinwohl dafür ein, dass sich die Entwicklung und der Einsatz von Algorithmen und KI stärker am Gemeinwohl ausrichten. Dennoch: Die Auseinandersetzung mit ethischen Prinzipien hat natürlich nicht an Relevanz verloren. Der Artikel The AI ethicist’s dilemma ist ein schöner Denkanstoß zu den moralischen Fallstricken einer/eines jeden, die/der sich mit der Stärkung des Gemeinwohls im Tech-Sektor beschäftigt.

Weiter geht es mit einer spannenden Studie, die sich die derzeit diskutierte EU-Verordnung zu Künstlicher Intelligenz genauer anschaut und den sogenannten „Brüssel-Effekt“ thematisiert. Die beiden Wissenschaftler:innen legen dar, wie Regulierung Schule machen kann – auch außerhalb ihres Geltungsbereichs. Wie wichtig die Regulierung besonders von Hochrisikosystemen ist, zeigt der dritte Artikel zum Einsatz von automatischer Gesichtserkennung in Indien, bei der unschuldige Menschen Gefahr laufen, ins Visier der Polizei zu geraten.

Getreu unserem Projektnamen zeigen wir an zwei Fallbeispielen gemeinwohlorientierte Einsatzmöglichkeiten algorithmischer Systeme auf. Das Beispiel des „Great Reef Census“ zeigt etwa sehr schön, wie Engagement in Form von Citizen Science Hand in Hand gehen kann mit Maschinellem Lernen.

Abgerundet wird die erste Ausgabe „Erlesenes“ von einer Twitter-Followempfehlung für die Schnittstelle Kognitionswissenschaften, KI und Dekolonialismus und mit einem nicht ganz ernst gemeinten Twitter-Video zum Thema „Roboter übernehmen die Weltherrschaft“.

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei Twitter unter @reframeTech.

Viel Spaß beim Lesen wünschen

Teresa und Michael

Macht kaputt, was euch kaputt macht!

The AI ethicist’s dilemma: fighting Big Tech by supporting Big Tech, 08.12.2021, AI Ethics
Welche Strategie ist besser, um das Gemeinwohl im Tech-Sektor zu stärken: Sollten wir versuchen, Unternehmen von innen heraus zu verändern? Oder müssen wir die großen Tech-Konzerne von außen kritisieren, neue Organisationen und Strukturen schaffen? Dies sind Fragen, die auch unserem Projektteam immer wieder durch den Kopf gehen. Glücklicherweise müssen wir uns diesem moralischen Dilemma nicht mehr alleine stellen: Die drei Philosophen Henrik Skaug Sætra, Mark Coeckelbergh und John Danaher vergleichen beide Strategien miteinander. Wenn Ethiker:innen aus den Tech-Konzernen heraus arbeiten und ihre Werkzeuge, wie Soziale Medien, nutzen, könnten sie die unmoralischen Praktiken dieser Unternehmen legitimieren und stabilisieren. Um die Gefahren wirklich zu bändigen, brauche es Disruption, und diese könne nur von außen kommen. Auch wenn Ethiker:innen für grundlegende, systemische Veränderungen einen langen Atem brauchen, lohne es sich, so die Autor:innen. Ein Artikel, der uns in jedem Fall einen Motivationsschub gibt.
Hier geht's zur Studie!

Wird die KI-Verordnung der EU zum Exportschlager?

The Brussels Effect and Artificial Intelligence, 16.8.2022, Centre for the Governance of AI
Der Entwurf der KI-Verordnung der Europäischen Union wird gerade noch diskutiert – da schauen Charlotte Siegmann von der Universität Oxford und Markus Anderljung vom Centre for the Governance of AI bereits auf die Zeit danach. Sie beschäftigen sich in diesem umfangreichen, vorausschauenden Bericht mit der Frage, ob die KI-Verordnung zu einem neuen globalen Standard werden wird. Dass Regulierung auch über den Geltungsbereich hinaus Wirkung entfalten kann, konnte beispielsweise bei der Datenschutz-Grundverordnung beobachtet werden: Der sogenannte „Brüssel-Effekt“ führt dazu, dass Europa aufgrund seiner Marktmacht weltweit den Datenschutz prägt. Folgerichtig gehen die Autor:innen der Frage nach, ob ein ähnlicher Effekt auch bei der KI-Verordnung zu erwarten sei. Ihre Schlussfolgerung: Der Brüssel-Effekt ist insbesondere bei sogenannten „Hochrisiko-Systemen“ zu erwarten. Dies sei aber nur der Fall, wenn die neue Verordnung stringent, in sich schlüssig und zukunftsfähig ist.
Hier geht's zum Bericht!

 

Ist sich die Gesichtserkennung unsicher, greift die Polizei trotzdem ein

The Low Threshold for Face Recognition in New Delhi, 21.8.2022, WIRED
Anfragen nach dem Informationsfreiheitsgesetz haben so manche fragwürdige staatliche Praxis zutage gefördert. So nun auch in Indien, wie Tech-Journalistin Varsha Bansal aus Delhi berichtet. Dort hat eine solche Anfrage nicht nur bestätigt, dass die örtliche Polizei Gesichtserkennungssoftware verwendet, sondern auch, für welche Straftaten und mit welcher (Un)Genauigkeit. So wurde diese KI-Software insbesondere während öffentlicher Unruhen verwendet, um Verdächtige zu erkennen. Dabei reichte der Polizei in Delhi bereits eine 80 Prozent Wahrscheinlichkeit bei der Zuordnung aus, um gegen Verdächtige rechtlich vorzugehen. Und auch bei einer noch niedrigeren Zuordnungswahrscheinlichkeit geraten Personen auf das Radar der Sicherheitsbehörden. Nur zum Vergleich: 80 Prozent war auch die Genauigkeit des KI-Systems, das 28 Mitglieder des US-Kongresses fälschlicherweise als Straftäter:innen identifizierte. Damit haben wir ein weiteres Beispiel, bei dem der Einsatz von Gesichtserkennungssoftware zu hochproblematischen Ergebnissen führt.
Hier geht's zum Artikel!

Die KI, die nachts trainiert

How to shrink AI’s ballooning carbon footprint, 19.7.2022, Nature
Doch es gibt auch gute Nachrichten: Eine kanadisch/US-amerikanische Forschungsgruppe hat sich mit dem Problem beschäftigt, dass das Training von großen KI-Systemen viel Energie verbraucht und damit dem Klima schadet. In einem Artikel fasst Elizabeth Gibney die Ergebnisse der Forscher:innen zusammen: Der CO2-Fußabdruck der KI kann um ein Drittel reduziert werden, wenn darauf geachtet wird, wo und wann sie trainiert wird. Wenig überraschend ist dabei beispielsweise die Erkenntnis, dass das Training einer KI in Norwegen (mit Energie aus beinahe 100 Prozent Wasserkraft) umweltfreundlicher verläuft als in Deutschland. Schon wesentlich spannender ist etwa das Ergebnis, dass auch die Uhrzeit eine Rolle spielt: So wird der Energiebedarf im US-Bundesstaat Washington nachts mit Wasserkraft gedeckt. Solche und weitere Erwägungen können in Zukunft dabei helfen, diejenigen Rechenzentren und Trainingszeiten zu wählen, die eine möglichst geringe Auswirkung auf die Umwelt haben. Wenn das einmal gegeben ist, brauchen wir vielleicht bald einen Algorithmus, um die optimalen Trainingszeiten für andere Algorithmen zu berechnen.
Hier geht's zum Artikel!

 

Crowdsourcing zur Korallenerkennung hilft beim Umweltschutz

Artificial Intelligence and Deep Learning Models Will Be Used to Protect the Great Barrier Reef, 26.08.2022, Tech Times
In Australien können nun alle zum Schutz des Great Barrier Reefs beitragen: Sogenannte „Citizen Scientists“ schossen bereits etwa 52.000 Fotos von Korallen, welche dann von einer KI-Bilderkennung analysiert werden. So werden besonders gefährdete Bereiche des über 2.300 km langen Riffs schnell identifiziert, etwa indem verbleichende Korallen oder korallenfressende Seesterne erkannt werden. So entsteht ein „Great Reef Census“. Die Erkenntnisse werden dann mit den Forscher:innen der Universitäten Queensland und James Cook geteilt, um Schutzmaßnahmen zu konzentrieren. Während bisher nur etwa 5 bis 10 Prozent der insgesamt etwa 3.000 individuellen Riffe kontrolliert werden konnten, können nun Australier:innen und Touristen dieses Überwachungsnetz deutlich weiter spannen und eigene Bilder der Korallen zur Analyse einsenden. So bleibt die Hoffnung, Teile des – auch aufgrund des Klimawandels – sterbenden Riffs zu retten.
Hier geht's zum Artikel!

 
Bunte Spielfiguren zu sehen

Follow-Empfehlung

Abeba Birhane

Kognitionswissenschaftlerin und aktuell Senior Fellow im Bereich vertrauenswürdige KI bei der Mozilla Foundation. Sie twittert regelmäßig zur Schnittstelle von Kognitionswissenschaft, KI und Dekolonialismus.

Verlesenes

Übernehmen Roboter morgen schon die Weltherrschaft?

Sprechblase von einer Hand gehalten mit zwei Twitter-Tauben drin