07.02.2019
Willkommen zur 55. Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".
Diese Woche erwartet Sie eine thematische Reise um die Welt: Was erarbeitet die Europäische Kommission gerade in Brüssel zu Künstlicher Intelligenz (KI)? Wieso könnte Chinas Antikorruptionsalgorithmus wohlmöglich zu effizient sein? Wie trägt der amerikanische IT-Konzern IBM zur Vielfalt in Datensätzen bei? Um diese und viele weitere spannende Fragen geht es im neuen Erlesenes-Newsletter.
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leserinnen und Lesern. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.
Eine Million Bilder für gleichberechtigte Gesichtserkennung
30. Januar 2019, Golem.de
IBM will einen Beitrag dazu leisten, dass Gesichtserkennungsalgorithmen Personen aus unterrepräsentierten Gruppen nicht mehr diskriminieren. Dafür veröffentlicht der IT-Konzern als einer der ersten einen eine Million verschiedene Gesichter umfassenden Datensatz. Wie aufmerksame Leser:innen von Erlesenes wissen, stellen häufig nicht die Algorithmen an sich das Problem dar, sondern einseitiges, vorurteilsbehaftetes Datenmaterial. Oliver Nickel, Volontär bei Golem.de, berichtet mit Bezug auf einen Blogbeitrag des Konzerns über den Vorstoß. Der Datensatz stehe unter einer Creative-Commons-Lizenz und repräsentiere eine ethnisch und geschlechtlich möglichst gleichmäßig verteilte Sammlung von Gesichtern verschiedenen Alters. Erste Tests seien positiv verlaufen. Das Unternehmen hofft, dass Entwickler:innen und Forscher:innen von Gesichtserkennungssoftware die Daten zum Trainieren ihrer Modelle verwenden. IBM nutzt mit dem Schritt die Gelegenheit, das Thema Vielfalt ernster zu nehmen. (Zu dem Thema empfehlen wir auch einen Blick in Erlesenes #52 "Gesichtserkennungs-KI hat rassistische Vorurteile” und Erlesenes #54 “Eine Frau mit kurzen Haaren verwirrt die Gesichtserkennung”).
Europäische Kommission zu Künstlicher Intelligenz (KI): Ohne Ethik kann es kein Vertrauen geben
31. Januar 2019, Frankfurter Allgemeine Zeitung
Eine von der Europäischen Kommission eingesetzte Expert:innengruppe erarbeitet seit Juni vergangenen Jahres Leitlinien für Künstliche Intelligenz (KI). In diesem Gastbeitrag gibt ihr Vorsitzender, Pekka Ala-Pietilä, einen Überblick über die Ziele, Herangehensweise und die von den 52 Fachpersonen aus 28 Staaten identifizierten Herausforderungen. Gemäß Ala-Pietilä lassen sich für KI drei grundsätzliche Märkte unterscheiden: Endverbraucher, Geschäftskunden und öffentliche Verwaltung. Besonders in den zwei letztgenannten Bereichen könne Europa viel bewirken. Voraussetzung dafür sei ein Vertrauen in die Technologie, weshalb der Fokus auf Ethik eine so große Bedeutung habe. Denn ohne Ethik gebe es kein Vertrauen. Mangelndes Bewusstsein für ethische Fragen könne gar zum Gegenteil dessen führen, was mit dem Einsatz von KI bezweckt ist, schreibt Ala-Pietilä. Anfang April 2019 soll die finale Fassung der Leitlinien der Öffentlichkeit vorgestellt werden und weitere internationale Diskussionen anreichern.
Chinas Antikorruptionsalgorithmus fällt in Ungnade
(Is Chinas fraud-busting AI system ‘Zero Trust’ being turned off for being too efficient?), 4. Februar 2019, South China Morning Post
Seit 2012 hat ein Algorithmus in China fast 9000 staatliche Angestellte bei vermuteter Korruption ertappt. Doch obwohl der Algorithmus effektiv arbeite und eine geringe Fehlerquote habe, falle er verstärkt in Ungnade – laut Stephen Chen, Reporter bei der in Hong Kong ansässigen South China Morning Post, womöglich gerade, weil er so gut funktioniert. Eine Schwäche der Software sei, dass sie wenig Einblick gebe, wie sie zu ihren Schlüssen kommt. In bisher 30 Bezirken und Städten eingesetzt, analysiert der Algorithmus unter anderem soziale Beziehungen von Beamt:innen und greift dafür auch auf zahlreiche Datenbanken zu. Deshalb müsse am Ende immer ein Mensch endgültige Entscheidungen treffen. Das sorgt laut Chen bei den Staatsdiener:innen für Unwohlsein. Bedenken gebe es auch, was die Manipulierbarkeit der verwendeten Daten angeht, sowie hinsichtlich der Rechtmäßigkeit darin, dass das System auf Datenbanken mit sensitiven Inhalten zugreift. Eine landesweite Einführung sei deshalb sehr unwahrscheinlich.
Wie eine Google-Forscherin Künstliche Intelligenz (KI) nachvollziehbar machen will
(A New Approach to Understanding How Machines Think), 10. Januar 2019, Quanta Magazine
Die Google-Forscherin Been Kim hat zusammen mit Kolleg:innen ein System entwickelt, das Entscheidungen von Künstlicher Intelligenz (KI) nachvollziehbar machen soll. Über ihren Ansatz spricht sie mit John Pavlus von Quanta Magazine. Gemäß Kim ist das elementare Ziel von Nachvollziehbarkeit, in Erfahrung zu bringen, ob und wann ein KI-System nicht zuverlässig arbeitet. Die von ihr und ihrem Team entwickelte Lösung gestattet es Anwender:innen von KI, mittels eines Scores zwischen 0 und 1 zu verstehen, wie ein im Vorfeld bekanntes Attribut – etwa das Vorkommen einer bestimmten Farbe auf Fotos – den “Denkprozess” der KI beeinflusst. Anhand des Scores lasse sich demnach schlussfolgern, ob das System von für die jeweilige Aufgabe irrelevanten Charakteristiken der Daten in die Irre geführt wird. Kim hält Nachvollziehbarkeit für essenziell, um das Fortbestehen von KI zu sichern. Ansonsten bestehe die Gefahr, dass sich die Menschheit irgendwann von der Technologie abwendet.
Automatisierte Entscheidungssysteme „Das passiert auch hier in Europa sehr wohl“
2. Februar 2019, Deutschlandfunk
Der immer umfangreichere und teils unregulierte Einsatz von Künstlicher Intelligenz (KI) in Firmen und der öffentlichen Verwaltung ist kein auf die Vereinigten Staaten und China begrenztes Phänomen. Das konstatiert Matthias Spielkamp, Mitgründer der Plattform AlgorithmWatch, im Gespräch mit Manfred Kloiber vom Deutschlandfunk. Spielkamp bezieht sich auf eine von der Bertelsmann-Stiftung in Auftrag gegebene Studie, die zeigt, dass in zwölf untersuchten europäischen Ländern überall Systeme zur automatisierten Entscheidungsfindung eingesetzt werden. Spielkamp nennt als Beispiele die automatische Auswahl von Bewerber:innen, Systeme zum Anzeigentargeting sowie – im öffentlichen Sektor – Verfahren, in denen Personen nach unterschiedlichen Merkmalen automatisch bewertet werden, etwa hinsichtlich des Verdachts auf Sozialbetrug oder welche Art medizinischer Behandlung sie erhalten. Was die Studie laut Spielkamp auch zeigt: In der EU gebe es eine große Kakofonie, was Regulierung und Kontrolle der Systeme angeht.
Das war‘s für diese Woche.
Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren.
Mehr zum Thema Algorithmenethik finden Sie auch in unserem Blog: https://algorithmenethik.de/