Klicken Sie hier, wenn dieser Newsletter nicht richtig angezeigt wird

 
 
 
 

Erlesenes #64

5 Denkanstöße rund um Algorithmenethik

 

11.04.2019

Willkommen zur 64. Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".

Klappt Selbstregulierung bei Künstlicher Intelligenz (KI)? Welche Richtlinien veröffentlicht die Expert:innengruppe der EU? Und woher kommen (auch künftige) KI-Expert:innen? Diese Woche im Erlesenes-Newsletter gibt es wieder eine bunte Mischung an Meinungsbeiträgen und neuesten Erkenntnissen aus der Algorithmenwelt!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.

EU-Expert:innen veröffentlichen Richtlinien für ethische KI
8. April 2019, Zeit Online
Künstliche Intelligenz (KI) soll die menschliche Autonomie respektieren, gesellschaftlichen Schaden vermeiden, fair agieren und erklärbar bleiben. So lauten vier Grundprinzipien, die 52 Expert:innen im Auftrag der EU-Kommission in einem diese Woche veröffentlichten 40-seitigen Papier zu ethischen KI-Richtlinien definieren. Lisa Hegemann, Digitalredakteurin bei Zeit Online, erläutert die wichtigsten Punkte der nicht bindenden Vorschläge, die zum Ziel haben, für Europa eine gelungene Balance zwischen wirtschaftlichen und gesellschaftlichen Interessen bei der Verwendung von KI sicherzustellen – bei gleichzeitiger Minimierung von Gefahren, wie etwa Diskriminierung. Kritik ziehe in diesem Zusammenhang die Tatsache auf sich, dass nur vier Ethiker:innen Teil der generell “industriedominierten” Expert:innengruppe sind, so Hegemann. Bis Juni erarbeitet das Gremium nun Handlungsempfehlungen für die Kommission. Anschließend folgen ein Praxistest der Leitlinien und eine Anpassung des Papiers auf Basis der darin gewonnenen Erkenntnisse. Mit den von uns und iRights.Lab veröffentlichten Algo.Rules haben wir in einem breiten Beteiligungsprozess dafür Regeln entwickelt, die sich ähnlich den europäischen Richtlinien der Aufgabe stellen, ethische Standards im Programmiercode zu verankern.

Wer die KI-Expert:innen sind und woher sie kommen
(Global AI Talent Report 2019), jfgagne.ai
Gut 22.000 Einreichungen für internationale Konferenzen zu Künstlicher Intelligenz (KI) sind vergangenes Jahr eingegangen. Lediglich 18 Prozent der veröffentlichten wissenschaftlichen Arbeiten seien von Frauen gewesen und gut ein Drittel der KI-Expert:innen arbeite in einem anderen Land als in dem, wo sie promoviert haben. Zu diesen Ergebnissen kommt “Global AI Talent Report 2019”, erstellt von einem Team um den kanadischen Softwareunternehmer JF Gagne. In ihrer Analyse blicken die Urheber:innen auch auf Trends in anderen Ländern. So sei der Anteil der in Spanien tätigen Frauen unter den KI-Expert:innen mit 26 Prozent am größten. 72 Prozent der Autor:innen der untersuchten Forschungspapiere kommen aus fünf Ländern: USA, China, Großbritannien, Deutschland und Kanada. Die Ergebnisse des Reports zeigen, dass der KI-Sektor zunehmend expandiert und von internationaler Natur bleiben wird. 

Klappt Selbstregulierung bei Künstlicher Intelligenz?
(AI pioneer: “The dangers of abuse are very real”), 4. April 2019, Nature 
Die Regulierung des Einsatzes von Künstlicher Intelligenz (KI) den Unternehmen zu überlassen, funktioniere genauso wenig wie ein auf Freiwilligkeit basierendes Steuersystem. Das sagt Yoshua Bengio, Professor an der University of Montreal und einer der drei aktuellen Gewinner der prestigevollen KI-Auszeichnung Turing Award, in diesem kompakten Interview mit Davide Castelvecchi, Technologiereporter beim Magazin Nature. Bengio äußert sich auch zu der von ihm mitinitiierten “Montréal Declaration” zu Künstlicher Intelligenz und dazu, wie ein bestmögliches Forum zur Erarbeitung von Ethikrichtlinien für Algorithmen aussehen sollte. Firmen müssten in diesem auch präsent ein, erklärt Bengio. Man müsse aber aufzupassen, dass sie nicht zu viel Einfluss erhalten, da ihre Interessen naturgemäß wirtschaftlich motiviert seien. 

Orientieren sich algorithmische Anzeigensysteme an Klischees?
(Facebook’s Ad Algorithm Is a Race and Gender Stereotyping Machine, New Study Suggests), 4. April 2019, The Intercept
Orientiert sich das Werbesystem von Facebook an verbreiteten Stereotypen zu Geschlecht oder Ethnie, wenn man ihm ausdrücklich die Freiheit lässt, selbst zu entscheiden, wer eine Anzeige zu Gesicht bekommen soll? Das wollten Forscher:innen der US-amerikanischen Northeastern University und University of Southern California wissen, wie Sam Biddle bei The Intercept berichtet. Die Studie ergab, dass der Algorithmus bei einer vom Werbetreibenden bewusst nicht eingeschränkten Zielgruppendefinition Anzeigen in der Tat in Übereinstimmung mit typischen Klischees ausliefert. So präsentierte er Anzeigen für Jobs an der Supermarktkasse vor allem Frauen und Werbung mit Bildern, die klassischen “Macho-Idealen” entsprechen, vorrangig Männern. Die Urheber:innen der Studie schlussfolgern, dass politische Entscheidungsträger:innen sowie die Technologieplattformen genauer auf mögliche diskriminierende Folgen von Onlineanzeigensystemen schauen müssen. Das Papier zur Studie gibt es hier.

Die „Pre-Cops“: Wie Algorithmen die Polizeiarbeit verändern 
7. April 2019, Geschichte der Gegenwart
Manche befürchten, andere hoffen, dass vorhersageorientierte Polizeiarbeit (Predictive Policing) die Polizei und die Bekämpfung von Kriminalität revolutionieren wird. Aktuell allerdings beschränken sich  Implementierungen im deutschsprachigen Raum noch auf relativ harmlose Tests, etwa die Erprobung der computergestützten Vorhersage von professionellen Wohnungseinbrüchen ohne Verwendung von selbstlernenden Algorithmen – das schreiben die Wissenschaftler:innen Simon Egbert und Susanne Krasmann. Für die Zukunft der Polizeiarbeit sei durch den Einsatz von Künstlicher Intelligenz und die zunehmende Verknüpfung verschiedenster Daten allerdings mit einem qualitativen Sprung beim Predictive Policing zu rechnen. Dann würden auch die zwei maßgeblichen Sorgen der Kritiker:innen – die Ausweitung des Verdachts gegenüber den „üblichen Verdächtigen“ sowie Generierung von Verdachtsmustern – an Relevanz gewinnen. Ob Vor- oder Nachteile überwiegen, hänge am Ende schlicht davon ab, wie Polizei und Gesellschaft mit der Technologie umgehen. An dieser Stelle verweisen wir gerne auf das von der Bertelsmann Stiftung und der Stiftung Neue Verantwortung erarbeitete Policy Paper zu Predictive Policing aus dem vergangenen Jahr.

Das war‘s für diese Woche.

Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren

 

 

Sie wollen diesen Newsletter nicht mehr erhalten oder Ihr Newsletter-Profil bearbeiten? Dann klicken Sie bitte auf den Link in Ihrer E-Mail.

 

Eine Abmeldung vom Newsletter-Tracking ist www.bertelsmann-stiftung.de/de/system/datenschutz jederzeit möglich.

 

Wir freuen uns über Ihre Fragen, Anregungen und Tipps:

 

Martin Weigert

Autor

 

Lajla Fetic

Redaktion

 

Bertelsmann Stiftung

Carl-Bertelsmann-Str. 256

33311 Gütersloh

Tel: +49 5241-8181216

Fax: +49 5241-81681216

E-Mail: lajla.fetic@bertelsmann-stiftung.de

 

Die Bertelsmann Stiftung ist eine gemeinnützige Stiftung des privaten Rechtes im Sinne von

Abschnitt 1 des Stiftungsgesetzes für das Land Nordrhein-Westfalen mit Sitz in Gütersloh.

Zuständige Aufsichtsbehörde ist die Bezirksregierung Detmold.

Stifter: Reinhard Mohn

Vorsitzender des Kuratoriums: Prof. Dr. Werner J. Bauer

Vorstand: Dr. Ralph Heck (Vorsitzender), Dr. Brigitte Mohn, Prof. Dr. Daniela Schwarzer