Klicken Sie hier, wenn dieser Newsletter nicht richtig angezeigt wird

 
 
 
 

Erlesenes #11

5 Denkanstöße rund um Algorithmenethik

 

08.02.2018

Willkommen zur elften Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".

Der Einfluss von Algorithmen auf den Alltag der Menschen nimmt stetig zu – und das häufig im Verborgenen. Die Konsequenzen für Individuum und Gesellschaft sind ohne Zweifel weitreichend, bislang jedoch nicht ausreichend erforscht. 

Wir bieten mit "Erlesenes" einmal pro Woche eine einordnende Auswahl wichtiger Debattenbeiträge, wissenschaftlicher Ergebnisse und intelligenter Sichtweisen zu Chancen und Herausforderungen algorithmischer Entscheidungsvorgänge. Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Folgende Empfehlungen haben wir diese Woche für Sie ausgewählt: 

Wie der YouTube-Algorithmus die Wahrheit verzerrt
(“Fiction is outperforming reality”: how YouTube's algorithm distorts truth), 2. Februar 2018, The Guardian
Der Algorithmus von YouTube ist dafür optimiert, Nutzer dazu zu bringen, möglichst viele Videos möglichst lange zu gucken. Ob diese Videos die Wahrheit abbilden oder ein differenziertes Bild der Wirklichkeit darstellen, ist dabei irrelevant. Das erklärt der ehemalige YouTube-Softwareentwickler Guillaume Chaslot im Gespräch mit Paul Lewis, dem Leiter des US-Westküsten-Büros der britischen Zeitung The Guardian. In seinem Text berichtet Lewis von seinen Recherchen rund um die Frage, wie viel Einfluss das zu Google gehörende Videoportal auf die öffentliche Meinungsbildung ausübt und welche Rolle der Empfehlungsalgorithmus dabei spielt. Eben jener Algorithmus sei der mit Abstand wichtigste Wachstumstreiber für YouTube und zeige eindeutige Tendenzen, systematisch solche Inhalte ins Rampenlicht zu befördern, die auf Polarisierung, Spaltung und das Verbreiten von kruden Verschwörungstheorien ausgelegt sind. Angesichts von 1,5 Milliarden aktiven YouTube-Nutzern könnten die Folgen für die Welt weitreichend sein.

Die Oberflächlichkeit von Google Translate
(The Shallowness of Google Translate), 30. Januar 2018, The Atlantic
Wenn Google Translate einen Absatz aus einem Werk Sigmund Freuds ins Englische übersetzen soll, dann stolpert es im Gegensatz zu einem sich ernsthaft mit dem Textstück auseinandersetzenden Menschen über so manche Formulierung des österreichischen Denkers. So macht die Maschine aus den “Ungeraden” anstelle von “undesirables” fälschlicherweise “the odd”. Durchaus nachvollziehbar, hat der selbstlernende Algorithmus doch korrekt erkannt, dass “ungerade” statistisch tatsächlich fast immer mit “odd” übersetzt wird. Nur eben nicht in diesem speziellen Fall. Douglas Hofstadter, Professor der Kognitionswissenschaften an der Indiana University Bloomington, führt in diesem Essay anhand verschiedener Beispiele vor, dass die Maschine den Inhalt von Texten schlicht nicht versteht. Sie ist allerdings ziemlich gut darin, den Nutzern aus Fleisch und Blut vorzugaukeln, dass dies anders sei.

Funktioniert psychologisches Targeting bei Facebook? (PDF)
(Psychological targeting as an effective approach to digital mass persuasion), 28. November 2017, pnas.org
Lassen sich Menschen bei Facebook massenhaft gezielt manipulieren? Können Werbetreibende den “Gefällt mir”-Angaben so viele Informationen über die Persönlichkeit und Präferenzen von Nutzern entnehmen, dass sie ihre Anzeigen psychologisch abstimmen können und Nutzer für diese empfänglicher werden? Ein Team aus Forschern einiger US-Universitäten sowie der University of Cambridge in Großbritannien hat diese seit Längerem im Raum stehende Hypothese näher untersucht. Das Ergebnis von drei durchgeführten Studien: Die Forscher fanden “sich verdichtende Hinweise” darauf, dass psychologisches Targeting bei Facebook tatsächlich funktioniert. Sie sehen darin nicht nur Nachteile, warnen aber vor der gezielten Ausnutzung psychischer Schwächen. Bei Spektrum.de schreibt der Wissenschaftsjournalist Philipp Hummel über die Ergebnisse und führt eine Reihe von Schwachstellen der Studien auf, die auch die Wissenschaftler selbst eingestehen. So können Scheinkorrelationen beispielsweise nicht ausgeschlossen werden. Insofern sind weitere Studien notwendig, um Klarheit zu erhalten.  

Wie Automatisierung Ungleichheit verstärken könnte
(How Automation Could Worsen Racial Inequality), 16. Januar 2018, The Atlantic
Die Gefahr der verstärkten Diskriminierung und Zementierung struktureller Ungleichheiten durch den breitflächigen Einsatz von Algorithmen existiert nicht nur in Bezug auf die unmittelbaren Entscheidungen von Software, sondern bereits einen Schritt davor: wenn es darum geht, darüber zu entscheiden, welche Arbeitsprozesse mithilfe von Algorithmen automatisiert werden sollen. Alexis C. Madrigal, Journalist bei The Altantic, befasst sich in diesem Artikel mit den negativen Folgen der Automatisierung, die für unterschiedliche gesellschaftliche Gruppen ungleich verteilt sein können. Er beschreibt dies am Beispiel der geplanten Einführung selbstfahrender Busse in US-Städten. Überdurchschnittlich viele Busfahrer sind Afroamerikaner. Generell besitzen Arbeitsplätze im öffentlichen Dienst in den USA gerade für Schwarze eine besondere Bedeutung. Wenn nun der Staat in diesem Bereich die Automatisierung forciert, würde das Verschwinden dieser Jobs dementsprechend besonders diese Bevölkerungsgruppe treffen.

In eigener Sache: Wo Maschinen irren können – Fehlerquellen und Verantwortlichkeiten in Prozessen algorithmischer Entscheidungsfindung (PDF)
5. Februar 2018, algorithmenethik.de
Bei der Entwicklung algorithmischer Systeme kann viel schiefgehen. Dies wird deutlich, wenn man bedenkt, dass in den verschiedenen Prozessphasen unterschiedliche Menschen involviert sind, die alle individuell Entscheidungen treffen: Wissenschaftler, Programmierer, Data Scientists sowie staatliche und wirtschaftliche Institutionen oder NGOs als Datensammler, Anwender oder Überprüfer. Wo tauchen welche Fehler auf und wie lassen sich Fehler, unerwünschte Nebenwirkungen oder unklare Verantwortlichkeiten vermeiden? Prof. Dr. Katharina A. Zweig von der TU Kaiserslautern hat im Auftrag der Bertelsmann Stiftung unter Mitwirkung von Dr. Sarah Fischer und Konrad Lischka (beide Bertelsmann Stiftung) dieses Arbeitspapier entwickelt, das die unterschiedlichen Phasen im Entwicklungsprozess algorithmischer Systeme und mögliche Fehlerquellen analysiert. Prof. Dr. Zweig präsentiert darüber hinaus lösungsorientiert Instrumente und Maßnahmen, um Sensibilität bei allen Beteiligten zu schaffen und den Herausforderungen zu begegnen.

Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren. Selbstverständlich können Sie „Erlesenes“ weiterempfehlen und an interessierte Menschen weiterleiten. Wir würden uns freuen.

Mehr zum Thema Algorithmenethik finden Sie auch in unserem Blog: https://algorithmenethik.de/

 

Sie wollen diesen Newsletter nicht mehr erhalten? Dann klicken Sie bitte hier.

 

Sie wollen Ihr Newsletter-Profil bearbeiten oder weitere Newsletter der Bertelsmann Stiftung abonnieren? Dann klicken Sie bitte hier.

 

Wir freuen uns über Ihre Fragen, Anregungen und Tipps:

 

Martin Weigert

Autor

 

Lajla Fetic

Redaktion

 

Bertelsmann Stiftung

Carl-Bertelsmann-Str. 256

33311 Gütersloh

Tel: +49 5241-8181216

Fax: +49 5241-81681216

E-Mail: lajla.fetic@bertelsmann-stiftung.de

 

Die Bertelsmann Stiftung ist eine gemeinnützige Stiftung des privaten Rechtes im Sinne von

Abschnitt 1 des Stiftungsgesetzes für das Land Nordrhein-Westfalen mit Sitz in Gütersloh.

Zuständige Aufsichtsbehörde ist die Bezirksregierung Detmold.

Stifter: Reinhard Mohn

Vorsitzender des Kuratoriums: Prof. Dr. Werner J. Bauer

Vorstand: Aart De Geus (Vors.), Liz Mohn (stv. Vors.), Dr. Jörg Dräger, Dr. Brigitte Mohn