04.12.2017
Willkommen zur fünften Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".
Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren. Selbstverständlich können Sie „Erlesenes“ weiterempfehlen und an interessierte Menschen weiterleiten. Wir würden uns freuen.
Der Einfluss von Algorithmen auf den Alltag der Menschen nimmt stetig zu – und das häufig im Verborgenen. Die Konsequenzen für Individuum und Gesellschaft sind ohne Zweifel weitreichend, bislang jedoch nicht ausreichend erforscht.
Wir bieten mit "Erlesenes" einmal pro Woche eine einordnende Auswahl wichtiger Debattenbeiträge, wissenschaftlicher Ergebnisse und intelligenter Sichtweisen zu Chancen und Herausforderungen algorithmischer Entscheidungsvorgänge. Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Folgende Empfehlungen haben wir diese Woche für Sie ausgewählt:
Algorithmen und die Fairness des Entscheidungsvorgangs (PDF)
(Beyond Distributive Fairness in Algorithmic Decision Making) Max-Planck-Institut für Softwaresysteme, University of Cambridge, Alan Turing Institute, Leverhulme Center for the Future of Intelligence
Algorithmische Entscheidungen reproduzieren häufig strukturelle Benachteiligungen und verfestigen problematische gesellschaftliche Normen – diese Tatsache ist mittlerweile Gegenstand intensiver Debatten. Der Fokus liegt dabei meist darauf, Ergebnisse zu generieren, die fair verteilt sind. Wissenschaftler des Max-Planck-Instituts für Softwaresysteme sowie britischer Forschungseinrichtungen beschreiben einen anderen Fairnessansatz: Sie setzen beim Prozess an, der zu den Entscheidungen führt und fragen: Welche Merkmale der Daten sollten fairerweise in den Entscheidungsprozess einbezogen werden und welche nicht? An zwei Beispielen diskutieren die Forscher, wie die Berücksichtigung oder das Ignorieren von Merkmalen den Lernvorgang von Algorithmen beeinflusst.
Algorithmenbasierte Entscheidungsprozesse: Thesenpapier des Verbraucherzentrale Bundesverband (PDF)
7. Dezember 2017, Verbraucherzentrale Bundesverband (vzbv)
Die Deutschen machen sich Sorgen über den zunehmenden Einfluss von Algorithmen im Alltag. 75 Prozent der Verbraucher sehen in automatisierten Entscheidungen eine Gefahr, wenn deren Datenbasis und Entscheidungsprinzipien unklar sind. Dies zeigt eine kürzlich veröffentlichte repräsentative Onlineumfrage im Auftrag des Verbraucherzentrale Bundesverband (vzbv) (Pressemitteilung). In einem Papier mit 15 Thesen zum Umgang mit algorithmenbasierten Entscheidungsprozessen (ADM) fordert der vzbv daher, dass ADM-Prozesse nachvollziehbar und falsifizierbar sein müssen. Für betroffene Verbraucher sollten außerdem Anfechtungsmöglichkeiten geschaffen werden. Auch bedarf es einer intensiveren Forschung und breiten öffentlichen Debatte zu den möglichen Folgen von ADM-Prozessen. Nur so können die Chancen von ADM genutzt und die Risiken minimiert werden.
Wie sollten Siri und Alexa auf sexuelle Belästigung reagieren?
(Apple and Amazon are under fire for Siri and Alexa’s responses to sexual harassment) 8. Dezember 2017, Quartz at Work
Millionen Menschen nutzen die Spracherkennung digitaler Assistenten wie Amazons Alexa, Siri oder des Google Assistant. Doch gelten für Konversationen mit einem Computer eigentlich die gleichen Konventionen und Regeln wie für Gespräche zwischen zwei Personen? Die Journalistin Leah Fessler beschäftigt sich in ihrem kurzen Artikel mit einem Aspekt, der im Zuge des Erfolgs der Produktkategorie immer relevant wird: die Reaktion der Voice Bots auf sexistische Beschimpfungen und abwertende sexuelle Anspielungen. Fessler erwähnt in ihrem Text eine Petition, die Apple und Amazon dazu aufruft, ihre Software so umzuprogrammieren, dass sie auf belästigende Kommentare mit eindeutigem Widerstand reagiert. Der Umgang mit Belästigung stellt nicht die einzige ethische Herausforderung im Kontext von Smart Assistants dar: Auch wie Alexa & Co das Kommunikations- und Konversationsverhalten von Kindern verändern, ist bereits Diskussionsgegenstand.
"AlphaZero" bringt sich blitzschnell mehrere Spiele bei und besiegt Computerprogramme
(Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm) Cornell University, 5. Dezember 2017
Deepmind, die Tochterfirma von Alphabet (früher Google LLC), sorgt seit einiger Zeit regelmäßig für öffentlichkeitswirksame Fortschritte im Bereich künstlicher Intelligenz. Mit "AlphaZero" hat die in Großbritannien ansässige Firma in den letzten Tagen abermals für enormes Aufsehen gesorgt: Es handelt sich um eine Software, die sich in weniger als 24 Stunden die Regeln für die drei Spiele (Schach, Go und Shogi) beibrachte und jeweils die führenden Computerprogramme besiegte. Im von uns verlinkten Forschungsbericht geben die Ingenieure einen kurzen Überblick zum Status quo und erläutern die Funktionsweise ihres Algorithmus. In einem zusammenfassenden Artikel bei FAZ.NET weist der Journalist Alexander Armbruster darauf hin, dass die aktuelle Entwicklung nicht nur durch leistungsfähigere Software möglich wird, sondern auch durch schnellere Rechner und gestiegene verfügbare Datenmengen.
KI – was schon möglich ist, was noch nicht
(AI: What’s Working, What’s Not) 7. Dezember 2017, Andreessen Horowitz
Viele der heutigen Anwendungen künstlicher Intelligenz (KI) sind weniger spektakulär als AlpaZero, aber für ihre jeweiligen Einsatzgebiete äußerst effektiv. In dieser 30-minütigen Videopräsentation liefert Frank Chen, Investor bei der Silicon-Valley-Risikokapitalgesellschaft Andreessen Horowitz, einen Überblick darüber, wie Technologiefirmen sogenannte "Narrow AI" (schwache künstliche Intelligenz) in ihre Anwendungen integriert haben – und warum. Er erwähnt unter anderem automatische Untertitel bei YouTube, Facebooks Übersetzungsfunktion sowie die Preisempfehlungen für Vermieter bei Airbnb. Was KI dagegen noch nicht kann? Wissen aus einer Domäne auf eine andere übertragen (starke Künstliche Intelligenz)
In eigener Sache
Konrad Lischka vom Projekt "Ethik der Algorithmen" bei der Bertelsmann Stiftung diskutierte kürzlich mit Tobias Knobloch (Stiftung Neue Verantwortung), Julia Krüger (netzpolitik.org), Susanne Dehmel (Bitkom), Sandra Wachter (Oxford Internet Institute) und Mario Martini (Deutsche Universität für Verwaltungswissenschaften Speyer) bei einer Konferenz in Berlin über die Regulierung von Algorithmen. netzpolitik.org fasst den Verlauf der Veranstaltung zusammen.
Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de
Mehr zum Thema Algorithmenethik finden Sie auch in unserem Blog: https://algorithmenethik.de/