Klicken Sie hier, wenn dieser Newsletter nicht richtig angezeigt wird

 
 
 
 

Erlesenes #14

5 Denkanstöße rund um Algorithmenethik

 

01.03.2018

Willkommen zur vierzehnten Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".

Der Einfluss von Algorithmen auf den Alltag der Menschen nimmt stetig zu – und das häufig im Verborgenen. Die Konsequenzen für Individuum und Gesellschaft sind ohne Zweifel weitreichend, bislang jedoch nicht ausreichend erforscht. 

Wir bieten mit "Erlesenes" einmal pro Woche eine einordnende Auswahl wichtiger Debattenbeiträge, wissenschaftlicher Ergebnisse und intelligenter Sichtweisen zu Chancen und Herausforderungen algorithmischer Entscheidungsvorgänge. Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Um diesen Anspruch weiterhin zu erfüllen und den Newsletter stetig weiterzuentwickeln, möchten wir Sie nochmals bitten, an unserer Umfrage teilzunehmen. Die Umfrage besteht aus 7 kurzen Fragen und sollte nicht allzu viel Ihrer Zeit in Anspruch nehmen. Folgende Empfehlungen haben wir diese Woche für Sie ausgewählt: 

Autonome Autos: Forscher führen Bilderkennung mit manipulierten Schildern in die Irre
20. Februar 2018, heise online
Für den Menschen sieht es aus wie ein Tempo-80-Zeichen, doch die Bilderkennungssoftware erkennt ein Stoppschild: Selbstfahrende Autos können durch manipulierte Verkehrsschilder böswillig in die Irre geführt werden. Das haben Forscher der Universitäten Princeton und Purdue herausgefunden. Sie modifizierten Schilder mithilfe eines Musters aus anscheinend unverdächtigen Flecken so, dass sie vom Objekterkennungsalgorithmus des Fahrzeugs missverstanden wurden. Beim fälschlich in der 80er-Zone erkannten Stoppschild könnte ein plötzliches Abbremsen des Autos gefährlich werden. Andreas Wilkens, Reporter bei heise online, berichtet über die neue Methode, die dem wachsenden Einsatzgebiet sogenannter “Adversarial Attacks” zuzurechnen ist (siehe auch Algorithmenethik Erlesenes #1, Algorithmenethik Erlesenes #7 und Algorithmenethik Erlesenes #8). Das gesamte Papier zur aktuellen Arbeit gibt es hier als PDF.

Forscher warnen vor großen und neuartigen Risiken durch KI
21. Februar 2018, inside-it.ch
26 Experten verschiedener Organisationen aus dem Bereich der Forschung zu sogenannter „künstlicher Intelligenz“ (KI) warnen im jüngst veröffentlichten Bericht "The Malicious Use of Artificial Intelligence" vor dem Einsatz von KI für missbräuchliche Zwecke. Die Wissenschaftler und Vertreter renommierter Nichtregierungsorganisationen wie der Electronic Frontier Foundation gliedern ihre Analyse in die drei Bereiche „digitale Sicherheit”, „physische Sicherheit” und „politische Sicherheit”. Sie beleuchten denkbare Szenarien wie das automatische Auffinden von Schwachstellen in Programmiercode oder den Einsatz von Drohnenschwärmen und Gesichtserkennung für Attentate. Außerdem definieren sie vier übergeordnete Empfehlungen für Maßnahmen, die ihrer Ansicht nach angemessene Reaktionen auf die Bedrohungslage darstellen. Marcel Gamma fasst die Kernpunkte des Berichts bei inside-it.ch zusammen. Das gesamte Dokument steht hier als PDF zum Download bereit.

“Trending” muss verschwinden
(It’s Time to End “Trending”), 21 Februar 2018, New York Magazine
Was bedeutet es, wenn Inhalte bei den großen Social-Media-Plattformen Facebook, YouTube und Twitter in der “Trending”-Sektion erscheinen beziehungsweise das entsprechende Label erhalten? Niemand außer den drei Anbietern selbst kann diese Frage wirklich beantworten, moniert der Technologiereporter Brain Feldman in diesem Kommentar. Klar ist, dass als “Trending” angepriesene Empfehlungen eine größere Reichweite erhalten, wodurch ein sich selbst verstärkender Kreislauf entsteht. Findige Extremisten und profitorientierte Klickoptimierer nutzen dies gekonnt aus. Gerade bei polarisierenden Nachrichtenereignissen wie dem Highschoolamoklauf in Parkland erhalten oft äußerst fragwürdige oder schlicht faktisch falsche Inhalte eine große Bühne, aufgewertet durch die scheinbare Autorität des intransparenten Trendingalgorithmus. YouTube sah sich zuletzt wiederholt mit Kritik zu seinen Empfehlungsalgorithmen konfrontiert (siehe Algorithmenethik Erlesenes #1 und Algorithmenethik Erlesenes #11). Was Trending angeht, gibt es zumindest nach Ansicht von Brain Feldman nur eine Lösung: Die Plattformen müssen das Merkmal komplett abschaffen.

Ausprobieren: Wie gut imitieren Computer menschliche Stimmen?
(Voice Cloning Experiment), 14. Februar 2018, Github
Etwas zum Ausprobieren und Anhören: Wie viele Beispiele braucht Software, um eine Stimme glaubhaft zu imitieren? Das wollten Forscher des chinesischen Technologiekonzerns Baidu herausfinden. Sie entwickelten ein System, das mithilfe eines neuronalen Netzwerks Computerstimmen generiert. Die Resultate ihrer Arbeit können auf dieser Seite angehört werden. Es zeigt sich, dass 100 Beispiele mit kurzen gesprochenen Sätzen einer Person genügen, um mitunter erstaunlich ähnliche Computerstimmen zu produzieren. Dass sie trotzdem noch etwas mechanisch und blechern klingen, mag beruhigen. Aber wie lange noch, bis dieser Makel nicht mehr zutrifft? Das Papier zum Verfahren als PDF finden Sie hier.

Ein Rahmenwerk für den Einsatz von Algorithmen im öffentlichen Sektor
(Algorithmic Impact Assessments: Toward Accountable Automation in Public Agencies), 22. Februar 2018, AI Now Institute
Wenn staatliche Einrichtungen algorithmische Entscheidungsprozesse einsetzen, sind einige Grundregeln erforderlich, um Diskriminierung sowie andere unerwünschte Nebeneffekte zu verhindern. Die Initiative “AI Now Institute” der New York University präsentiert in diesem Text ein aus vier Zielen bestehendes Rahmenwerk, anhand dessen sich Algorithmen im öffentlichen Sektor messen lassen sollen. Inspiration holten sich die KI-Aktivisten unter anderem von der neuen EU-Datenschutz-Grundverordnung (EU-DSGVO). Zu ihren vorgeschlagenen Eckpfeilern gehört eine Möglichkeit für die Öffentlichkeit, sich über die im Einsatz befindlichen Algorithmen zu informieren. Zudem halten sie die Zugänglichkeit der Systeme für externe Forscher und Prüfer für notwendig. Das Rahmenwerk strebt außerdem eine Erhöhung des KI-Know-hows innerhalb der öffentlichen Hand an und beschreibt die Notwendigkeit von Instrumenten, mit denen Bürgerinnen und Bürgern auf algorithmische Entscheidungen reagieren oder deren Qualität und Akkuratheit anfechten können.

Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren. Selbstverständlich können Sie „Erlesenes“ weiterempfehlen und an interessierte Menschen weiterleiten. Wir würden uns freuen.

Mehr zum Thema Algorithmenethik finden Sie auch in unserem Blog: https://algorithmenethik.de/

 

Sie wollen diesen Newsletter nicht mehr erhalten? Dann klicken Sie bitte hier.

 

Sie wollen Ihr Newsletter-Profil bearbeiten oder weitere Newsletter der Bertelsmann Stiftung abonnieren? Dann klicken Sie bitte hier.

 

Wir freuen uns über Ihre Fragen, Anregungen und Tipps:

 

Martin Weigert

Autor

 

Carla Hustedt

Redaktion

 

Bertelsmann Stiftung

Carl-Bertelsmann-Str. 256

33311 Gütersloh

Tel: +49 5241-8181156

Fax: +49 5241-81681156

E-Mail: carla.hustedt@bertelsmann-stiftung.de

 

Die Bertelsmann Stiftung ist eine gemeinnützige Stiftung des privaten Rechtes im Sinne von

Abschnitt 1 des Stiftungsgesetzes für das Land Nordrhein-Westfalen mit Sitz in Gütersloh.

Zuständige Aufsichtsbehörde ist die Bezirksregierung Detmold.

Stifter: Reinhard Mohn

Vorsitzender des Kuratoriums: Prof. Dr. Werner J. Bauer

Vorstand: Aart De Geus (Vors.), Liz Mohn (stv. Vors.), Dr. Jörg Dräger, Dr. Brigitte Mohn