Klicken Sie hier, wenn dieser Newsletter nicht richtig angezeigt wird

 
 
 
 

Erlesenes #27

5 Denkanstöße rund um Algorithmenethik

 

31.05.2018

Willkommen zur 27. Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".

Diese Woche in Erlesenes – von uns für Sie ausgewählt und zusammengefasst: Die Niederländische Polizei nutzt KI, um ungelöste Fälle wieder aufzurollen. Das britische Militär fürchtet, dass die Technologie von Terroristen missbraucht werden könnte. Daniel Kahnemann sagt im Interview, dass Menschen, nicht Algorithmen die wahre Gefahr sind.

Sie sehen, es gibt mal wieder viel spannende Entwicklungen in der Welt der Algorithmenethik. 

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. 

Wir freuen uns, wenn Sie Erlesenes weiterempfehlen und an interessierte Menschen weiterleiten! Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de

Künstliche Intelligenz hilft der niederländischen Polizei bei ungelösten Fällen 
(How the Dutch police are using AI to unravel cold cases ), 23. Mai 2018, The Next Web
In den Archiven der niederländischen Polizei lagern 30 Millionen Seiten Papier zu ungelösten Fällen. Nun soll Künstliche Intelligenz (KI) den Ermittlerinnen und Ermittlern dabei helfen, doch noch lösbare Fälle zu identifizieren. Über dieses von der Innovationseinheit der niederländischen Polizei derzeit umgesetzte Projekt berichtet Alejandro Tauber, Chefredakteur des Onlinemagazins The Next Web, in diesem in Zusammenarbeit mit der Polizei entstandenen Artikel. Ungelöste Fälle seien prädestiniert für den Einsatz neuer technischer Verfahren, da es nichts zu verlieren gebe. Die von der Polizei eingesetzte KI analysiert forensische Beweise in digitalisierten Dokumenten und bewertet die Wahrscheinlichkeit, mit der ein ungelöster Kriminalfall mit heutigen kriminologischen Methoden gelöst werden könnte. Geplant ist, künftig auch nicht forensische Informationen von der KI berücksichtigen zu lassen und sie eventuell sogar für laufende Ermittlungen einzusetzen.

Die Auswirkungen der DSGVO auf Maschinelles Lernen
(How will the GDPR impact machine learning?), 16. Mai 2018, O’Reilly
Die Folgen der am vergangenen Freitag vollständig in Kraft getretenen Datenschutz-Grundverordnung (DSGVO) der Europäischen Union werden derzeit wild diskutiert und sind in ihrem vollen Ausmaß noch schwer abzuschätzen. In diesem Gastbeitrag im Blog des EDV-Verlags O’Reilly beantwortet Andrew Burt, Chief Private Officer beim Datenmanagementunternehmen Immuta, drei Fragen zu den Auswirkungen der neuen EU-Regelung auf Anwendungen zum Maschinellen Lernen (ML), die ihm immer wieder gestellt werden: Wird ML durch die DSGVO verboten? Beinhaltet die DSGVO ein Recht auf Erklärbarkeit für Betroffene von ML-Anwendungen? Haben Betroffene eine Entscheidungsmacht über ML-Anwendungen, die mit ihren Daten trainiert wurden? Zum gleichen Thema verweisen wir auf unsere Analyse zur DSGVO im Kontext algorithmischer Systeme. Wichtig ist u a. die Erkenntnis, dass die neue Regelung zwar individualbezogenen Schutz bietet, aber für gruppen- und gesellschaftsbezogene Ziele wie Nichtdiskriminierung und Teilhabe kaum Ansatzpunkte beinhaltet. Eine Diskussion über ergänzender Steuerungsansätze außerhalb der DSGVO ist daher dringend notwendig.

Daniel Kahneman: Menschen sind größere Gefahr als Algorithmen
(Where Humans Meet Machines: Intuition, Expertise and Learning), 18. Mai 2018, MIT IDE
Menschliche Denkfehler und Vorurteile sind eine größere Gefahr als solche, die aus algorithmischen Entscheidungen resultieren. Diesen Standpunkt vertrat der israelisch-US-amerikanische Psychologe, Buchautor und Wirtschaftsnobelpreisträger Daniel Kahneman in einem Podiumsgespräch mit Erik Brynjolfsson, Direktor der „MIT Initiative on the Digital Economy“. Dieser Artikel fasst einige von Kahnemanns Aussagen zusammen. Im Gegensatz zu menschlichen Entscheidungen seien Probleme und unerwünschte Resultate algorithmischer Entscheidungsfindungen laut Kahneman analysierbar und zurückverfolgbar. Das Grundproblem liege nicht beim Algorithmus, sondern bei den von Menschen geschaffenen Organisationen, in denen dieser zum Einsatz kommt. Der Wissenschaftler glaubt auch, dass es problematisch ist, wenn Menschen die von Algorithmen gefassten Beschlüsse zu oft revidieren. Insgesamt mache er sich vor allem Sorgen darum, dass Menschen wegen Künstlicher Intelligenz das Gefühl bekommen könnten, nicht mehr gebraucht zu werden.

Britisches Militär fürchtet KI, die Strategiespiele spielt 
24. Mai 2018, Golem.de 
Künstliche Intelligenz (KI) könnte mithilfe von Computerspielen dazu trainiert werden, Cyberangriffe durchzuführen. Diese Sorge äußern die Verfasser einer Studie des britischen Verteidigungsministeriums. Werner Pluta, Wissenschaftsredakteur bei Golem.de, erörtert diese potenzielle Problematik sowie die Skepsis gegenüber den Prognosen. Es ist üblich, dass KI-Systemen mit Videospielen wie Starcraft 2 beigebracht wird, selbstständig komplexe Probleme zu lösen. Manche Experten sehen nun die Gefahr, dass sich Terroristen oder „Schurkenstaaten“ derartige Systeme beschaffen. Nach kleineren Anpassungen sei es dann mitunter möglich, mit ihnen beispielsweise Versorgungssysteme zu sabotieren oder in geschützte Rechner einzudringen. Inwieweit es sich allerdings um eine realistische Prognose für die nahe Zukunft handelt, ist schwer einzuschätzen. Gerade beim Themenbereich KI ist die Künstliche Intelligenz (KI) könnte mithilfe von Computerspielen dazu trainiert werden, Cyberangriffe durchzuführen. Diese Sorge äußern die Verfasser einer Studie des britischen Verteidigungsministeriums. Werner Pluta, Wissenschaftsredakteur bei Golem.de, erörtert diese potenzielle Problematik sowie die Skepsis gegenüber den Prognosen. Es ist üblich, dass KI-Systemen mit Videospielen wie Starcraft 2 beigebracht wird, selbstständig komplexe Probleme zu lösen. Manche Experten sehen nun die Gefahr, dass sich Terroristen oder „Schurkenstaaten“ derartige Systeme beschaffen. Nach kleineren Anpassungen sei es dann mitunter möglich, mit ihnen beispielsweise Versorgungssysteme zu sabotieren oder in geschützte Rechner einzudringen. Inwieweit es sich allerdings um eine realistische Prognose für die nahe Zukunft handelt, ist schwer einzuschätzen. Gerade beim Themenbereich KI ist die Grenze zwischen realistischen Vorhersagen und (eigenen Interessen dienendem) Alarmismus oft hauchdünn.

Wie KI Kommentardebatten befrieden könnte
(Machine learning is helping computers spot arguments online before they happen), 23. May 2018, The Verge
Künstliche Intelligenz (KI) kann eine entscheidende Rolle dabei spielen, Onlinedebatten zu befrieden und konstruktiver zu gestalten. Das zeigen Wissenschaftler von Google Jigsaw, Wikimedia und der Cornell University mit einer Software, die Konversationen analysiert und in der Lage ist, zu erkennen, wenn eine Debatte hässliche Züge annimmt. James Vincent, Reporter beim Onlinemagazin The Verge, berichtet über das Forschungsprojekt, dessen Erfolgsquote mit knapp 65 Prozent zwar noch unter der von Menschen liegt, das aber die Hoffnung weckt, dass KI in Zukunft mit guten Resultaten und einem Verständnis für Nuancen intervenieren kann, wenn in einer Kommentardebatte im Netz die Stimmung kippt. Ein derartiger Ansatz birgt allerdings auch Risiken: So könnte ein auf dem System basierender Bot darauf trainiert werden, subtil bestimmte inhaltliche Positionen zu unterdrücken. Zudem muss nicht jede auch mal mit erhöhter Tonlage geführte Diskussion per se schlecht sein. Als Orientierungshilfe, um Personen zu signalisieren, dass sie (vielleicht unbemerkt) über die Stränge schlagen, hat das Verfahren jedoch zweifelsohne Potenzial.

Wir suchen Euch!
Im Projekt „Ethik der Algorithmen“ ist die Stelle eines (Senior) Project Managers zu besetzen. Das Projekt möchte: 1. Bürger, Politik und Stakeholder aus Wirtschaft und Zivilgesellschaft für Chancen, Risiken und vor allem die Relevanz algorithmischer Prozesse sensibilisieren, 2. einen sektorübergreifenden Diskurs ermöglichen und mithilfe internationaler Expertise strukturieren sowie 3. konkrete Lösungsansätze für eine teilhabeförderliche Gestaltung der digitalen Sphäre entwickeln. Sie wollen das auch? Dann jetzt bewerben!

Das war‘s für diese Woche. 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren

Mehr zum Thema Algorithmenethik finden Sie auch in unserem Blog: https://algorithmenethik.de/

 

 

Eine Abmeldung vom Newsletter-Tracking ist hier jederzeit möglich.

 

Sie wollen diesen Newsletter nicht mehr erhalten oder Ihr Newsletter-Profil bearbeiten? Dann klicken Sie bitte hier.

 

Wir freuen uns über Ihre Fragen, Anregungen und Tipps:

 

Martin Weigert

Autor

 

Lajla Fetic

Redaktion

 

Bertelsmann Stiftung

Carl-Bertelsmann-Str. 256

33311 Gütersloh

Tel: +49 5241-8181216

Fax: +49 5241-81681216

E-Mail: lajla.fetic@bertelsmann-stiftung.de

 

Die Bertelsmann Stiftung ist eine gemeinnützige Stiftung des privaten Rechtes im Sinne von

Abschnitt 1 des Stiftungsgesetzes für das Land Nordrhein-Westfalen mit Sitz in Gütersloh.

Zuständige Aufsichtsbehörde ist die Bezirksregierung Detmold.

Stifter: Reinhard Mohn

Vorsitzender des Kuratoriums: Prof. Dr. Werner J. Bauer

Vorstand: Dr. Ralph Heck (Vorsitzender), Dr. Brigitte Mohn, Prof. Dr. Daniela Schwarzer