Klicken Sie hier, wenn dieser Newsletter nicht richtig angezeigt wird

 
 
 
 

Erlesenes #43

5 Denkanstöße rund um Algorithmenethik

 

25.10.2018

Willkommen zur 43. Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".

Der britische National Health Service (NHS) kooperiert verstärkt mit Anbieter:innen von Diagnose-Apps und erhält dafür nicht nur Lobpreisungen. In Kalifornien wurde derweil ein Vermummungsverbot für Chatbots eingeführt. In den USA entwickelt sich eine Bewegung gegen selbstfahrende Autos und immer mehr Startups weltweit nutzen Gesichtserkennungssoftware zur Überwachung von Tieren.  

Diese Themen und vieles mehr erwarten Sie in dieser neuen Erlesenes-Ausgabe. 

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leserinnen und Lesern. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen. 

Chatbot statt Arztpraxis
(Your next doctor’s appointment might be with an AI), 16. Oktober 2018, MIT Technology Review
In Großbritannien können Patient:innen mit geringfügigen gesundheitlichen Beschwerden oder Fragen nun schnelle Hilfe von Chatbots erhalten. Diese analysieren unter Einsatz von Künstlicher Intelligenz (KI) die beschriebenen Symptome und empfehlen dann Hausmittel, Verhaltensweisen – oder den Besuch einer physischen Praxis. Der Technologie-Journalist Douglas Heaven berichtet in diesem Beitrag für das MIT (Massachusetts Institute of Technology) Technology Review darüber, wie sowohl Jungunternehmen als auch das staatliche Gesundheitssystem NHS-entsprechende Lösungen anpreisen. Die Hoffnung: Mit der Chat-KI die Zahl teurer, aber unnötiger Praxisbesuche verringern. Bisherige Erfahrungen scheinen zu zeigen, dass dies möglich ist. Doch Kritiker:innen äußern Datenschutz- und Sicherheitsbedenken. Zudem befürchten manche die Entstehung eines Zweiklassensystems. Denn für manche Patient:innengruppen kommt ein Chatbot nicht infrage. Ärzt:innen müssen sich dagegen keine Sorgen machen, ersetzt zu werden, schreibt Heaven. Denn ihre Arbeit umfasse weit mehr als das Stellen von Diagnosen und Verschreiben von Medikamenten.

Ein Algorithmus, der zu hart durchgreift
(An algorithm kicks businesses out of food stamp program on dubious fraud charges), 8. Oktober 2018, The New Food Economy
In den USA hat 2017 ein Algorithmus rund 1600 Handelsunternehmen, die meisten davon kleine Lebensmittelgeschäfte, untersagt, von Kund:innen Zahlungen über das staatliche Lebensmittelhilfeprogramm Supplemental Nutrition Assistance Program (SNAP) zu akzeptieren. Der Grund: Die Software hatte Unregelmäßigkeiten erkannt, die auf Betrug hindeuten könnten. Ob andere Erklärungen vorliegen, prüft die zuständige Behörde jedoch nicht. Die “The New Food Economy“-Journalistin H. Claire Brown erklärt in ihrem Artikel das Grundproblem des Systems: Sobald der Algorithmus ein verdächtiges Muster entdeckt, wird die Beweisschuld auf die Händler:in gelegt. Die Barrieren dafür, einen anfänglichen Verdacht aus dem Weg zu räumen, seien extrem hoch. Und so verlören Tausende kleinere Läden einen signifikanten Teil ihres Umsatzes – manchmal aufgrund tatsächlicher Regelverstöße, manchmal aber auch einfach, weil der Algorithmus mit Ausnahmen nicht umgehen kann und weil angemessene Beschwerdemechanismen fehlen.

In Kalifornien müssen Bots bald mitteilen, dass sie keine Menschen sind
(A California law now means chatbots have to disclose they’re not human), 3. Oktober 2018, Quartz
Dank eines neuen kalifornischen Gesetzes müssen viele Betreiber:innen von Chatbots ab 1. Juli 2019 ihre Software so programmieren, dass sie Nutzer:innen klar darüber informiert, kein Mensch zu sein. Quartz-Reporter Dave Gershgorn schreibt über das neue Gesetz, das in erster Linie auf politische und kommerzielle Bots bei Facebook und Twitter abzielt. Doch auch bei Unternehmen, die Bots etwa als Hilfekanal auf ihrer Website einsetzen oder Dienste für den automatischen Nachrichtenversand anbieten, herrscht nun Unruhe. An Kritik an diesem Vorstoß mangelt es nicht. Denn wie immer bei neuer Regulierung des digitalen Raums entsteht auch hier ein großer Graubereich. Allerdings zeigen sowohl die Debatten über die systematische Manipulation der öffentlichen Meinung durch Bots als auch KI-Lösungen wie Google’s umstrittener Dienst Duplex (siehe Erlesenes #25 “Sprachassistent Google Duplex: Wir müssen reden, Google”), dass großer Handlungsbedarf besteht. 

Das Risiko mangelnder öffentlicher Akzeptanz für selbstfahrende Autos
(Movement rises to keep humans, not robots, in the driver's seat), 16. Oktober 2018, Detroit Free Press
Die öffentliche Akzeptanz von Künstlicher Intelligenz (KI) ist in vielen Bereichen Voraussetzung für ihren breiten Einsatz. Dies gilt speziell für autonomes Fahren. Sofern eine überwiegende Mehrzahl der heutigen Autofahrer:innen die Kontrolle über das Lenkrad partout nicht abgeben will, dürfte es für die Fürsprecher selbstfahrender Mobilität schwierig werden. Die „Detroit Free Press“- Reporterin Jamie L. LaReau thematisiert das Entstehen einer Bewegung aus Automobilenthusiast:innen, die gegen die Vision einer ausschließlich von autonomen Fahrzeugen geprägten Zukunft mobil machen. Autofahren und Automobilkultur habe in ihrem Leben eine große Bedeutung. Die Freiheit zu besitzen, einen PKW steuern zu können, sei für sie regelrecht ein Inbegriff des Menschseins. Sie fordern daher, autonomes Fahren optional einzuführen. Das allerdings könnte schwierig werden, ist es doch gerade unvorhersehbares menschliches Verhalten, das Algorithmen verwirrt (siehe Erlesenes #33, “Sollten Menschen ihr Verhalten an autonome Fahrzeuge anpassen?”). Zur Frage der Akzeptanz Künstlicher Intelligenz verweisen wir auch auf die Ergebnisse unserer repräsentativen Umfrage.

Wie Gesichtserkennung dem Wohlbefinden von Tieren dient
(Here Is a List of Every Animal Humans Currently Monitor Using Facial Recognition Technology), 12. Oktober 2018, New York Magazine
Für den Einsatz bei Menschen ist Gesichtserkennungstechnologie ein zweischneidiges Schwert. Und bei Tieren? Hier scheinen zumindest derzeit die unverfänglichen Nutzungsszenarien zu überwiegen. Mack DeGeurin hat für das New York Magazine Beispiele gesammelt, bei denen mithilfe intelligenter Software zur Analyse von Gesichtsausdrücken verschiedenste Tierarten überwacht und auf ihr Wohlbefinden hin untersucht werden. Ein norwegisches Unternehmen verwendet derartige Technologie beispielsweise, um frühzeitig das Ausbrechen von Krankheiten bei Lachsen zu erkennen. Ein irisches Startup nutzt Bilder von Kühen, um herauszufinden, ob sie genug Wasser und Futter haben. Und eine von Forscher:innen der Universität Cambridge entwickelte Künstliche Intelligenz blickt Schafen ins Gesicht, um das Vorhandensein von Schmerz zu erkennen – etwas, wozu Menschen in der Regel nicht imstande sind.

Das war‘s für diese Woche. 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren

Mehr zum Thema Algorithmenethik finden Sie auch in unserem Blog: https://algorithmenethik.de/

 

 

Sie wollen diesen Newsletter nicht mehr erhalten oder Ihr Newsletter-Profil bearbeiten? Dann klicken Sie bitte auf den Link in Ihrer E-Mail.

 

Eine Abmeldung vom Newsletter-Tracking ist www.bertelsmann-stiftung.de/de/system/datenschutz jederzeit möglich.

 

Wir freuen uns über Ihre Fragen, Anregungen und Tipps:

 

Martin Weigert

Autor

 

Lajla Fetic

Redaktion

 

Bertelsmann Stiftung

Carl-Bertelsmann-Str. 256

33311 Gütersloh

Tel: +49 5241-8181216

Fax: +49 5241-81681216

E-Mail: lajla.fetic@bertelsmann-stiftung.de

 

Die Bertelsmann Stiftung ist eine gemeinnützige Stiftung des privaten Rechtes im Sinne von

Abschnitt 1 des Stiftungsgesetzes für das Land Nordrhein-Westfalen mit Sitz in Gütersloh.

Zuständige Aufsichtsbehörde ist die Bezirksregierung Detmold.

Stifter: Reinhard Mohn

Vorsitzender des Kuratoriums: Prof. Dr. Werner J. Bauer

Vorstand: Dr. Ralph Heck (Vorsitzender), Dr. Brigitte Mohn, Prof. Dr. Daniela Schwarzer