Klicken Sie hier, wenn dieser Newsletter nicht richtig angezeigt wird

 
 
 
 

Erlesenes #26

5 Denkanstöße rund um Algorithmenethik

 

24.05.2018

Willkommen zur 26. Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".

Was denken die Deutschen über den Einsatz algorithmischer Systeme? Wie kann man mehr Vertrauen in die Technik schaffen? Und wie kann man ethische Prinzipien in den Prozess der Algorithmenentwicklung integrieren? Diese und viele weitere Fragen und die ein oder andere Antwort gibts in den Artikeln und Studien, die wir Ihnen diese Woche ausgewählt haben.  

Wir freuen uns, wenn Sie Erlesenes weiterempfehlen und an interessierte Menschen weiterleiten! Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. 

Fehlendes Vertrauen in Künstliche Intelligenz und wie man es schaffen kann
(AI trust and AI fears: A media debate that could divide society), 17. Mai 2018, Mindthis Magazine
Das gesellschaftliche Potenzial von Künstlicher Intelligenz (KI) wird durch fehlendes Vertrauen in diese Technologie untergraben. Die These vertritt der Wissenschaftler Vyacheslav Polonski in diesem Artikel für das Technologie- und Kulturmagazin Mindthis Magazine. Er beschreibt als Beispiel ein Phänomen aus dem Medizinbereich: Wenn eine KI die Diagnosen von Ärztinnen und Ärzten bestätigt, dann zweifeln diese häufig am Mehrwert der Technologie. Kommt die KI aber zu einem gegensätzlichen Schluss, dann stellt das Arztpersonal die Kompetenz der KI in Frage. Polonski sieht nur einen Weg, um eine dauerhafte Spaltung der Gesellschaft in KI-Enthusiasten und grundsätzliche Zweifler zu verhindern: Menschen müssen lernen, der KI zu vertrauen. Der Autor macht drei Vorschläge, wie dieses Ziel erreicht werden kann: Durch persönliche Erfahrung im Umgang mit KI, die Schaffung von Verständnis über die Funktionsweise der Algorithmen sowie das Gefühl, zumindest eine gewisse Kontrolle über den Algorithmus zu haben.

Schnelle Innovation, ohne die Ethik zu vergessen
(Working Ethically At Speed),  7. Mai 2018, Medium
Die Beschleunigung des technischen Fortschritts erfordert von Produktteams ein immer höheres Entwicklungstempo. Ethische Aspekte kommen da leicht unter die Räder – mit der Folge, dass mögliche negative Auswirkungen im besten Fall erst im Nachhinein korrigiert werden können. Für Alix Dunn, Wissenschaftlerin und Direktorin der Non-Profit-Organisation The Engine Room, ist diese Herangehensweise nicht zufriedenstellend. In diesem Artikel beschreibt sie stattdessen ein Prinzip, das die beliebte Innovationsmethode der „agilen Softwareentwicklung“ mit ethischen Kriterien kombiniert. Mit „Agile Ethics“ werden ethische Herausforderungen identifiziert und gelöst, bevor eine Innovation auf den Markt kommt, so Dunns Idee. Um sie umsetzen zu können, seien unter anderem eine Dezentralisierung kritischen Denkens in einer Organisation sowie die Arbeit in diversen Gruppen notwendig. Dunns Vorschlag ersetzt nicht die wichtige Rolle staatlicher sowie zivilgesellschaftlicher Akteure bei der Prüfung von Algorithmen und ihren Auswirkungen, könnte aber dabei helfen, manche Probleme algorithmischer Entscheidungsfindung frühzeitig zu eliminieren oder abzuschwächen.

Künstliche Intelligenz hilft, die Geheimnisse des Gehirns zu entschlüsseln.
(DeepMind has trained an AI to unlock the mysteries of your brain), 9. Mai 2018, Wired
Künstliche Intelligenz (KI) kann nicht nur dafür genutzt werden, um Funktionsweisen des Gehirns nachzubilden, sondern auch, um unseren „Denkapparat“ besser zu verstehen. Das zeigen Forscher der Google-Tochter DeepMind mit einem Verfahren, mit dem sie äußerst komplexe und daher bislang rätselhafte neurologische Prozesse verständlich machen. Um zu erkunden, wie das Gehirn die Navigation durch dreidimensionale Räumen bewerkstelligt, entwickelten die Forscher eine KI, die das Bewegungsverhalten von Ratten in Labyrinthen analysiert und anhand der Daten die Gehirnprozesse der Tiere simulierte. Auch konnte die KI am Ende des Prozesses anhand der erlernten Informationen selber den besten Weg zwischen zwei Punkten finden. Die Wissenschaftler hoffen, dass ihre Studie zu weiterer Gehirnforschung unter Einsatz von KI inspiriert. 

Wieso ein Pionier des Maschinellen Lernens seinen Bereich heute kritisch sieht
(How a Pioneer of Machine Learning Became One of Its Sharpest Critics), 19. Mai 2018, The Atlantic 
Künstliche Intelligenz (KI) im Jahr 2018 ist lediglich eine frisierte Version dessen, wozu Computer bereits vor Jahrzehnten in der Lage waren: „versteckte“ Muster in großen Datensets finden. Dieses ernüchternde Fazit zieht der Informatiker, Philosoph und KI-Pionier Judea Pearl in diesem Interview mit dem Journalisten Kevin Hartnett. Viele Protagonisten im KI-Feld fokussieren sich noch immer lediglich darauf, statistische Verfahren zur Mustererkennung mithilfe von maschinellem Lernen und neuronalen Netzen zu verbessern. Der heute 81-jährige Pearl hingegen wünscht sich den nächsten Schritt: Algorithmen die Fähigkeit beizubringen, kausale Zusammenhänge zu erkennen. Nur auf diese Weise sei wahrhaftig intelligentes Verhalten von Computern vorstellbar. Um dorthin zu gelangen, sei erforderlich, dass die KI-Gemeinde ihre eigenen Schwerpunkte hinterfragt, so Pearl. 

In eigener Sache: Umfrage: Deutschland noch nicht in der algorithmischen Welt angekommen
Nur zehn Prozent aller in Deutschland lebenden Menschen haben eine genaue Vorstellung davon, was Algorithmen sind und wie sie funktionieren. Dass etwa Personaler künstliche Intelligenz einsetzen, um eine Vorauswahl unter Jobbewerbern zu treffen, weiß nur ein Drittel. Zu diesen Ergebnissen kommt eine repräsentative Umfrage des Instituts für Demoskopie Allensbach in unserem Auftrag. Auch ist das Unbehagen gegenüber algorithmischen Systemen groß. Die Mehrheit der Deutschen zieht menschliche Urteile automatisierten vor. Fast drei Viertel befürworten ein Verbot von Entscheidungen, die Software alleine trifft. Die Ergebnisse zeigen: Für eine realistische Einschätzung von Chancen und Risiken brauchen wir in Deutschland neben einer breiten gesellschaftliche Debatte vor allem einen Wissens- und Kompetenzaufbau auf allen Ebenen. Eine Zusammenfassung der Erkenntnisse der Umfrage finden Sie auch in unserem Blogpost.

Wir suchen Euch!
Im Projekt „Ethik der Algorithmen“ ist die Stelle eines (Senior) Project Managers zu besetzen. Das Projekt möchte: 1. Bürger, Politik und Stakeholder aus Wirtschaft und Zivilgesellschaft für Chancen, Risiken und vor allem die Relevanz algorithmischer Prozesse sensibilisieren, 2. einen sektorübergreifenden Diskurs ermöglichen und mithilfe internationaler Expertise strukturieren sowie 3. konkrete Lösungsansätze für eine teilhabeförderliche Gestaltung der digitalen Sphäre entwickeln. Sie wollen das auch? Dann jetzt bewerben!

Das war‘s für diese Woche. 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren

Mehr zum Thema Algorithmenethik finden Sie auch in unserem Blog: https://algorithmenethik.de/

 

Sie wollen diesen Newsletter nicht mehr erhalten? Dann klicken Sie bitte hier.

 

Sie wollen Ihr Newsletter-Profil bearbeiten oder weitere Newsletter der Bertelsmann Stiftung abonnieren? Dann klicken Sie bitte hier.

 

Wir freuen uns über Ihre Fragen, Anregungen und Tipps:

 

Martin Weigert

Autor

 

Carla Hustedt

Redaktion

 

Bertelsmann Stiftung

Carl-Bertelsmann-Str. 256

33311 Gütersloh

Tel: +49 5241-8181156

Fax: +49 5241-81681156

E-Mail: carla.hustedt@bertelsmann-stiftung.de

 

Die Bertelsmann Stiftung ist eine gemeinnützige Stiftung des privaten Rechtes im Sinne von

Abschnitt 1 des Stiftungsgesetzes für das Land Nordrhein-Westfalen mit Sitz in Gütersloh.

Zuständige Aufsichtsbehörde ist die Bezirksregierung Detmold.

Stifter: Reinhard Mohn

Vorsitzender des Kuratoriums: Prof. Dr. Werner J. Bauer

Vorstand: Aart De Geus (Vors.), Liz Mohn (stv. Vors.), Dr. Jörg Dräger, Dr. Brigitte Mohn