Klicken Sie hier, wenn dieser Newsletter nicht richtig angezeigt wird

 
 
 
 

Erlesenes #34

5 Denkanstöße rund um Algorithmenethik

 

19.07.2018

Willkommen zur 34. Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".

Was haben Künstliche Intelligenz und Wolpertinger gemeinsam? Können Algorithmen Leben retten? Warum fordert Microsoft auf einmal mehr Regulierung? Wie immer gibt’s bei Erlesenes viele Fragen (und auch die eine oder andere Antwort) zu den ethischen Perspektiven und neuesten Entwicklungen im Bereich Algorithmen und Künstliche Intelligenz (KI). 

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leserinnen und Lesern. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen. 

Was ist Fortschritt und Erfolg bei Künstlicher Intelligenz?
(How should we evaluate progress in AI?), Juli 2018, Meaningness
Im Vergleich mit anderen intellektuellen Disziplinen besitzt Künstliche Intelligenz (KI) eine Sonderrolle: Es fehlen ihr eindeutige, allgemein akzeptierte Kriterien zur Beurteilung ihrer Validität und ihres Fortschritts. KI erinnere an den sogenannten “Wolpertinger”, schreibt der KI-Forscher David Chapman. Genau wie das Fabelwesen handele es sich um ein Mischwesen bestehend aus einer Vielzahl von Disziplinen, die alle ihre ganz eigenen Beurteilungskriterien besitzen. Kombiniert entstehen so nicht nur Widersprüche, sondern auch divergierende Marschrichtungen und Achsen zur Erfolgsmessung. Chapman erläutert in seinem Text die verschiedenen Disziplinen – vom Ingenieurwesen über Philosophie bis hin zu Design –  und gibt einen gut reflektierten Überblick über das Spannungsverhältnis, das sich aus ihrer Kombination ergibt. Um KI-Forschung voranzutreiben und die passendsten Ansätze aus den verschiedenen Disziplinen zu identifizieren, brauche es einen Blick von außen und eine fortwährende kritische Auseinandersetzung mit den eigenen Herangehensweisen, schlussfolgert Chapman. 

Warum es sinnlos ist, wenn sich Algorithmen alles selbst beibringen müssen
(Reinforcement learning’s foundational flaw), 8. Juli 2018, The Gradient
Einer der wichtigsten Eckpfeiler Künstlicher Intelligenz (KI) – das sogenannte “Reinforcement Learning” – beruht auf einer fehlgeleiteten Prämisse und könnte damit den Fortschritt der Disziplin bremsen. Diesen Standpunkt vertritt der KI-Forscher Andrey Kurenkov im vorliegenden Essay. Das von ihm ausgemachte Grundproblem: Beim Reinforcement Learning bringt sich ein Algorithmus die Regeln und Ziele einer Aufgabe, beispielsweise eines Spiels, komplett und ohne Vorinformationen selbst bei. Kurenkov fragt: Warum eigentlich? Wäre es nicht besser, dem Algorithmus möglichst viele relevante Daten bereitzustellen, damit er schneller ans Ziel kommt? Zumindest für die immer komplexer werdenden Probleme, die mit KI gelöst werden sollen, sei Reinforcement Learning in der üblicherweise praktizierten Form der falsche Ansatz, glaubt der Softwareingenieur. Im zweiten (eher technischen) Teil seines Textes erläutert er die verschiedenen Formen des Lernens bei KI und präsentiert Vorschläge, wie sich Reinforcement Learning sinnvoll verbessern ließe.

Microsoft: Reguliert Gesichtserkennung!
(Facial recognition technology: The need for public regulation and corporate responsibility), 13. Juli 2018, blogs.microsoft.com
Gesichtserkennungstechnologie besitzt enormes Potenzial, birgt aber gleichzeitig zahlreiche gesellschaftliche Risiken und bedroht grundlegende Menschenrechte, wie das Recht auf Privatsphäre sowie auf freie Meinungsäußerung. Daraus resultiert eine enorme Verantwortung für diejenigen, die derartige Technologie entwickeln und kommerziell nutzen, sowie die Notwendigkeit staatlicher Regulierung, auch über Ländergrenzen hinweg. Das ist die Kernbotschaft eines sehr ausführlichen Beitrags von Microsoft Präsident und Chefjurist Brad Smith im Unternehmensblog. Smith spricht sich unter anderem für einen strengeren Datenschutz aus und fordert Regulierer auf, sich mit Qualitätsstandards, Transparenz gegenüber Betroffenen, Beschwerdemechanismen und öffentlicher Aufsicht auseinanderzusetzen. Nicht zuletzt im Zuge jüngster Kritik an ethisch problematischen Projekten des US-amerikanischen IT-Giganten positioniert sich das Unternehmen mit diesem durchaus ungewöhnlichen Ruf nach Regulierung als einer der Rädelsführer der Technologiebranche, die gerade (erzwungenermaßen) ihr Gewissen zu entdecken scheint. Eine kurze deutschsprachige Zusammenfassung gibt es bei FAZ.NET.

Computer erkennt Herzinfarkt früh
12. Juli 2018, Technology Review
Eine von zwei Wissenschaftlern aus Deutschland entwickelte Künstliche Intelligenz (KI) erkennt Anzeichen für einen Herzinfarkt genauso gut wie menschliche Kardiologen. Über diesen Meilenstein berichtet die Onlineredaktion von Technologie Review. Nils Strodthoff vom Fraunhofer Heinrich-Hertz-Institut in Berlin und Claas Strodthoff vom Universitätsklinikum Schleswig-Holstein in Kiel haben ihre KI mit einer Datenbank von 148 EKG-Protokollen von Patienten mit Herzinfarkt und 52 gesunden Kontrollpersonen trainiert. Dies ist zwar ein vergleichsweise kleiner Datensatz. Dennoch sei das System in der Lage gewesen, die Signale der Elektroden eines Standard-EKG ähnlich korrekt zu interpretieren wie menschliches Fachpersonal. Zudem lasse es sich auf jedes “Zeitreihen-Klassifikationsproblem” mit Rohdaten aus medizinischen Geräten wie EKG oder EEG anwenden – von denen es in der Medizin reichlich gebe. Szenarien, in denen eine KI Menschen in Notsituationen mit hoher Dringlichkeit vor dem Tod retten könnte, werden immer realistischer. Wir empfehlen zu dem Thema auch unseren Beitrag “Wie Algorithmen Menschen vor einem frühzeitigen Tod bewahren können” vom März dieses Jahres.

KI in der Medizin: Wir haben ein Problem
(Medical AI Safety: We have a problem), 11. Juli 2018, lukeoakdenrayner.wordpress.com
Beim Einsatz von Künstlicher Intelligenz (KI) in der Medizin ist ein kritischer Punkt erreicht, der von einem Übergang von Assistenzsystemen, die menschlichen Fachpersonen Informationen bereitstellen, zu Systemen mit autonomer Entscheidungsgewalt gekennzeichnet ist. Dies sei ein Grund zur Beunruhigung, schreibt der australische Radiologe Luke Oakden-Rayner in diesem Text. Es bestehe die Gefahr, dass die bislang in der Medizin geltenden hohen Standards hinsichtlich Qualitätskontrolle und Zulassung von der die KI-Entwicklung vorantreibenden IT-Branche und ihrer berüchtigten Philosophie “Move fast and break things” unterminiert werden. Noch sei es keiner Expertengruppe gelungen, zu belegen, welche Auswirkungen der Einsatz autonomer Entscheidungswerkzeuge auf Patienten habe. Wie in der Geschichte der Medikamentenforschung (Oakden-Rayner nennt als Beispiel die “Sulfanilamid-Katastrophe”) bestehe die Gefahr, dass durch unbedachtes Agieren und fehlende Regulierung am Ende Menschenleben auf dem Spiel stehen.

Das war‘s für diese Woche. 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren

Mehr zum Thema Algorithmenethik finden Sie auch in unserem Blog: https://algorithmenethik.de/

 

 

Eine Abmeldung vom Newsletter-Tracking ist hier jederzeit möglich.

 

Sie wollen diesen Newsletter nicht mehr erhalten oder Ihr Newsletter-Profil bearbeiten? Dann klicken Sie bitte hier.

 

Wir freuen uns über Ihre Fragen, Anregungen und Tipps:

 

Martin Weigert

Autor

 

Lajla Fetic

Redaktion

 

Bertelsmann Stiftung

Carl-Bertelsmann-Str. 256

33311 Gütersloh

Tel: +49 5241-8181216

Fax: +49 5241-81681216

E-Mail: lajla.fetic@bertelsmann-stiftung.de

 

Die Bertelsmann Stiftung ist eine gemeinnützige Stiftung des privaten Rechtes im Sinne von

Abschnitt 1 des Stiftungsgesetzes für das Land Nordrhein-Westfalen mit Sitz in Gütersloh.

Zuständige Aufsichtsbehörde ist die Bezirksregierung Detmold.

Stifter: Reinhard Mohn

Vorsitzender des Kuratoriums: Prof. Dr. Werner J. Bauer

Vorstand: Dr. Ralph Heck (Vorsitzender), Dr. Brigitte Mohn, Prof. Dr. Daniela Schwarzer