11.05.2018
Willkommen zur 24. Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".
Wir hoffen, dass Sie gestern den sonnigen Feiertag genutzt haben, um den Kopf ein wenig auszuruhen. Denn hier kommen einige spannende Artikel, die gelesen und diskutiert werden wollen und hoffentlich ordentlich zum Nachdenken anregen.
Unsere dieswöchige Artikelauswahl zeigt wieder einmal allzu deutlich: Algorithmen sind per se nicht gut oder schlecht. Sie können Diskriminierung abbauen - wenn sie über Startup-Finanzierung entscheiden. Sie können aber auch Leben kosten - wenn Fehler in Systemen zur Brustkrebsvorsorge über Jahre hinweg nicht erkannt werden. Und sie können helfen, andere Algorithmen zu kontrollieren - indem sie mit ihnen in den Dialog treten.
Wir freuen uns, wenn Sie Erlesenes weiterempfehlen und an interessierte Menschen weiterleiten! Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider.
Lorena Jaume-Palasí, die Mitgründerin von „AlgorithmWatch“, im Interview
2. Mai 2018, FAZ.NET
Algorithmische Automatisierung ist per se nicht schädlich, muss aber regelmäßig auf Schäden überprüft werden. Auf Basis dieser Prämisse lancierte die Politologin und Philosophin Lorena Jaume-Palasí vor zwei Jahren auf der Berliner Digitalkonferenz re:publica zusammen mit dem Journalisten und Softwareunternehmer Lorenz Matzat, dem Journalisten Matthias Spielkamp und der Informatikerin Katharina Anna Zweig die Initiative AlgorithmWatch. Aus Anlass der diesjährigen re:publica erläutert Jaume-Palasí in diesem gut verständlichen, auch für Laien sehr zugänglichen Interview, geführt von Elena Witzeck, ihre Sicht auf die derzeitigen Entwicklungen im Bereich algorithmischer Entscheidungsfindung. Für Jaume-Palasí und ihre Mitstreiter ist klar: Jeder Algorithmus kann einen Mehrwert mit sich bringen, aber auch zu Diskriminierung und Manipulation beitragen. Letztendlich seien Algorithmen nur ein Skelett und abhängig vom Kontext in dem sie eingesetzt werden. Ein Algorithmus für Filmkuratierung könne beispielsweise auch in der Krebsforschung verwendet werden. Die Daten, die Auswertungsmethoden, die Prozessarchitektur machen den Unterschied, so die AlgorithmWatch-Mitgründerin, die zu dem Thema auch auf der diesjährigen re:publica sprach. Die Konferenz stand übrigens 2018 ganz im Zeichen von Algorithmen und ihren gesellschaftlichen Auswirkungen (mehr dazu in diesem Bericht von Eike Kühl bei Zeit Online). Disclaimer: Seit Ende 2017 fördert die Bertelsmann Stiftung AlgorithmWatch im Rahmen des Projektes Ethik der Algorithmen.
Zwei Algorithmen diskutieren miteinander und der Mensch schaut zu
(How can we be sure AI will behave? Perhaps by watching it argue with itself), 3. Mai 2018, MIT Technology Review
Algorithmen, die auf maschinellem Lernen basieren, verfahren nicht immer nach den Vorstellungen ihrer Erschaffer (siehe “Wenn Algorithmen uns überraschen” in Algorithmenethik Erlesenes #22). Forscher der OpenAI-Initiative, ein Zusammenschluss verschiedener profilierter Akteure des Silicon Valley, tüfteln derzeit an einer Methode, um unerwünschte Folgen algorithmischer Entscheidungen zu verhindern, wie der Journalist Will Knight berichtet. Hierfür lassen die Wissenschaftler zwei Algorithmen in eine Debatte eintreten, um durch gegenseitiges, für menschliche Beobachter dokumentiertes Hinterfragen von Handlungen zu einer wunschgemäßen und transparenten Lösung zu kommen. Der Ansatz fußt auf der Annahme, dass eine Debatte oft bessere Resultate erzielt als nicht hinterfragtes Handeln. Das gelte für Debatten zwischen Menschen (was die Forscher mit einem interaktiven Spiel illustrieren), aber auch zwischen Computern. So zumindest die Hoffnung. Noch befindet sich der Ansatz in einem sehr frühen Stadium. Mögliche Schwächen des Verfahrens sind die Notwendigkeit, dass die Algorithmen die menschlichen Werte kennen müssen, sowie die Gefahr von Diskussionen, die sich im Kreis drehen. Das Forschungspapier zu diesem Ansatz gibt es hier als PDF.
Fehlerhafte Software verkürzte die Lebensdauer von bis zu 270 Frauen
(Breast cancer screening failure may have shortened 270 lives in England), 2. Mai 2018, Reuters
Algorithmen müssen nicht hochgradig komplex sein, um im Falle von Mängeln großen Schaden anrichten zu können. Das zeigt ein aktueller Fall aus Großbritannien, über den die Reuters-Korrespondentin Estelle Shirbon berichtet: Ein IT-System zur Brustkrebsvorsorge des National Health Service (NHS), das Frauen im Alter von 50 bis 70 Jahren alle drei Jahre zu einer Vorsorgeuntersuchung einladen soll, enthielt einen Fehler, der fast zehn Jahre unentdeckt blieb. Die Folge: Rund 450.000 Frauen in der Altersgruppe von 68 bis 71 Jahren erhielten keine Einladung zur abschließenden Vorsorgeuntersuchung. Laut Gesundheitsminister Jeremy Hunt dürfte das Versagen des Algorithmus das Leben von 135 bis 270 Frauen verkürzt haben, weil eine sich entwickelnde Brustkrebserkrankung nicht rechtzeitig entdeckt werden konnte. Der Fall zeigt, wie wichtig funktionierende Kontrollmechanismen sind, um eventuelle Fehler in Algorithmen schnell beheben zu können.
Algorithmische Entscheidung statt Bauchgefühl bei Startup-Investments
(Impress the Algorithm. Get $250,000), 1. Mai 2018, Bloomberg
Wenn Startup-Investoren auf der Suche nach den nächsten Facebook-Millionen Geld in vielversprechende Jungunternehmen pumpen, dann verlassen sie sich häufig auf ihr Bauchgefühl. Doch weil die meisten Investoren weiße Männer sind und der Mensch tendenziell dort Potenzial sieht, wo er sich selbst wiedererkennt, mangelt es unter finanzierten Startup-Entrepreneuren entsprechend an Diversität. Ein Algorithmus könnte nun an diesem Status quo rütteln: Wie der Journalist Joshua Brustein schildert, hat der Risikokapitalgeber Social Capital ein Verfahren entwickelt, bei dem die Investmententscheidung mehrheitlich autonom von einer Software getroffen wird. Die ersten vorläufigen Resultate untermauern die These, dass sich auf diese Weise vor allem für weibliche und nicht weiße Gründerinnen und Gründer die Chancen auf ein Investment erhöht. Für den im Artikel zitierten CEO des Unternehmens, Chamath Palihapitiya, ist die erhöhte Diversität allerdings nur ein nettes Nebenprodukt: Am Ende gehe es weiterhin darum, Profit zu machen. Die Hoffnung bleibt, dass sich mit dem neuen Ansatz einige der Grunddynamiken des Sektors ändern könnten.
Instagram-Bilder helfen, Bilderkennungsalgorithmen zu verbessern
(Your Instagram #Dogs and #Cats Are Training Facebook's AI), 2. Mai 2018, Wired
Mit jedem bei Facebooks Foto- und Video-App Instagram hochgeladenen Schnappschuss tragen Nutzer dazu bei, eine Künstliche Intelligenz (KI) zur Bilderkennung zu verbessern. Der KI-Reporter Tom Simonite schreibt über ein vor wenigen Tagen von Facebook vorgestelltes Projekt: 3,5 Milliarden Instagram-Fotos, mit insgesamt 17.000 Hashtags versehen, wurden als Datenset für einen Algorithmus verwendet, der sich selbstständig die Erkennung von Objekten beibringen sollte. Es handele sich um das bislang größte Datenset an Bildern überhaupt. Die Erfolgsquote des Algorithmus lag bei 85,4 Prozent und damit über den vom Konkurrenten Google vor einiger Zeit erreichten 83,1 Prozent. Die für den Vorgang benötigte Rechenkapazität war enorm: 336 Grafikprozessoren, verteilt auf 42 Servern, waren drei Wochen lang im Einsatz. Einerseits ist es eine gute Nachricht, dass die Technologieriesen ihre Infrastruktur für Forschung im KI-Bereich einsetzen, die über etwaige spätere Open-Source-Beiträge auch der Allgemeinheit zugutekommen könnten. Andererseits zeigt sich der enorme Wettbewerbsvorteil, den die Großen der Branche gegenüber Neulingen oder Non-Profit-Organisationen besitzen.
In eigener Sache: In wenigen Wochen tritt die neue Datenschutz-Grundverordnung (DSGVO-EU) der EU in Kraft. Schafft die neue Regulierung eine bessere gesetzliche Grundlage für die Überprüfbarkeit algorithmischer Prozesse? Leistet sie einen Beitrag zum Schutz vor Risiken algorithmischer Entscheidungsfindung? Die Juristen Wolfgang Schulz und Stephan Dreyer vom Hans-Bredow-Institut für Medienforschung an der Universität Hamburg sind diesen Fragen in einer Studie im Auftrag der Bertelsmann Stiftung auf den Grund gegangen. Die Zusammenfassung der Ergebnisse finden Sie auch bei uns im Blog im Artikel „Datenschutz-Grundverordnung reicht für Kontrolle algorithmischer Systeme nicht aus“.
Das war‘s für diese Woche.
Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren.
Mehr zum Thema Algorithmenethik finden Sie auch in unserem Blog: https://algorithmenethik.de/