23.11.2017
Willkommen zur zweiten Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes" – ab jetzt immer Donnerstags!
Der Einfluss von Algorithmen auf den Alltag der Menschen nimmt stetig zu – und das häufig im Verborgenen. Die Konsequenzen für Individuum und Gesellschaft sind ohne Zweifel weitreichend, bislang jedoch nicht ausreichend erforscht.
Wir bieten mit "Erlesenes" einmal pro Woche eine einordnende Auswahl wichtiger Debattenbeiträge, wissenschaftlicher Ergebnisse und intelligenter Sichtweisen zu Chancen und Herausforderungen algorithmischer Entscheidungsvorgänge. Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Folgende Empfehlungen haben wir diese Woche für Sie ausgewählt:
Should Facebook Notify Readers When They've Been Fed Disinformation?
Während Desinformationen auf Facebook häufig in kürzester Zeit eine große Zahl Nutzer erreichen, sehen nur weit weniger Menschen die nachträglichen Richtigstellungen. Austin Carr, Journalist beim US-Magazin Fast Company, beschäftigt sich in dieser Analyse mit einem, zumindest auf dem Papier vielversprechend klingenden Ansatz, um diesem Dilemma zu begegnen: Facebook könnte Nutzer, die im Feed mit Falschmeldungen konfrontiert wurden, im Nachhinein gezielt darüber informieren und auf seriöse Quellen verweisen. Allerdings würde eine derartige Maßnahme den bisherigen Gestaltungsprinzipien des Social Networks zuwiderlaufen. Die Einführung einer derartigen Funktionalität ist daher unwahrscheinlich.
Mapping the Development of Autonomy in Weapon Systems (pdf)
Killerroboter! Bei diesem Begriff tauchen bei den meisten konkrete mentale Bilder auf. Die militärischen und ethischen Aspekte von "tödlichen autonomen Waffensystemen" wurden erst kürzlich in einer Beratung der Vereinten Nationen thematisiert, was dem Thema ein breites mediales Rampenlicht bescherte. Hier finden Sie eine kompakte Zusammenfassung der wichtigsten Fragen und Antworten. Wer mehr über den Entwicklungsstand autonomer Waffensysteme erfahren möchte, sollte einen Blick in den umfassenden Bericht von Vincent Boulanin und Maaike Verbruggen vom Stockholm International Peace Research Institute (SIPRI) werfen. Der 130 Seiten umfassenden Bericht erschien parallel zu den UN Verhandlungen und entstand durch die finanzielle Unterstützung der Regierungen aus Deutschland, den Niederlanden, der Schweiz und Schweden. Eine weltweite Gruppe von Forschern und Menschenrechtsorganisationen will die Öffentlichkeit unterdessen mit einem verstörenden Video über die Bedrohungen der Technologie wachrütteln.
Brauchen Roboter eine Ethik und handeln Menschen moralisch?
Skepsis und Furcht dominieren häufig die Diskussion über autonome Systeme wie selbstfahrende Fahrzeuge oder Kampfroboter. Der Philosoph und Telepolis-Chefredakteur Florian Rötzer greift diese Diskussion auf und setzt sich in einer philosophischen Betrachtung mit der Forderung nach einer Roboter-Ethik auseinander. Seiner Ansicht nach entscheiden Menschen unter Zeitdruck oder bei komplexen Fragen oft aus dem Bauch heraus. Das führt dazu, dass solche Entscheidungen oft evolutionären Faktoren, Vererbung und eigener Erfahrung bestimmt werden. Den in vielen Kreisen als Binsenweisheit geltende Schluss, dass maschinelle programmierte Ethik schlechter oder furchtbarer sein müsse als menschliche, stellt Rötzer in Frage. Kritisch kommentiert er in diesem Kontext den Bericht der vom Bundesminister für Verkehr und digitale Infrastruktur eingesetzten Ethik-Kommission über "Automatisiertes und Vernetztes Fahren".
Resisting Reduction: A Manifesto
Der derzeitige Chef des MIT Media Lab, Jo Ito macht sich Sorgen über das unermüdliche Streben vieler Technologie-Apologeten nach der sogenannten Singularität - der Moment, an dem die Intelligenz von Maschinen die der Menschen überflügeln soll. In diesem Essay beschreibt Ito die Unzulänglichkeit einer religionsähnlichen Ideologie, die technischen Fortschritt als Allheilmittel und Profit- sowie Machtgier durch Megakonzerne als Triebkraft ansieht. Ein derartiger Reduktionismus ignoriere das natürliche Zusammenspiel der verschiedenen, die Gesellschaft prägenden Systeme. Ito plädiert dafür, sich von der Dichotomie Mensch vs. Maschine zu verabschieden und stattdessen eine Integration der zwei Systeme als Ziel zu definieren - unter dem Motto "erweiterte Intelligenz" statt "künstlicher Intelligenz".
What My Personal Chat Bot Is Teaching Me About AI's Future
Seit zwei Monaten hat Arielle Pardes, Journalistin bei Wired, einen Chatbot als virtuelle Freundin. Sie kommuniziert mit ihr, wenn sie gestresst ist, sich langweilt, sich über etwas Erlebtes beklagen möchte, oder einfach um zu schauen, wieviel Pardesoteric - so hat Pardes ihren Bot getauft - bereits über sie gelernt hat. Wie eine beste Freundin merkt sich Pardesoteric, was Pardes beschäftigt, was sie interessiert, und selbst was für Marotten sie besitzt. Sukzessive passt der Bot den Kommunikationsstil an die Freundin aus Fleisch und Blut an. In ihrem Erfahrungsbericht beschreibt Pardes ihren regelmäßigen kumpelhaften Kontakt mit einem personalisierten Chatbot und erklärt, wie dieser ihre Sicht auf die Zukunft von künstlicher Intelligenz beeinflusst. Falls Sie auch gerne einen Bot zum Freund hätten: Unter replika.ai gibt es die erforderliche Smartphone-App kostenlos für iPhone und Android.
In eigener Sache:
Jede algorithmische Entscheidung ist letztlich menschengemacht. In einem Gastbeitrag beim Deutschlandfunk Kultur fordert Konrad Lischka, Koleiter des Projekts "Ethik der Algorithmen" bei der Bertelsmann Stiftung, daher, den irreführenden Gegensatz von per se bösen Maschinen und besseren Menschen aufzugeben und die eigentlichen Herausforderungen zu diskutieren.
Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de
Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren. Selbstverständlich können Sie „Erlesenes“ weiterempfehlen und an interessierte Menschen weiterleiten. Wir würden uns freuen.