15.11.2018
Willkommen zur 46. Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".
Worauf sollten Behörden achten, wenn sie sich Algorithmen zulegen? Kann KI den Fußball revolutionieren? Welche Gefahr stellt die Gesichtserkennungstechnologie für die Menschenrechte dar?
Diese und viele weitere spannende Fragen erwarten Sie im neuen Erlesenes Newsletter.
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leserinnen und Lesern. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.
Leitfaden für Behörden, die sich einen Algorithmus zulegen wollen
(Buying your First AI), 8. November 2018, Berkman Klein Center Harvard
Wenn Behörden sich einen Algorithmus zulegen, dann gilt ein ähnliches Prinzip wie beim Gebrauchtwagenkauf: Es genügt nicht, sich auf das Versprechen des Verkäufers/der Verkäuferin zu verlassen, alles sei in Ordnung. Besser ist, selbst zumindest allgemein über bekannte Problembereiche Bescheid zu wissen und den Wagen zusätzlich von jemandem prüfen zu lassen, der sich gut auskennt. Diesen Vergleich zieht KI-Experte/in K. Gretchen Greene im Blog des Berkman Klein Centers der Harvard-Universität. Greene liefert anschließend einen Leitfaden für Behörden, worauf diese bei der Anschaffung eines Algorithmus von Dritten achten sollten. Unter anderem müssen sich die staatlichen Auftraggeber Gedanken über ihre Datensets und deren Kompatibilität mit den Trainingsdaten machen, über Auswirkungen auf Bürger:innen und das Personal, über Datenschutz sowie über die Erfolgsmessung. Und, so Greene: Wer einen Algorithmus als “Blackbox” angeboten bekommt, müsse dies nicht per se akzeptieren. Es sei durchaus möglich, Transparenz als Kriterium einzufordern.
Die Renaissance des Redlinings
(Bad algorithms are making racist decisions), 2. November 2018, CBC
1968 wurde in den USA das sogenannte “Redlining” verboten – eine Praxis, Gebiete aufgrund von ethnischen Merkmalen abzugrenzen und die Menschen, die in diesen Gebieten wohnen, so systematisch zu diskriminieren. Doch im digitalen Zeitalter erlebe Redlining eine Renaissance. Zu diesem Schluss kommt Chris Gilliard, Professor am Macomb Community College in Michigan, in einer Untersuchung, deren Kernthesen in diesem kurzen Artikel vorgestellt werden. Das Besondere: Digitales Redlining geschieht im Verdeckten. Wenn Werbende Facebook-Anzeigen vor bestimmten ethnische Gruppen verbergen können oder der Amazon-Algorithmus ein bestimmtes Liefergebiet aufgrund soziodemographischer Merkmale als unattraktiv für bestimmte Lieferoptionen deklariert, dann treten für Betroffene zwar typische Nachteile des Redlinings auf, allerdings ohne dass die Praxis explizit artikuliert wird. Entsprechend wenig Aufmerksamkeit erhält das Thema. Gilliard will, dass sich dies ändert, und merkt an: Verantwortlich sind natürlich Menschen, nicht Algorithmen.
Menschen filmen sich bei Alltagstätigkeiten und die KI schaut zu
(To Make AI Smarter, Humans Perform Oddball Low-Paid Tasks), 2. September 2018, Wired
Damit Künstliche Intelligenz (KI) Alltagsereignisse aus dem Leben von Menschen “verstehen” kann, muss den Algorithmen beigebracht werden, was sie sehen. Wired-Autor Tom Simonite stellt in diesem Artikel das Startup Twenty Billion Neurons vor, das hierzu eine Marktlücke erkannt hat: Es beauftragt Personen, sogenannten “Crowd Actors”, sich bei trivialsten Aktivitäten zu filmen – etwa dem Öffnen eines Kühlschranks oder dem Schluck aus einer Getränkedose – und zahlt pro Video ein paar Dollar. Hunderttausende derartiger Clips werden anschließend dafür verwendet, KIs zu trainieren. Gerade hat das Unternehmen sein erstes Datenset als Open-Source-Projekt veröffentlicht. Wenn wir irgendwann von einem Roboter Hilfe im Supermarkt erhalten oder das selbstfahrende Auto versteht, was die beförderten Personen gerade tun, dann könnten es Crowd Actors gewesen sein, von denen die Software dies gelernt hat, schreibt Simonite.
Forscher:innen wollen mit KI den Fußball verändern
(Chelsea is using our AI research for smarter football coaching), 2. November 2018, The Conversation
Fußballkommentator:innen wissen immer ganz genau, was Spieler:innen nach einem misslungenen Schuss oder Pass stattdessen hätten machen sollen. Belegen können sie dies natürlich nie. Vielleicht bald aber schon: Ein Forscher:innenteam um Varuna De Silva von der englischen Loughborough University entwickelt zusammen mit dem FC Chelsea einen Algorithmus, der historische Spieler:innendaten analysiert und davon ausgehend bewerten kann, welche Aktion für das individuelle Stärkenprofil von Spieler:innen am vielversprechendsten gewesen wäre. Die Software der Wissenschaftler:innen bringt sich hierzu bei, einzelne Spieler:innen zu imitieren, berichtet De Silva in diesem Beitrag. Herausfordernd sei allerdings, dass sich Handlungen der verschiedenen Akteur:innen auf dem Spielfeld sowie Verantwortlichkeiten für Konsequenzen nur schwer voneinander trennen lassen. Dennoch glaubt er, dass die Technologie weitreichende Folgen für den Fußball haben könnte.
Die Folgen von Künstlicher Intelligenz auf grundlegende Menschenrechte
(Human rights matter in the AI debate. Let’s make sure AI does us more good than harm.), 8. November 2018, Accessnow
Der weitflächige Einsatz von Künstlicher Intelligenz (KI) stellt sowohl eine Chance also auch Bedrohung für die Sicherung der Menschenrechte dar. Die KI-Gemeinschaft, Regierungen sowie die Zivilgesellschaft müssen dafür sorgen, dass die Chancen genutzt und die Risiken minimiert werden. So lautet die Kernbotschaft eines Berichts (PDF) der auf Internet- und Technologiefragen spezialisierten Menschenrechtsorganisation AccessNow. Die Wahrung der Menschenrechte als Beurteilungskriterium für den Einsatz von KI heranzuziehen, sei notwendig und aufgrund des universellen, bindenden Charakters der Prinzipien auch praktisch. Zusammen mit dem Bericht publizierte die Organisation eine Fallstudie (PDF), die passend zur aktuellen Debatte in Deutschland (siehe Erlesenes #42) erklärt, auf welche Weise Gesichtserkennungstechnologie verschiedene Menschenrechte bedroht, und welche Maßnahmen notwendig sind, um gegenzusteuern.
Das war‘s für diese Woche.
Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren.
Mehr zum Thema Algorithmenethik finden Sie auch in unserem Blog: https://algorithmenethik.de/