13.02.2020
Willkommen zur 99. Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".
Wie können wir algorithmische Systeme ethisch entwickeln, ihren Einsatz regulieren und die Chancen für das Gemeinwohl nutzen? Wo potenzielle Risiken durch Regulation minimiert werden, können die Potenziale für Medizin und Co. vielleicht auch besser gehoben werden. Impulse zu diesen Fragen finden sich auch diese Woche in Erlesenes. Diskutieren Sie mit – über Twitter (@algoethik) oder unseren Blog!
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.
Vom Scheitern eines Algorithmeneinsatzes im öffentlichen Sektor
(Welfare surveillance system violates human rights, Dutch court rules), 5. Februar 2020, The Guardian
Ein von niederländischen Behörden verwendeter Algorithmus zum präventiven Aufspüren von potenziellen Sozialbetrüger:innen verletzt gemäß eines aktuellen Gerichtsurteils das Menschenrecht auf Privatsphäre und darf nicht weiter eingesetzt werden, berichten Jon Henley und Robert Booth, Reporter bei The Guardian. Denn das System SyRI, das vor allem für Personen in sozial schwachen Gegenden genutzt werde, führe zuvor separat gehaltene Daten zu Arbeitsstand, Schulden, Transfereinkommen sowie Bildungs- und Wohnhistorik zusammen. Der eingesetzte Algorithmus analysiere die Informationen, um Personen zu identifizieren, bei denen es eine erhöhte Wahrscheinlichkeit des Sozialbetrugs gebe. Gerade in der selektiven Anwendung sieht das Gericht ein Problem und einen Beleg für Diskriminierung auf Basis sozioökonomischer Aspekte oder eines Migrationshintergrunds, so Henley und Booth. Die Kläger:innen hatten im Vorfeld des Gerichtsurteils zudem die fehlende Transparenz seitens des Staates kritisiert. Eine deutschsprachige Zusammenfassung dieser Meldung gibt es unter anderem bei futurezone. Und passend zum Thema unsere neue Studie: Welche algorithmischen Systeme sind aktuell in Deutschland erlaubt und was muss für automatisierte Softwareentscheidungen (Automated Decision Making; ADM) neu geregelt werden?
Gesichtserkennungstechnologie: Wieso wir mehr Moral brauchen!
(Opposing facial recognition — why focusing on accuracy misses the point), 4. Februar 2020, Medium
Gegner:innen der Nutzung von Gesichtserkennungstechnologie in sensiblen Bereichen führen gerne das Auftreten von „Falsch-Positiv-Raten“ und daraus resultierende Diskriminierungsrisiken als technisches Argument an. Doch auf Mängel der Akkuratheit zu verweisen, kann das Gegenteil des gewünschten Effektes haben, meint die Ethikberaterin und KI-Expertin Dorothea Baur: Es würde die Befürworter:innen animieren, sich stärker für die Verbesserung der Technologie sowie eine Ausweitung der erforderlichen Datensammelei einzusetzen, um die angesprochene Akkuratheit zu erhöhen. Doch je weniger Fehler das algorithmische System mache, desto weniger schlagkräftig sei diese Form der Kritik. Nach Ansicht von Baur sind empirische Argumente deshalb ungeeignet; effektiver wären dagegen moralische Ansatzpunkte: Gesichtserkennung führt zum Ende der Privatsphäre, wie wir sie kennen und stellt eine Bedrohung für Bürger:innenrechte dar, so die Ethikerin. Ihre Perspektive passt zur Logik der zwei Wellen der Algorithmenethik, die der Jura-Professor Frank Pasquale kürzlich beschrieb (siehe Erlesenes #93).
Der lange Weg zu fairen Algorithmen
(The long road to fairer algorithms), 4. Februar 2020, Nature
Selbst in scheinbar ausgeglichenen, diversen Datensätzen können zahlreiche Vorurteile und Anzeichen für Diskriminierung stecken. Wenn sie beispielsweise aufzeigen, dass Afroamerikaner:innen seltener medizinische Leistungen in Anspruch nehmen, dann bedeutet dies nicht unbedingt, dass sie gesünder sind (siehe Erlesenes #88). Wie können Entwickler:innen von Algorithmen besser verstehen, welche ursächlichen Zusammenhänge es zwischen struktureller Benachteiligung und den ihnen vorliegenden Datensätzen gibt? Der Computerwissenschaftler Matt J. Kusner und der Statistiker Joshua R. Loftus informieren in diesem Text über das Hilfsmittel sogenannter „kausaler Modelle“. Mit deren Hilfe können Erschaffer:innen von Künstlicher Intelligenz erforschen, welche strukturellen Ursachen es für beobachtete statistische Phänomene gibt, und ihre Systeme entsprechend anpassen, um Diskriminierung nicht zu verstärken, sondern ihr entgegenzuwirken. Abschließend bieten die Autoren eine Reihe von konkreten Ratschlägen, um effektive kausale Modelle zu entwickeln: unter anderem durch Interdisziplinarität und stärkere Einbeziehung unmittelbar Betroffener.
Interaktive Datenbank zu weltweiten KI-Regulierungsvorhaben
(AI Governance Database), Nesta
Angesichts der wachsenden Zahl staatlicher Vorstöße zur Regulierung von Künstlicher Intelligenz (KI) und von ihr tangierten Bereichen kann man leicht den Überblick verlieren. Die britische Innovationsstiftung Nesta hat deshalb eine interaktive Datenbank ins Leben gerufen, die entsprechende staatliche Unterfangen aus aller Welt in einem visuell ansprechenden Format präsentiert. 255 Einträge sind bislang aufgelistet, wobei Nutzer:innen aufgerufen sind, per E-Mail Vorschläge für Ergänzungen zu übermitteln. Regulierungsinitiativen lassen sich nach Domäne und Art, Land sowie dem angestrebten geographischen Geltungsbereich filtern. Die meisten Einträge gibt es momentan für die USA. Von dort stammt auch das älteste gelistete Regulierungsvorhaben: Der 1974 erlassene Equal Credit Opportunity Act (ECEA) – ein Gesetz, das Diskriminierung von Kreditnehmer:innen auf Basis geschützter Merkmale untersagt. Einen Überblick über weitere ethische Regulierungsvorhaben bietet Algorithmwatch mit dem AI Ethics Guidelines Global Inventory.
Findet KI Medikamente gegen das Coronavirus schneller?
(Scientists are identifying potential treatments for coronavirus via artificial intelligence), 6. Februar 2020, Fortune
Künstliche Intelligenz (KI) sah Anzeichen der Ausbreitung des neuartigen Coronavirus vor den Gesundheitsbehörden voraus (siehe Erlesenes #97) und vielleicht beschleunigt sie auch die Entwicklung eines Mittels zur Behandlung dieses Virus: Jeremy Kahn, Reporter bei Fortune, berichtet über ein US-amerikanisches Jungunternehmen namens Insilico Medicine, das mithilfe von KI innerhalb weniger Tage tausende molekulare Designs generiert habe, welche die Grundlage für ein Medikament bilden könnten. Insgesamt 28 verschiedene Machine-Learning-Modelle kämen zum Einsatz. Einige der Verfahren würden konzeptionell denen ähneln, die sonst bevorzugt zur Erstellung sogenannter „Deep Fakes“ genutzt werden – nur dass sie nicht manipulierte Videos generieren, sondern neue Moleküle. Das Startup hat seine bisher erzielten Resultate vor Kurzem veröffentlicht, damit sie von anderen Wissenschaftler:innen verwendet und weiterverarbeitet werden können, so Kahn.
Das war‘s für diese Woche.
Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de
Sie können die Algorithmenethik Lektüreempfehlungen "Erlesenes" hier abonnieren.