13.06.2019
Willkommen zur 72. Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".
Was stößt mehr CO2 aus - ein PKW oder ein algorithmisches System? Welchen Einfluss haben Tech-Konzerne auf die Forschung zur Algorithmenethik? Was will Estland mit Künstlicher Intelligenz (KI) noch optimieren? Auch diese Woche haben wir fünf spannende Beiträge für Erlesenes ausgesucht, die Antworten auf die brennendsten Fragen geben könnten.
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.
Der fragwürdige ökologische Fußabdruck von Künstlicher Intelligenz
(Training a single AI model can emit as much carbon as five cars in their lifetimes), 6. Juni 2019, MIT Technology Review
Das Training eines gängigen algorithmischen Modells zum maschinellen Lernen von Sprache stößt in etwa fünfmal so viel Kohlendioxid in die Atmosphäre wie ein (US-amerikanischer) PKW über seinen gesamten Lebenszyklus, inklusive Herstellung. Zu diesem Schluss kommt eine Studie von Forscher:innen der University of Massachusetts, Amherst (Papier als PDF), über die Karen Hao, Reporterin bei MIT Technology Review, berichtet. Besonders bemerkenswert sei, dass der Ressourcenbedarf und ökologische Fußabdruck proportional zur Größe des Modells zunehme und schlagartig explodiere, sofern zusätzliche Schritte zur finalen Feinjustierung der Ergebnisse unternommen werden. Auch handele es sich lediglich um einen Basiswert. Bei komplexeren Unterfangen könne der CO2-Ausstoß deutlich höher ausfallen. Es sei daher an der Zeit, die ökologischen Konsequenzen des verbreiteten Einsatzes von Künstlicher Intelligenz zu debattieren.
Technologiekonzerne nehmen Einfluss auf die Forschung zu KI-Ethik
(How Big Tech funds the debate on AI ethics), 6. Juni 2019, NewStatesman
Technologiekonzerne nehmen verstärkt Einfluss auf Forschung zu ethischen Aspekten Künstlicher Intelligenz (KI), schreibt Oscar Williams, Technologieredakteur beim Politikmagazin NewStatesman. Beispielsweise habe die Oxford University in den letzten fünf Jahren umgerechnet fast 20 Millionen Euro von Google für wissenschaftliche Projekte erhalten. Ein Teil der Gelder sei explizit in Forschung zur Algorithmenethik geflossen. Nicht immer sei das finanzielle Engagement des Internetkonzerns in themenrelevanten wissenschaftlichen Papieren von Forscher:innen kenntlich gemacht worden. Innerhalb der Universitäten und institutionellen Forschungseinrichtungen sei die Haltung zum richtigen Umgang mit den spendablen Giganten gespalten. Eine Lösung zur Wahrung der Unabhängigkeit und Transparenz in der Forschung zu KI-Ethik liege eventuell in der Schaffung eines europäischen Ethik-Exzellenzzentrums sowie in einem Zusammenschluss der führenden Fachprofessor:innen in länderübergreifenden akademischen Netzwerken.
Ökonomische Diskriminierung von Algorithmen zur Objekterkennung
(Facebook AI study: Major object recognition systems favor people with more money), 7. Juni 2019, Venturebeat
Die Objekterkennungssysteme sechs führender Anbieter, darunter Facebook, Microsoft und Amazon, erkennen Gegenstände aus reichen Haushalten besser als aus weniger wohlhabenden Haushalten – und europäische und nordamerikanische Haushalte mit einer höheren Akkuratheit als andere Regionen der Erde. Das zeigt eine Studie eines Forscher:innenteams von Facebook (PDF des Papiers). Venturebeat-Reporter Khari Johnson erläutert die wichtigsten Erkenntnisse. Wie in anderen Fällen, in denen Algorithmen durch Diskriminierung auffallen, liegt das Problem laut der Forscher:innen in der mangelnden Ausgewogenheit des Datenmaterials: Gängige Bilddatenbanken enthielten fast ausschließlich in Europa und Nordamerika aufgenommene Fotos – wo der Lebensstandard im Vergleich vergleichsweise hoch ist. Analysiert nun ein mit derartigem Material trainierter Algorithmus beispielsweise ein Foto mit Zahnbürste im Wohnzimmer (weil ein Haushalt kein Bad besitzt), kann das algorithmische System die Situation mitunter nicht korrekt einordnen. Als Konsequenz wolle Facebook seine KI nun stärker mit Material aus anderen Erdteilen trainieren.
Estland will den Staat mit Künstlicher Intelligenz optimieren
(The Estonian government has an AI which will tell you when to see the doctor, when to exercise and even what jab to do), 5. Juni 2019, Sifted
Estland will möglichst viele staatliche Angebote und öffentliche Prozesse mithilfe von Künstlicher Intelligenz (KI) besser und effizienter machen – vom Gesundheitswesen über Bildung bis hin zur Arbeitsvermittlung. Verantwortlich für das Erreichen dieses mit zehn Millionen Euro Budget ausgestatteten Unterfangens ist der 28-jährige Ott Velsberg, Chief Data Officer des Landes. Maija Palmer, Reporterin beim Onlinemagazin Sifted, sprach mit Velsberg über die verschiedenen KI-Initiativen der für ihre Innovationsfreude bekannten baltischen Nation. Im Gegensatz zu anderen Ländern fokussiere man sich in Estland wenig auf die Risiken von KI, erklärt Velsberg. Denn: Dass alles digital abläuft, sei ohnehin Standard. Zudem wäre die Regierung höchst transparent. Jede(r) könne sehen, welche Daten gesammelt werden. Was er auch betont: KI werde Bürger:innen zwar Empfehlungen machen, beispielsweise zu medizinischen Untersuchungen oder sportlichen Aktivitäten – aber die Entscheidung bleibe beim Individuum.
Microsoft schaltet Datenbank für Gesichtserkennungstraining ab
8. Juni 2019, heise online
Seit 2016 betrieb Microsoft eine für akademische Forschung gedachte Datenbank mit etwa zehn Millionen Bildern von circa 100.000 Personen. Doch laut eines Berichts der Financial Times (FT), den Heise-Online-Redakteur Tilman Wittenhorst zusammenfasst, seien die Abgebildeten nie um Erlaubnis gefragt worden. Zudem sollen sowohl chinesische Unternehmen als auch das US-Militär auf die Datenbank zugegriffen haben, um mit ihr Gesichtserkennungsalgorithmen zu trainieren. Kürzlich habe der Redmonder IT-Konzern die Datenbank vom Netz genommen – laut Firmenangaben allerdings, weil der verantwortliche Mitarbeiter nicht mehr bei Microsoft arbeitet. Gemäß Wittenhorst erwähnt die FT zwei weitere Datenbanken der Duke University sowie der Stanford University, die ebenfalls Inhalte enthielten, die je nach Einsatzfall ethische Probleme nach sich ziehen könnten. Was die Fälle verdeutlichen: Wer Datenbanken mit Personeninformationen für die KI-Forschung bereitstellt, trägt eine Verantwortung dafür, wie und von wem sie verwendet werden.
Das war‘s für diese Woche.
Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de
Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren.