Mit der zunehmenden Nutzung algorithmischer Systeme in allen Lebensbereichen hat auch die Diskussion über einen „Europäischen Weg“ für den Einsatz Künstlicher Intelligenz an Dynamik gewonnen. Menschengerechte und vertrauenswürdige KI sind die Schlagworte, mit denen politische Akteure in Deutschland und auf europäischer Ebene diesen Weg beschreiben. Dazu wurde eine Vielzahl an ethischen Leitlinien für die Gestaltung von KI und algorithmischen Systemen veröffentlicht, denen bestimmte Prinzipien wie Gerechtigkeit, Transparenz und Schutz der Privatsphäre gemeinsam sind.
Auch die Bertelsmann Stiftung hat mit den Algo.Rules im April 2019 neun Prinzipien für die ethische Entwicklung und den Einsatz algorithmischer Systeme vorgestellt. Die Regeln sollen bereits bei der Entwicklung der Systeme mitgedacht und „by design“ implementiert werden. Wie viele andere Initiativen steht das Algo.Rules-Projekt nun vor der Herausforderung, die Leitlinien in der Praxis zur Anwendung zu bringen.
Allgemeine ethische Prinzipien müssen messbar gemacht werden!
Dazu müssen allgemeine ethische Prinzipien messbar gemacht werden. Denn es gibt viele unterschiedliche Verständnisse für Begriffe wie Transparenz und Gerechtigkeit. Dies führt dazu, dass KI-entwickelnden Unternehmen die nötige Orientierung fehlt und eine wirksame Kontrolle der algorithmischen Systeme nicht möglich ist. Diese fehlende Konkretisierung ist aktuell eines der größten Hindernisse für die Entwicklung gemeinwohlorientierter KI.
In Kooperation mit der gemeinnützigen Normierungsorganisation VDE hat die Bertelsmann Stiftung daher die interdisziplinäre AI Ethics Impact Group ins Leben gerufen. Ihr gemeinsam entwickeltes Arbeitspapier „AI Ethics: From Principles to Practice - An interdisciplinary framework to operationalise AI ethics“ schließt diese Lücke und erklärt, wie KI-Ethikprinzipien europaweit operationalisiert und in die Praxis überführt werden können. In der AI Ethics Impact Group kamen Expert:innen aus den Bereichen Informatik, Philosophie, Ingenieurs- und Sozialwissenschaften zusammen. Beteiligt waren unter anderem Wissenschaftler:innen des Algorithmic Accountability Labs der TU Kaiserslautern, des Höchstleistungsrechenzentrum der Uni Stuttgart, des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS) in Karlsruhe, des Instituts für Philosophie der TU Darmstadt, des Internationalen Zentrums für Ethik in den Wissenschaften (IZEW) der Uni Tübingen und des Thinktanks iRights.Lab.
Ein Ethik-Label für KI-Systeme setzt Anreize über Regulierung hinaus
Zentrales Element des Papiers ist der Vorschlag eines Ethik-Labels für KI-Systeme. Solch ein Label bietet – ähnlich wie beim Energieeffizienzlabel für Elektrogeräte – KI-entwickelnden Organisationen die Möglichkeit, die Qualität ihrer Produkte nach außen zu kommunizieren. Für Konsumenten und KI-einsetzende Organisationen macht das Label die auf dem Markt zur Verfügung stehenden Produkte besser vergleichbar und schafft einen schnellen Überblick, ob ein algorithmisches System die im Anwendungsfall nötigen ethischen Anforderungen erfüllt. So kann über rechtlich vorgegebene Grenzen hinaus eine ethische Entwicklung von KI gefördert werden. Als mögliche Bestandteile des KI-Ethiklabels schlägt das Papier, basierend auf einer Metanalyse von über 100 KI-Ethikrichtlinien, die Werte Transparenz (transparency), Verantwortlichkeit (accountability), Schutz der Privatsphäre (privacy), Gerechtigkeit (justice), Verlässlichkeit (reliability) und Nachhaltigkeit (environmental sustainability) vor.
Bei dem vorgeschlagenen Label handelt es sich nicht um ein einfaches Ja/Nein-Prüfsiegel, sondern um eine abgestufte Kennzeichnung relevanter Eigenschaften eines Systems: