Ethik der Algorithmen
Nicht das technisch Mögliche, sondern das gesellschaftlich Sinnvolle muss Leitbild sein.
Foto Ralph Müller-Eiselt

Ansprechpartner

Ralph Müller-Eiselt

Senior Expert

Telefon: +49(5241)81-81456 E-Mail: Nachricht schreiben Profil
Foto Konrad Lischka

Ansprechpartner

Konrad Lischka

Project Manager

Telefon: +49(5241)81-81216 E-Mail: Nachricht schreiben Profil

Ethik der Algorithmen

Im Projekt "Ethik der Algorithmen" setzen wir uns mit den gesellschaftlichen Folgen algorithmischer Entscheidungsfindung auseinander. Wir wollen zu einer Gestaltung algorithmischer Systeme beitragen, die zu mehr Teilhabe für alle führt. Nicht das technisch Mögliche, sondern das gesellschaftlich Sinnvolle muss Leitbild sein.

Menschen mit Handy und warten auf die U-Bahn

Umfrage

Deutschland noch nicht in der algorithmischen Welt angekommen

Partnersuche, Online-Shopping, Job-Bewerbung – Algorithmen sind längst Teil unseres Alltags. Doch nur wenige wissen, wo Algorithmen eingesetzt werden und wie wirkmächtig sie sind. Um die Menschen auf die algorithmische Gesellschaft vorzubereiten, braucht es eine breite öffentliche Debatte, mehr Kompetenzen bei den Bürgern und eine aktive staatliche Kontrolle. weiterlesen

Neueste Blogbeiträge

Zum Blog

21. Juni 2018 / Martin Weigert

Algorithmenethik Erlesenes #30

Diese Ausgabe von Erlesenes bietet einige, auch für (Halb-)Laien verständliche Einblicke in die neusten „Fähigkeiten“ algorithmischer Systeme: Zauberwürfel lösen, Handlungen antizipieren und Kausalitäten erkennen. Auch erwartet Sie ein Essay über den Einfluss von KI auf die willentliche Unwissenheit und ein sehr informationshaltiger Longread über die Gefahren des KI-Nationalismus. Die Meinungen in den Beiträgen spiegeln nicht […] weiterlesen

14. Juni 2018 / Martin Weigert

Algorithmenethik Erlesenes #29

Was ist von Googles neuen ethischen Prinzipien für KI zu halten? Welche Rolle spielen Algorithmen bei der Moderation von Sozialen Netzwerken? Und warum hat das MIT eine psychopatische KI geschaffen? Diese und einige weitere Fragen erwarten Sie diese Woche in Erlesenes. Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. […] weiterlesen

14. Juni 2018 / Dr. Tobias Knobloch

Vorausschauende Polizeiarbeit: mit Algorithmen „vor die Lage kommen“

In nordrhein-westfälischen Großstädten bekommen Streifenpolizisten zu Anfang ihrer Schicht Informationen an die Hand, in welchen Wohnbezirken ihres Einsatzgebietes erhöhte Präsenz und Aufmerksamkeit gefragt ist. Für diese Areale hat das Predictive-Policing-Computerprogramm SKALA eine erhöhte Wahrscheinlichkeit zukünftiger Kriminalität errechnet. „Solche Gebiete wurden früher auch schon gekennzeichnet und den Beamten als Orientierungshilfe an die Hand gegeben“, sagt Joachim […] weiterlesen

Projektnachrichten

alle anzeigen
Gruppenfoto Workshop

Expertenworkshop

1. Workshop zu Gütekriterien für Algorithmen

Sieben hochrangige Vertreter aus Wissenschaft, Politik und Zivilgesellschaft trafen sich am Ende Mai in Berlin, um über die Gestaltung eines Gütekriterienkataloges für Algorithmen zu diskutieren. Die Veranstaltung war der Auftakt für einen groß angelegten Prozess, den der Think Tank iRights.Lab im Auftrag der Bertelsmann Stiftung organisiert.  weiterlesen

Hände und Puzzleteile

Arbeitspapier

Welche Lösungen es jetzt braucht, damit algorithmische Prozesse den Menschen dienen

Verträglichkeitsprüfungen, Qualitätssiegel für Herkunft und Güte von Daten, Verbandsklagerechte für die Antidiskriminierungsstelle des Bundes, eine kompetente Algorithmenagentur – es gibt viele sehr konkrete Ideen, was zu tun ist, um algorithmische Systeme zum Wohl aller Menschen zu nutzen.  weiterlesen

Monitor mit Programmierung

Beteiligungsprozess

Verhaltenskodex für den Einsatz von Algorithmen

Wir wagen den großen Wurf: Der Think Tank iRights.Lab entwickelt einen Gütekriterienkatalog für gesellschaftlich relevante algorithmische Prozesse. Dazu organisiert das iRights.Lab im Auftrag der Bertelsmann Stiftung einen umfangreichen Meinungsbildungsprozess.  weiterlesen

Mann mit Laptop

Studie

Datenschutz-Grundverordnung bietet zu wenig Kontrolle für Algorithmen

Algorithmen bewerten Menschen und entscheiden über sie – etwa in Bewerbungsverfahren oder bei der Kreditvergabe. Bislang läuft dies noch fast unkontrolliert ab, was zu falschen Bewertungen oder gar Diskriminierungen führen kann. Die ab Mai wirksame Datenschutz-Grundverordnung (DSGVO) wird daran nur wenig ändern. Dies zeigt eine Analyse in unserem Auftrag. weiterlesen

Publikationen

alle anzeigen

Publikation

Was Deutschland über Algorithmen weiß und denkt

Algorithmische Systeme sind längst Teil unseres Alltags und betreffen jeden von uns. Doch was wissen und denken eigentlich die Menschen in ... weiterlesen

Publikation

Damit Maschinen den Menschen dienen

Verträglichkeitsprüfungen, Qualitätssiegel für Herkunft und Güte von Daten, Verbandsklagerechte für die Antidiskriminierungsstelle des ... weiterlesen

Publikation

Was bringt die Datenschutz-Grundverordnung für automatisierte Entscheidungssysteme?

Algorithmen bewerten Menschen und entscheiden über sie – etwa in Bewerbungsverfahren oder bei der Kreditvergabe. Bislang läuft dies noch ... weiterlesen

Publikation

Wo Maschinen irren können

Dieses Arbeitspapier erklärt, wie algorithmische Entscheidungssysteme entwickelt und in einen gesellschaftlichen Kontext eingebettet werden, ... weiterlesen