Weitere Meldungen

Pixabay_man_2616599_ST_MT_bear.jpg(© StockSnap / Pixabay, modifiziert – Pixabay License, https://pixabay.com/de/service/license/)

Eupinions: Europäer wissen wenig über Algorithmen

Vielen Bürgern der Europäischen Union fehlen grundsätzliche Kenntnisse über Algorithmen. Im Rahmen einer europaweit repräsentativen Umfrage haben wir erforscht, was die Menschen in Europa über Algorithmen wissen, von ihnen halten und sich erhoffen.

iStock-875150592_MPL_be_ST-MT.jpg(© © Getty Images/iStockphoto/sarah5)

Report: Maschinen entscheiden bereits mit: Sind die EU-Staaten vorbereitet?

Automatisierte Entscheidungen sind in Europa im Alltag angekommen. Wie Algorithmen angewendet und kontrolliert werden, unterscheidet sich allerdings stark. In dem  Report "Automating Society – Taking Stock of Automated Decision-Making in the EU" zeigen AlgorithmWatch und wir erstmals Regulierungslücken auf und empfehlen eine engere europäische Koordination.

luca_bravo_523180_unsplash.jpg_ST-MT(© Luca Bravo / Unsplash – Unsplash License, <a href="https://unsplash.com/license" target="_top" class="link link--external" title="Opens internal link in this window" data-htmlarea-external="1">https://unsplash.com/license</a>)

Statusupdate: Auf dem Weg zu Gütekriterien für den Algorithmeneinsatz

Das Projekt Ethik der Algorithmen entwickelt gemeinsam mit dem unabhängigen Think Tank iRights.Lab einen Gütekriterienkatalog für algorithmische Systeme (#algorules), vergleichbar mit dem Pressekodex für den Journalismus oder dem Hippokratischen Eid in der Medizin. Um die #algorules praxisnah zu gestalten, wurde neben Expert:innenworkshops nun auch einen breiter Beteiligungsprozess gestartet.  

alex-perez-560134-unsplash_heller.jpg_ST_MT(© Alex Perez / Unsplash – Unsplash License, <a href="https://unsplash.com/license" target="_top" class="link link--external" title="Opens internal link in this window" data-htmlarea-external="1">https://unsplash.com/license</a>)

Arbeitspapier: Wie sich Gestalter von Algorithmen ethisch verhalten können

Menschen, die algorithmische Systeme gestalten und einsetzen, haben eine moralische Verantwortung. Doch warum sollten sie dieser nachkommen? Eine verbindliche Professionsethik könnte die Antwort sein. Wie wir dabei von erfolgreichen Vorbildern lernen können, ist das Thema unseres neuen Arbeitspapiers.

DeDcNnnWkAAoSF3_2.jp_ST-MT(© Bertelsmann Stiftung / iRights.lab)

Expertenworkshop: 1. Workshop zu Gütekriterien für Algorithmen

Sieben hochrangige Vertreter:innen aus Wissenschaft, Politik und Zivilgesellschaft trafen sich am Ende Mai in Berlin, um über die Gestaltung eines Gütekriterienkataloges für Algorithmen zu diskutieren. Die Veranstaltung war der Auftakt für einen groß angelegten Prozess, den der Think Tank iRights.Lab im Auftrag der Bertelsmann Stiftung organisiert. 

annie-spratt-608001-unsplash_Ret_ST_MT.jpg(© Annie Spratt / Unsplash – Unsplash License, <a href="https://unsplash.com/license" target="_top" class="link link--external" title="Opens internal link in this window" data-htmlarea-external="1">https://unsplash.com/license</a>)

Arbeitspapier: Gütekriterien für Algorithmen – Lehren aus bestehenden Forderungskatalogen

Was dürfen Algorithmen und was nicht? Welche Qualitätsstandards müssen sie erfüllen? Zu welchen Zwecken dürfen sie eingesetzt werden? Wichtige Fragen, zu denen es bisher keine Einigung gibt. Eine Vielzahl internationaler Organisationen versucht, sie durch die Formulierung von Gütekriterien für Algorithmen zu beantworten und so eine Grundlage für einen ethischeren Einsatz algorithmischer Systeme zu schaffen.  In unserem Arbeitspapier „Gütekriterien für algorithmische Prozesse“ werden drei Vorschläge genauer in den Blick genommen und hinsichtlich ihrer Stärken und Schwächen analysiert.

shutterstock_695631085_Premier_Cover_1_Retusche.jpg_ST_IFT(© Shutterstock / William Perugini)

Umfrage: Deutschland noch nicht in der algorithmischen Welt angekommen

Partnersuche, Online-Shopping, Job-Bewerbung – Algorithmen sind längst Teil unseres Alltags. Doch nur wenige wissen, wo Algorithmen eingesetzt werden und wie wirkmächtig sie sind. Um die Menschen auf die algorithmische Gesellschaft vorzubereiten, braucht es eine breite öffentliche Debatte, mehr Kompetenzen bei den Bürgern und eine aktive staatliche Kontrolle.

pixabay_pieces-of-the-puzzle-592798_Montage-ST-MT.jpg(© Hans/pixabay.com - CC0, Public Domain, https://creativecommons.org/publicdomain/zero/1.0/legalcode)

Arbeitspapier: Welche Lösungen es jetzt braucht, damit algorithmische Prozesse den Menschen dienen

Verträglichkeitsprüfungen, Qualitätssiegel für Herkunft und Güte von Daten, Verbandsklagerechte für die Antidiskriminierungsstelle des Bundes, eine kompetente Algorithmenagentur – es gibt viele sehr konkrete Ideen, was zu tun ist, um algorithmische Systeme zum Wohl aller Menschen zu nutzen. Das Arbeitspapier „Damit Maschinen den Menschen dienen“ zeigt das Spektrum der bisher in Wissenschaft, Wirtschaft, Zivilgesellschaft und Politik diskutierten Lösungsansätze und systematisiert den Überblick.

unsplash_20180427_PM_irights_tirza-van-dijk-58298.jpg(© Tirza van Dijk / Unsplash – Unsplash License, <a href="https://unsplash.com/license" target="_top" class="link link--external" title="Opens internal link in this window" data-htmlarea-external="1">https://unsplash.com/license</a>)

Beteiligungsprozess: Verhaltenskodex für den Einsatz von Algorithmen – Startschuss für breiten Beteiligungsprozess

Wir wagen den großen Wurf: Der Think Tank iRights.Lab entwickelt einen Gütekriterienkatalog für gesellschaftlich relevante algorithmische Prozesse. Dazu organisiert das iRights.Lab im Auftrag der Bertelsmann-Stiftung einen umfangreichen Meinungsbildungsprozess in Kooperation mit hochrangigen externen Spezialistinnen und Spezialisten und unter Einbeziehung einer Vielzahl von Stakeholdern aus Politik, Wirtschaft, Wissenschaft und Verbänden.

shutterstock_520256158_Premier_Cover_4_Retusche.jpg_ST_IFT(© Shutterstock / Alexander Image)

Studie: Datenschutz-Grundverordnung bietet zu wenig Kontrolle für Algorithmen

Algorithmen bewerten Menschen und entscheiden über sie – etwa in Bewerbungsverfahren oder bei der Kreditvergabe. Bislang läuft dies noch fast unkontrolliert ab, was zu falschen Bewertungen oder gar Diskriminierungen führen kann. Die ab Mai wirksame Datenschutz-Grundverordnung (DSGVO) wird daran nur wenig ändern. Dies zeigt eine Analyse in unserem Auftrag.

shutterstock_601498403_Premier_Retusche_ST-IFT.jpg(© Shutterstock / Budur Nataliia)

Arbeitspapier: Wo Maschinen irren können: Fehlerquellen und Verantwortlichkeiten in Prozessen algorithmischer Entscheidungsfindung

Der Entwicklungsprozess von algorithmischen Entscheidungssystemen ist lang und eine große Anzahl unterschiedlicher Akteure ist daran beteiligt. Deshalb können an vielen Stellen Fehler passieren – die meisten lassen sich aber vermeiden oder behe-ben. Katharina Zweig beschreibt anschaulich, wie algorithmische Systeme derzeit ent-wickelt und eingesetzt werden, und zeigt Verantwortlichkeiten sowie potenzielle Feh-lerquellen auf.   

Reagenzglaeser-provetas-118222.jpg(© makunin / pixabay.com - CC0, Public Domain)

Förderung: Mehr Transparenz und zivilgesellschaftliche Kontrolle von Algorithmen

Die Bertelsmann Stiftung fördert die gemeinnützige Organisation AlgorithmWatch. Ziel ist es, gesellschaftlich relevante algorithmische Entscheidungen (ADM) transparent zu machen und einen informierten öffentlichen Diskurs über die Bedeutung, Risiken und Chancen von ADM zu ermöglichen.  Das Engagement der Bertelsmann Stiftung ist auf zunächst neun Monate und einen Finanzierungsumfang von 200.000 Euro angelegt.

platinenpracht_34913174406_o.jpg(© Konrad Lischka)

Arbeitspapier: Wie algorithmische Prozesse den gesellschaftlichen Diskurs beeinflussen

Mehr als 57 Prozent der deutschen Internetnutzer informieren sich auch über Suchmaschinen und soziale Netzwerke über das Zeitgeschehen. In den USA nutzen bereits 44 Prozent der Erwachsenen Facebook regelmäßig als Nachrichtenquelle. Der Begriff "Öffentlichkeit" definiert sich also neu – weil nun algorithmische Prozesse und psychologische Faktoren dazu beitragen, was wir als Nachricht wahrnehmen und wie wir es wahrnehmen. Ein neues Arbeitspapier untersucht, was wir über diesen Wandel wissen – und wie er für mehr Teilhabe genutzt werden kann.

Platine_32654037514_ed8f11eb74_o.jpg(© Konrad Lischka)

Arbeitspapier: Wie Algorithmen Teilhabe ermöglichen können

Algorithmen bestimmen unser Leben nicht nur auf Facebook, sondern auch in vielen anderen Lebensbereichen: Für die Einsatzplanung der Polizei beobachten und bewerten algorithmische Prozesse, wie oft in Wohnvierteln eingebrochen wird. Oder aber sie überwachen für Versicherungen die Fahrweise in manchen Autos. Wir haben ein Verfahren entwickelt, mit dem man solche Prozesse darauf überprüfen kann, wie viele Chancen auf Teilhabe sie ermöglichen können.

Platinenzauber-1853-247-200dpi.jpg(© Konrad Lischka)

Arbeitspapier: Wenn Maschinen Menschen bewerten

Kriminalitätsprognosen, Kreditvergabe, Bewerberauswahl: Algorithmische Systeme beeinflussen heute auf unterschiedlichen Gebieten die Leben vieler Menschen. Damit maschinelle Entscheidungen den Menschen dienen, braucht es gesellschaftliche Gestaltung, zum Beispiel in Form von Gütekriterien für algorithmische Prognosen. Vorhersagen müssen sachgerecht angewendet werden, widerlegbar und unabhängig zu überprüfen sein.