„Erlesenes“ ist ein zweiwöchentlicher Newsletter von reframe[Tech] - Algorithmen fürs Gemeinwohl und bietet eine kuratierte Auswahl an wissenschaftlichen Studien, journalistischen Artikeln und Debattenbeiträgen sowie Fundstücken mit Augenzwinkern aus sozialen Medien zum Themenkomplex Algorithmen und KI. Mit „Erlesenes“ wollen wir den Diskurs rund um algorithmische Entscheidungssysteme und ihre Chancen sowie Risiken für das Gemeinwohl einordnen, wir möchten den Blick über den Tellerrand wagen und Perspektiven fernab des dominierenden Diskurses aufgreifen. So wollen wir die Abonnent:innen in dem sich rasch verändernden Themenfeld up-to-date halten. Jede Ausgabe finden Sie auch auf unserem Blog. Hier geht's zum Blog!

 

 

Liebe Leser:innen,

wer kennt es nicht: das Gedankenexperiment des Trolley-Problems – besonders beliebt im Kontext des autonomen Fahrens und oft belächelt in der KI-Ethik. Eine Studie der TU Münchens verdeutlicht nun, dass die Prinzipien, die in der Lösung des Dilemmas abgewogen werden müssen, zwar transparenter und anschaulicher gemacht werden können, aber schlussendlich gesellschaftlich verhandelt werden müssen. Des Weiteren gibt es aus den USA eine erste Version eines Standards für die Vertrauenswürdigkeit eines KI-Systems. Das alles und mehr erwartet Sie in dieser Ausgabe von Erlesenes.

Viel Spaß beim Lesen wünschen

Teresa und Michael

 

 

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei Twitter unter @reframeTech.

KI-Standardisierung made in the USA

NIST Risk Management Framework Aims to Improve Trustworthiness of Artificial Intelligence, NIST, 26.01.2023
Während in Europa darüber diskutiert wird, ob Standards die Rechte von Verbraucher:innen hinreichend schützen können, werden in den USA Nägel mit Köpfen gemacht: Das National Institute of Standards and Technology (NIST) hat die erste Version eines Standards für Vertrauenswürdigkeit von KI-Systemen veröffentlicht. Das Artificial Intelligence Risk Management Framework beschreibt vier zentrale Funktionen, die Organisationen auf dem Weg zu vertrauenswürdigen KI-Systemen erfüllen müssen: regeln, abbilden, messen und verwalten (govern, map, measure und manage). Für jede dieser Funktionen werden Unterkategorien beschrieben, die es je nach Anwendungskontext zu erfüllen gilt. Um es für Organisationen einfacher zu machen, die Vorgaben umzusetzen, wurde parallel ein Playbook veröffentlicht, das Hinweise zur Operationalisierung und Hintergrundinformationen bietet. Wer es einmal ausprobieren will: Bis Ende Februar läuft eine offene Konsultationsphase.
Hier geht’s zum Artikel!

Darum handeln Unternehmen verantwortlich

The state of responsible technology, MIT Technology Review, 11.01.2023
Wir stellen uns immer wieder die Frage: Wie überzeugen wir andere davon, Technologie vertrauenswürdig zu entwickeln und einzusetzen? Eine Antwort auf diese Frage kann uns vielleicht eine Umfrage liefern, die MIT Technology Review durchgeführt hat – zumindest teilweise. Gefragt wurden weltweit 550 Personen in Leitungsfunktionen, insbesondere in großen IT-Unternehmen. Die Kernerkenntnis: Verantwortungsvolle Technologieentwicklung ist kein reines Buzzword mehr, sondern wird zunehmend Teil unternehmerischer Praxis. Besonders interessant dabei ist die meistgenannte Hürde auf dem Weg dahin: Mehr als die Hälfte der befragten Unternehmer:innen gibt fehlende Unterstützung durch die Leitung an. Inhaltlich gibt es aber durchaus große Unterschiede, beispielsweise darin, welche konkreten Praktiken mit verantwortungsvoller Technologieentwicklung einhergehen sollten.
Hier geht’s zum Artikel!

 

Wenn Algorithmen präziser sind als gedacht

Confidential document reveals key human role in gunshot tech, 20.01.2023
In den USA setzen mehr als 140 Polizeibehörden ShotSpotter ein. Diese Software soll mittels Audiosensoren in Fällen von Gewaltanwendung den Einsatz von Schusswaffen automatisiert erkennen und an die Behörden melden. Die Software ist jedoch fehlerbehaftet: Sie ordnet regelmäßig Feuerwerk als Schusswaffen ein und sorgt so für unnötige Polizeieinsätze. Eine Studie kam deshalb zu dem Schluss, dass der Einsatz der Software keine Auswirkungen auf die Aufklärung von Schusswaffeneinsätzen hatte. Veröffentlichte interne Dokumente belegen, dass Kontrollmaßnahmen ebenfalls nicht wirklich helfen. So setzt Shotspotter auf menschliche Kontrolle, um möglicherweise falsch erkannte Schüsse zu prüfen. Im Fall von Michael Willams hat jedoch der:die Kontrolleur:in einen vom System korrekt als Feuerwerk erkannten Lärm als gefährlich markiert. Die Folge: Michael Williams verbrachte fast ein Jahr in Untersuchungshaft. Der Fall zeigt, dass menschliche Kontrolle wichtig, aber kein Allheilmittel bei der Überprüfung von Gefährdungspotenzialen ist.
Hier geht's zum Artikel!

Trolley-Problem reloaded

Autonome Autos: Ethischer Algorithmus soll Risiko vor Unfällen abwägen, Heise Online, 02.02.2023
Alle, die sich mit Algorithmenethik beschäftigen, kennen und fürchten es: Das Trolley-Dilemma. Es wird immer reflexhaft herangezogen, sobald Ethik in Zusammenhang mit autonomem Fahren diskutiert wird. Forscher:innen der TU München haben sich nun ausführlich mit 2000 simulierten Fahrunfall-Szenarien beschäftigt und versucht, Lösungen zu entwickeln. Dabei konnten sie grundlegende Prinzipien herausarbeiten, die gegeneinander abgewogen werden müssen: das akzeptable Maximalrisiko eines Manövers, der besondere Schutz der gegebenenfalls am stärksten Betroffenen, die Gleichbehandlung aller Menschen, die Minimierung des Gesamtrisikos und die Eigenverantwortung der Verkehrsteilnehmenden. Eine wichtige Erkenntnis dabei ist, dass es keine allgemeingültige Gewichtung dieser Prinzipien gibt, sondern dieses Thema gesellschaftlich verhandelt werden muss. Außerdem zeige sich, dass solche simulierten Fälle extrem unwahrscheinlich sind.
Hier geht's zum Artikel!

 

Wenn KI Sprache generiert

Neural prosthesis uses brain activity to decode speech, Medical Xpress, 19.01.2023
Menschen können aufgrund verschiedener Ursachen ihre Fähigkeit zu sprechen verlieren, beispielsweise nach einem Schlaganfall. Russische Forscher:innen haben nun ein KI-System entwickelt, das Sätze, die eine Person zu sagen beabsichtigt, auf Grundlage ihrer Gehirnaktivität erkennt. Dabei wurde bei Patient:innen etwa 70 Prozent Genauigkeit erzielt. Bisher gingen solchen Experimenten sehr invasive Operationen voraus, bei denen Elektroden über einen großen Teil der Gehirnrinde verteilt werden mussten. Das Neue an dem Vorgehen, das die Forscher:innen in ihrer Studie festhalten, ist die Nutzung einer minimalinvasiven Prozedur. Diese könnte es für viele Patient:innen wesentlich attraktiver machen, solche neuralen Prothesen zu verwenden.
Hier geht's zum Artikel!

 
Bunte Spielfiguren zu sehen

Follow-Empfehlung

Vidushi Marda

Vidushi Marda arbeitet als Senior Programme Officer bei der Digitalrechteorganisation Article 19 und twittert beispielsweise über die Gefahren automatisierter Emotionserkennung.

Verlesenes

ChatGPT war gestern – CatGPT ist heute

Roboter, der mit der rechten Hand sehr nachdenklich den Kopf berührt