„Erlesenes“ ist ein zweiwöchentlicher Newsletter von reframe[Tech] - Algorithmen fürs Gemeinwohl und bietet eine kuratierte Auswahl an wissenschaftlichen Studien, journalistischen Artikeln und Debattenbeiträgen sowie Fundstücken mit Augenzwinkern aus sozialen Medien zum Themenkomplex Algorithmen und KI. Mit „Erlesenes“ wollen wir den Diskurs rund um algorithmische Entscheidungssysteme und ihre Chancen sowie Risiken für das Gemeinwohl einordnen, wir möchten den Blick über den Tellerrand wagen und Perspektiven fernab des dominierenden Diskurses aufgreifen. So wollen wir die Abonnent:innen in dem sich rasch verändernden Themenfeld up-to-date halten. Jede Ausgabe finden Sie auch auf unserem Blog. Hier geht's zum Blog!

 

 

Liebe Leser:innen,

derzeit wird auf EU-Ebene darüber diskutiert, ob automatisierte Gesichterkennung in der KI-Verordnung verboten werden soll. Passend dazu gibt es in dieser neuen Erlesenes-Ausgabe gleich zwei Beiträge dazu: Zum einen wird anhand eines Beispiels aus den USA gezeigt, wie die Technik bei der Onlineidentitätsverifizierung (nicht) eingesetzt wird. Zum anderen verdeutlicht das Beispiel aus Russland die Gefahren eines solchen Technologieeinsatzes in Autokratien: US-amerikanische Gesichtserkennungssoftware wird dort genutzt, um Menschen zu identifizieren und präventiv zu verhaften – nur weil sie potenziell gegen das Regime protestieren könnten. Des Weiteren darf natürlich auch ein Beitrag von Emily Bender über den offenen Brief von Elon Musk und Co. nicht fehlen.

 

Viel Spaß beim Lesen wünschen

Teresa und Michael

 

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei Twitter unter @reframeTech.

Offener Brief von Musk und Co. reproduziert KI-Hype

Policy makers: Please don’t fall for the distractions of #AIhype, Twitter, 29.3.2023
Vor Ostern veröffentlichte das Future of Life Institute einen offenen Brief, der breite Aufmerksamkeit erregte. Zentrale Forderung des Briefs ist ein Stopp bei der Entwicklung großer Sprachmodelle von mindestens sechs Monaten, um gemeinsame „Sicherheitsregeln“ für KI-Design zu entwickeln. Unterschrieben wurde der Brief von über 1000 Personen, darunter Steve Wozniak und Elon Musk. Das machte Computerlinguistin Emily Bender stutzig und so nimmt sie in diesem Blogpost (und in einem gleichlautenden Twitterthread) die Inhalte und das Framing des Briefs auseinander. Sie bewertet etwa die Forderungen nach transparenten, genauen und nachvollziehbaren KI-Anwendungen positiv. Gleichzeitig stellt sie heraus, wie der Brief durch Formulierungen und Framing KI-Systemen übermenschliche Eigenschaften zuschreibt – und wie ein zentrales Problem in dem Brief vernachlässigt wird: Es gehe nicht (nur) um KI-Systeme, sondern um die Regulierung von Unternehmen und Regierungen, die KI-Systeme nutzen, um Macht auszuüben.
Hier geht’s zum Artikel!

Hier wurde Gesichtserkennung vorgeschrieben

A US Agency Rejected Face Recognition—and Landed in Big Trouble, WIRED, 22.3.2023
Die zentrale Plattform, bei der US-Bürger:innen online ihre Identität verifizieren, um öffentliche Dienste zu erreichen, entschied sich bewusst gegen automatisierte Gesichtserkennung. Diese hätte über eine Kamera aufgenommene Fotos des Gesichts mit biometrischen Bildern von Ausweisen verglichen. Das Team hinter Login.gov sah ein großes Risiko darin, dass es hierbei zu diskriminierenden Auswirkungen kommen könne. Das ist nicht ganz unbegründet, schließlich gab es zuvor bereits ähnliche Probleme bei anderen Systemen. Soweit, so verantwortungsvoll. Ein Anfang März veröffentlichter Bericht der entsprechenden Aufsichtsbehörde meldete jedoch Beschwerde an: Login.gov breche bestehende Standards, indem es sich weigere, KI-Gesichtserkennung einzusetzen. Diese sei bei Verifikation online vorgeschrieben, um Identitätsdiebstahl zu vermeiden – alternative Methoden seien bisher nicht erlaubt. Journalist Khari Johnson beschreibt, welche Diskussion dieser Fall ausgelöst hat. Die nationale Standardisierungsbehörde NIST (National Institute of Standards and Technology) überarbeitet inzwischen den betreffenden Standard, um auch andere Verifikationsverfahren zu ermöglichen.
Hier geht’s zum Artikel!

 

So können wir messen, ob ChatGPT wirklich „gut“ ist

Language Models are Changing AI: The Need for Holistic Evaluation, Stanford University, 17.11.2022
Große Sprachmodelle und ihre Fähigkeiten werden sehr unterschiedlich bewertet. Manche behaupten, solche Systeme würden Anzeichen allgemeiner Intelligenz zeigen, während andere den Output als teilweise sinnlos oder gefährlich bewerten. Da stellte sich für Forscher:innen der Stanford University die Frage, wie eigentlich die Leistungsfähigkeit von Sprachmodellen bewertet und verglichen werden kann – abseits des Hypes und mit klaren Benchmarks, also Maßstäben für den Vergleich von Leistungen. Im Projekt HELM (Holistic Evaluation of Language Models) entwickelten sie daher einen gleichnamigen Ansatz, der auch sehr unterschiedliche Sprachmodelle bewertbar und vergleichbar macht. Dieser besteht aus definierten Anwendungsfällen, in welchen die Modelle anhand einheitlicher Metriken bewertet werden. Dabei können Anwendungsfälle ausgewählt werden, die für das jeweilige Modell passend sind. Das erlaubt es, neben etwa Genauigkeit auch Robustheit oder Bias, also Verzerrungen, zu erfassen. Mit diesem holistischen Ansatz wollen die Forscher:innen zur Transparenz von Sprachmodellen beitragen.
Hier geht's zum Artikel!

Interdisziplinäre Zusammenarbeit kann Burnout im Gesundheitssektor verringern

Artificial Intelligence And Its Potential To Combat Physician Burnout, Forbes, 12.4.2023
Hohe Arbeitsbelastungen sind im medizinischen Kontext leider nicht unüblich und auch Burnout ist ein zunehmendes Krankheitsbild bei Ärzt:innen und Pfleger:innen. Insbesondere während der Coronapandemie nahm dieses Problem zu. Radiologe Omer Awan beschreibt in diesem Artikel, dass bei diesen Berufsgruppen zudem die rein administrativen Aufgaben fast die Hälfte ihrer Arbeitszeit füllen. Hier sieht er Potenzial, dass KI-Anwendungen dabei helfen können, Arbeitsabläufe zu entlasten. Er beschreibt beispielsweise die KI-Anwendung „Regard“, die Ärtz:innen bei der Diagnose nutzen können, um Entwürfe für Arztberichte zu erstellen. In einem Test am Torrance Memorial Medical Center habe diese Anwendung dabei geholfen, Fälle von Burnout zu reduzieren. Das System funktioniere dabei auch deshalb besonders gut, weil für seine Programmierung Entwickler:innen mit medizinischem Fachpersonal zusammengearbeitet haben.
Hier geht's zum Artikel!

 

Importierte Gesichtserkennung sorgt für präventive Verhaftungen in Russland

Facial recognition is helping Putin curb dissent with the aid of U.S. tech, Reuters, 28.3.2023
Seit 2017 setzt Moskau stadtweit automatisierte Gesichtserkennung ein. Nun untersuchte die Reuters-Journalistin Lena Masri gemeinsam mit der russischen Menschenrechtsorganisation OVD-info über 2000 Gerichtsprozesse, um die Auswirkungen dieser Technologie zu erfassen. Dabei zeigt sich, dass Gesichtserkennung vor allem im Jahr 2021 zu Verhaftungen führte, etwa um Menschen nach ihrer Teilnahme an Protesten zu identifizieren. Seit dem Beginn des vollumfänglichen Angriffs Russlands auf die Ukraine wird dieses automatische KI-System aber zunehmend dafür eingesetzt, potenzielle Protestierende im Voraus zu identifizieren. Sie werden verhaftet mit der Begründung, sie hätten in Sozialen Medien angekündigt, an einer Protestaktion teilnehmen zu wollen. Einige der Komponenten der Gesichtserkennung wurden dabei aus den USA importiert oder entstanden in Kooperation mit US-Unternehmen und Behörden. In diesem Artikel liefern die Autor:innen einen Überblick über Gesichtserkennung in Russland, beschreiben ihre Auswirkungen auf die Freiheit und erzählen die Geschichten einiger Betroffener.
Hier geht's zum Artikel!

 
Bunte Spielfiguren zu sehen

Follow-Empfehlung

Emily Bender

Emily Bender ist Professorin für Computerlinguistik an der University of Washington. Sie setzt sich auf Twitter und Mastodon mit dem AI Hype – v. a. um große Sprachmodelle – kritisch auseinander.

Verlesenes

AI Made in Germany

Roboter, der mit der rechten Hand sehr nachdenklich den Kopf berührt