|
„Erlesenes“ ist ein zweiwöchentlicher Newsletter von reframe[Tech] - Algorithmen fürs Gemeinwohl und bietet eine kuratierte Auswahl an wissenschaftlichen Studien, journalistischen Artikeln und Debattenbeiträgen sowie Fundstücken mit Augenzwinkern aus sozialen Medien zum Themenkomplex Algorithmen und KI. Mit „Erlesenes“ wollen wir den Diskurs rund um algorithmische Entscheidungssysteme und ihre Chancen sowie Risiken für das Gemeinwohl einordnen, wir möchten den Blick über den Tellerrand wagen und Perspektiven fernab des dominierenden Diskurses aufgreifen. So wollen wir die Abonnent:innen in dem sich rasch verändernden Themenfeld up-to-date halten. Jede Ausgabe finden Sie auch auf unserem Blog.
Hier geht's zum Blog!
|
|
|
|
|
|
Liebe Leser:innen,
normalerweise versuchen wir bei „Erlesenes“ eine Balance zwischen positiven und negativen Beiträgen zu finden. Angesichts der aktuellen (politischen) Weltlage ist es uns bei dieser Ausgabe leider das erste Mal nicht gelungen. Die Auswirkungen einer zweiten Trump-Regierung könnten dazu führen, dass es weniger Sicherheit und Gemeinwohlorientierung bei der Entwicklung und dem Einsatz von KI-Systemen geben wird. Die Gefahr ist groß, dass Big Tech noch mehr ungezügelte Macht bekommen und Monopole bilden.
Die Beispiele aus der heutigen Ausgabe zeichnen ein Bild, wie KI-Systeme bereits jetzt Grundrechte einschränken können, welche Auswirkungen sie auf die Umwelt haben und wie sie im Militär eingesetzt werden.
Für uns ist klar: Wir bei „Erlesenes“ werden noch stärker die Perspektiven und Alternativen aus der Zivilgesellschaft in den Vordergrund stellen!
Eine gute Lektüre wünschen
Elena und Teresa
Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: www.reframetech.de/newsletter/
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.
|
|
|
|
|
Vorurteile vorprogrammiert
AI overwhelmingly prefers white and male job candidates in new test of resume-screening bias, Geek Wire, 31.10.2024
Alle, die sich schon einmal bei einem Unternehmen beworben haben, werden sich diese Frage gestellt haben: Komme ich weiter oder werde ich aussortiert? Immer mehr Unternehmen setzen heute KI-gestützte Systeme ein, um Bewerbungen vorzusortieren. Doch eine neue Studie der Washington Universität zeigt abermals, dass diese Systeme bestehende Diskriminierungen verstärken können. In 85 Prozent der Fälle bevorzugten die getesteten Sprachmodelle Lebensläufe mit „weiß“ klingenden Namen. Noch deutlicher wird es bei der Kombination von Geschlecht und Hautfarbe – schwarze männliche Bewerber wurden z. B. in fast 100 Prozent der Fälle aussortiert, selbst wenn ihre Qualifikationen mit denen anderer Kandidat:innen identisch waren. Der Grund dafür liegt in den Trainingsdaten: Die KI-Systeme „lernen“ aus bestehenden gesellschaftlichen Mustern. Erste Regulierungsversuche gibt es bereits. Die Forscherin Kyra Wilson warnt jedoch, dass es nicht ausreicht, z. B. Namen aus Lebensläufen zu entfernen. Denn KI-Systeme erkennen aus dem Bildungsweg, dem Wohnort und sogar der Wortwahl Korrelationen, die auf Identitätsmerkmale der Bewerber:innen schließen lassen. Ein Schlüssel könnte in repräsentativeren Trainingsdaten liegen. Dieses Beispiel zeigt abermals: Technologie ist nicht neutral und wenn wir nicht aufpassen, zementiert sie bestehende Ungerechtigkeiten.
Hier geht’s zum Artikel!
|
Trumps Wiederwahl: Was heißt das für die Zukunft von KI-Regulierung?
What Trump’s victory could mean for AI regulation, Tech Crunch, 6.11.2024
Wie Technologie unser Leben beeinflusst, hängt häufig von politischen Entscheidungen ab. Das zeigt sich derzeit in den USA, wo nach dem Wahlsieg von Donald Trump ein Kurswechsel in der KI-Regulierung wahrscheinlich ist. Während die Regierung Joe Bidens bisher einen ausgewogenen Ansatz verfolgte, könnte sich dies unter Trump ändern. Biden hatte wichtige Regeln eingeführt, etwa dass KI-Unternehmen der Regierung melden müssen, wie sie ihre Modelle trainieren und absichern (Erlesenes berichtete). Zudem wurde ein eigenes Institut (AI Safety Institute, AISI) gegründet, das KI-Systeme auf Risiken prüfen soll. Trump hat bereits angekündigt, diese Regelung sofort wieder aufzuheben. Er und seine Verbündeten sehen darin vor allem Bürokratie, die Innovationen verhindert. Was heißt das für die Zukunft? Expert:innen erwarten, dass die Trump-Administration weniger regulieren wird. Stattdessen könnten einzelne Bundesstaaten aktiv werden: Kalifornien z. B. verpflichtet Unternehmen bereits, Details zu ihren KI-Trainings offenzulegen. Oxford-Professorin Sandra Wachter plädiert für einen überparteilichen Ansatz, da die Risiken alle Menschen betreffen – unabhängig von politischer Orientierung oder Herkunft. Ein gemeinsamer Ansatz sei notwendig, um gute, globale Lösungen zu finden.
Hier geht‘s zum Artikel!
|
|
|
|
Vom Alltagstool zur Kriegswaffe: ChatGPTs Einsatz beim Militär
U.S. Military Makes First Confirmed OpenAI Purchase for War-Fighting Forces, The Intercept, 25.1.2024
ChatGPT kennen Sie wahrscheinlich aus Ihrem (Arbeits-)Alltag. Doch während wir KI-Modelle zu produktiven Zwecken nutzen, ist OpenAI, die Firma hinter ChatGPT, in den militärischen Bereich eingestiegen. Wie der Artikel berichtet, hat das US-Militärkommando für Afrika (AFRICOM) zum ersten Mal OpenAI-Software für seine Operationen gekauft. Dies geschieht über Microsoft, das als Großinvestor von OpenAI die Technologie weiterverkauft. Das ist kein Zufall, denn erst Anfang des Jahres hatte OpenAI still und leise das Verbot der militärischen Nutzung aus den Allgemeinen Geschäftsbedingungen (AGBs) gestrichen. Die Folgen dieser Entwicklung sind beunruhigend. AFRICOM war in der Vergangenheit in zahlreiche problematische Aktivitäten verwickelt. KI-Expertin Heidy Khlaaf warnt zudem vor mangelnder Zuverlässigkeit der Systeme, die oftmals falsche Outputs generieren. Schon in der Vergangenheit führte die ungenaue Datenverarbeitung bei AFRICOM zu tragischen Fehlern – wie bei einem Drohnenangriff in Somalia 2018, bei dem Zivilist:innen getötet wurden. Diese Verquickung mit unzuverlässigen KI-Systemen ist ein erschreckendes Beispiel dafür, wie sich eine Innovation, die für produktive Zwecke gedacht war, schnell in eine andere Richtung entwickeln kann.
Hier geht's zum Artikel!
|
Geheim-Algorithmus wird aufgedeckt
Automating the hostile environment: uncovering a secretive Home Office algorithm at the heart of immigration decision-making, Privacy International, 17.10.2024
Behördengänge können manchmal ein Gefühl der Ohnmacht hervorrufen. Noch schwieriger wird es, wenn in Behörden Algorithmen eingesetzt werden, um Entscheidungen zu generieren – und genau das passiert derzeit in Großbritannien. Privacy International hat aufgedeckt, wie das britische Innenministerium einen Algorithmus namens IPIC („Identify and Prioritise Immigration Cases“, auf Deutsch: „Einwanderungsfälle identifizieren und priorisieren“) einsetzt. Das System generiert ohne Wissen der Betroffenen Empfehlungen für Einwanderungsentscheidungen. Der Anwendungsbereich ist weitreichend: Von Aufenthaltsgenehmigungen für EU-Bürger:innen bis hin zu Abschiebungen verarbeitet IPIC sensible personenbezogene Daten. Beamt:innen, die eine automatisierte Empfehlung ablehnen, müssen dies schriftlich begründen – bei Zustimmung ist keine Erklärung nötig. In einem System mit hoher Arbeitsbelastung liegt es nahe, dass Empfehlungen angenommen werden. Das Innenministerium verweigert bislang detaillierte Informationen über die genaue Funktionsweise aus Angst vor Manipulation. Ohne Transparenz haben Betroffene aber keine Chance, sich gegen Fehlentscheidungen zu wehren. Das ist leider ein weiteres Beispiel dafür, dass der Einsatz intransparenter KI-Systeme Grundrechte gefährden kann.
Hier geht’s zum Artikel!
|
|
|
|
Tech-Boom in Malaysia: Wie neue Rechenzentren die Ressourcen des Landes belasten
Malaysia’s new data centers create thousands of jobs — and worries about power and water shortages, Rest or World, 6.11.2024
Ihr Smartphone wird leistungsfähiger – doch der Preis dafür ist hoch. Die wachsende KI-Industrie braucht immer mehr Rechenzentren. Diese wiederum verbrauchen enorme Mengen an Strom und Wasser (Erlesenes berichtete). Heute schauen wir nach Malaysia: Der südliche Bundesstaat Johor hat sich in den letzten drei Jahren zu einem Magneten für Tech-Unternehmen entwickelt. Google, Amazon, Microsoft und andere haben dort rund 50 neue Rechenzentren gebaut oder geplant. Johor lockt seither mit günstigen Grundstücken und niedrigen Betriebskosten. Für die Region hat der Boom durchaus Vorteile, 40.000 neue Arbeitsplätze sind dadurch entstanden. Expert:innen warnen aber, dass der Stromverbrauch der Rechenzentren bis 2035 ein Fünftel der gesamten Kapazität der malaysischen Halbinsel ausmachen könnte. Zudem droht in den nächsten Jahren eine massive Wasserknappheit. Anwohner:innen klagen bereits über häufigere Strom- und Wasserausfälle. Die malaysische Regierung reagiert mit neuen Richtlinien. So müssen Rechenzentren künftig strenge Nachhaltigkeitskriterien erfüllen. Ein Beispiel macht Mut: Der neue YTL-Green-Data-Center Park in Johor wird komplett mit Solarenergie betrieben – der erste seiner Art im Land.
Hier geht’s zum Artikel!
|
|
|
|
|
Follow-Empfehlung
Dagmar Monetts ist Informatikprofessorin. Ihre Schwerpunkte liegen auf KI, KI-Ethik und Softwareentwicklung.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|