„Erlesenes“ ist ein zweiwöchentlicher Newsletter von reframe[Tech] - Algorithmen fürs Gemeinwohl und bietet eine kuratierte Auswahl an wissenschaftlichen Studien, journalistischen Artikeln und Debattenbeiträgen sowie Fundstücken mit Augenzwinkern aus sozialen Medien zum Themenkomplex Algorithmen und KI. Mit „Erlesenes“ wollen wir den Diskurs rund um algorithmische Entscheidungssysteme und ihre Chancen sowie Risiken für das Gemeinwohl einordnen, wir möchten den Blick über den Tellerrand wagen und Perspektiven fernab des dominierenden Diskurses aufgreifen. So wollen wir die Abonnent:innen in dem sich rasch verändernden Themenfeld up-to-date halten. Jede Ausgabe finden Sie auch auf unserem Blog. Hier geht's zum Blog!

 

 

Liebe Leser:innen,

was haben Erdbeeren und Blaubeeren mit KI zu tun? Warum sollte man ChatGPT der Umwelt (und dem guten Geschmack) zuliebe nicht für jede Aufgabe nutzen? Wie geht die EU mit personenbezogenen Daten in KI-Modellen um? Und welche Mythen sorgen für eher nebelige Verhältnisse, wenn es um die Potenziale von KI, etwa für die Produktivität, geht?

Diese Fragen stehen im Mittelpunkt dieser neuen Erlesenes-Ausgabe. Die Auswahl der Artikel soll Ihnen dabei helfen, die Funktionsweise von (generativen) KI-Modellen besser zu verstehen, Mythen zu hinterfragen und informierter über die Auswirkungen und tatsächlichen Potenziale sprechen zu können.

Außerdem: KI-generierte Übersetzungen in Wahlkampf – Brückenbauer oder Stolperstein?

Viel Spaß beim Lesen wünschen  

Elena und Teresa 

 

P.S. Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: www.reframetech.de/newsletter/

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.

Generative KI entzaubert!

How Does Generative AI Work? TechBetter | Ravit Dotan, 8.9.2024
Was haben Erdbeeren und Blaubeeren mit Künstlicher Intelligenz zu tun? Ravit Dotan, Expertin für KI-Ethik, erklärt in ihrem Artikel anhand einfacher Visualisierungen, darunter Erdbeeren und Blaubeeren, wie maschinelles Lernen als Grundlage für generative KI funktioniert. Dotan macht deutlich, dass KI-Algorithmen weder neutral noch allwissend sind. Sie basieren auf Daten und statistischen Mustern, was bedeutet, dass schlechte Daten zu schlechten Ergebnissen führen können. Diese Verzerrungen können weitreichende Folgen haben, insbesondere da die Trainingsdaten oft nicht die Vielfalt der realen Welt widerspiegeln. Sie erklärt auch, wie ChatGPT funktioniert: Die Algorithmen sind darauf ausgelegt, Wortfolgen auf Basis statistischer Muster zu generieren. Sie berechnen, welche Wörter mit hoher Wahrscheinlichkeit folgen könnten. Ein einfaches Beispiel ist der Satz „Alle meine Entchen schwimmen auf dem …“. Das KI-System berechnet, dass das Wort „See“ folgt – nicht durch „Verstehen“, sondern durch wiederholtes Lernen und Mustern in den zugrunde liegenden Daten. Algorithmen sind also keineswegs unfehlbar. Wenn wir diese Technologien entmystifizieren, können wir besser über ihre Auswirkungen und Potenziale diskutieren.
Hier geht’s zum Artikel!

KI-Nebel lichten: Die Mythen hinter dem Hype

Challenging The Myths of Generative AI, Tech Policy Press, 29.8.2024
Die digitale Welt erscheint manchmal wie ein Nebel aus Marketingversprechen und Fachbegriffen. Doch dieser Nebel wird von Menschen gemacht – oft mit ganz bestimmten Absichten. In diesem Artikel beleuchtet der Autor Eryk Salvaggio die Mythen, die unsere Vorstellung von KI prägen. Er schreibt, dass viele dieser Erzählungen weniger der Aufklärung dienen als den Interessen von Technologieunternehmen. Nehmen wir z. B. den weit verbreiteten „Produktivitätsmythos“: KI-Tools versprechen, unsere Arbeit zu automatisieren und uns Zeit zu sparen. Aber diese Zeitersparnis ist oft eine Illusion. Salvaggio zitiert eine Studie von Upwork, nach der 77 Prozent der Arbeitnehmer:innen berichten, dass KI-Systeme ihre Arbeitsbelastung sogar erhöht haben. Auch andere Mythen wie der „Lernmythos“ werden kritisch hinterfragt. Wenn wir sagen, dass ein KI-Modell „lernt“, suggeriert dies menschenähnliche Fähigkeiten. In Wirklichkeit handelt es sich um eine statistische Optimierung vorselektierter Daten. Der „Lernmythos“ unterschätzt, wie wichtig Daten für die Entwicklung dieser Systeme sind, und fördert den Irrglauben, dass Daten leicht verfügbar, günstig und ohne Arbeitsaufwand zu bekommen sind (Erlesenes berichtete). Der Autor plädiert für ein realistischeres Bild dieser Technologien – jenseits von Marketinghype und dystopischen Ängsten und nimmt uns alle in die Verantwortung genauer hinzusehen und zu hinterfragen.
Hier geht‘s zum Artikel!

 

Googles KI im Visier

Google’s GenAI facing privacy risk assessment scrutiny in Europe, Tech Crunch, 12.9.2024
„Woher ‚weiß‘ das KI-System das alles?“ Diese Frage treibt nun auch die EU-Datenschützer:innen um. Die irische Datenschutzkommission (Data Protection Commission, DPC) hat eine Untersuchung gegen Google eingeleitet, in deren Mittelpunkt die Entwicklung des KI-Modells PaLM 2 steht. Im Kern geht es darum, ob Google eine Datenschutz-Folgenabschätzung durchgeführt hat, bevor es personenbezogene Daten von EU-Bürger:innen zum KI-Training nutzte, da der Output der Modelle nicht selten Rückschlüsse auf diese sensiblen Daten zulässt. Für das Training von generativen KI-Modellen sind große Datenmengen erforderlich und deswegen liegt der Fokus zunehmend auf den Datentypen und auf der Art und Weise, wie sie erhoben wurden. Die Untersuchung ist Teil einer größeren EU-Initiative, die den Umgang von Technologieunternehmen mit personenbezogenen Daten bei der Entwicklung von KI unter die Lupe nimmt. Die möglichen Konsequenzen sind beträchtlich: Bei Verstößen drohen Bußgelder von bis zu 4 Prozent des weltweiten Jahresumsatzes. Neben Google stehen auch die Unternehmen OpenAI, Meta und X im Fokus ähnlicher Untersuchungen. Für uns Nutzer:innen unterstreicht dies, wie wichtig es ist, die Verwendung unserer Daten in der KI-Entwicklung kritisch zu hinterfragen.
Hier geht's zum Artikel!

KI in politischen Kampagnen: Brückenbauerin oder Stolperstein?

Political campaigns embrace AI to reach voters across language barriers, Rest of World, 19.09.2024
Viele Bürger:innen wünschen sich, dass ihre gewählten Vertreter:innen ihre Sprache sprechen – im wahrsten Sinne des Wortes. Dank aktueller KI-Systeme rückt dieser Wunsch in greifbare Nähe. Politische Kampagnen nutzen KI-Übersetzungen, um Sprachbarrieren zu überwinden. In Indien nutzte Premierminister Narendra Modi ein KI-Tool, um seine Reden in Echtzeit in verschiedene Regionalsprachen übersetzen zu lassen (Erlesenes berichtete). Auch in den USA experimentieren Interessengruppen mit KI-Übersetzungen. Die AAPI Victory Alliance, eine politische Organisation, die sich für die Interessen von asiatischen Amerikaner:innen und pazifischen Insulaner:innen einsetzt, nutzt KI-Systeme, um diese Wählergruppen anzusprechen. Ziel ist es, Botschaften effektiver und kostengünstiger in der Muttersprache zu vermitteln. In Tests haben KI-übersetzte Botschaften bereits gut abgeschnitten. Doch es gibt Herausforderungen: Für viele Sprachen fehlen ausreichende Trainingsdaten, was die Qualität der Übersetzungen beeinträchtigt. Expert:innen mahnen außerdem zur Vorsicht. Der Kommunikationsberater Doug Hattaway betont: „KI kann nützliche erste Entwürfe produzieren, aber letztlich sind die Nutzer:innen für das Endprodukt verantwortlich.“
Hier geht’s zum Artikel!

 

Kreative Buchführung und fehlgeleitete Nachhaltigkeitsmetriken

Data center emissions probably 662% higher than big tech claims. Can it keep up the ruse? The Guardian, 15.9.2024
Wer schon einmal ChatGPT für ein Rezept für das Abendessen nutzen wollte, hat wahrscheinlich nicht bedacht, dass solche Anfragen einen überraschend großen ökologischen Fußabdruck hinterlassen. Wie groß dieser tatsächlich sein kann, zeigt ein aktueller Bericht der britischen Tageszeitung The Guardian. Demnach könnten die tatsächlichen Emissionen der firmeneigenen Rechenzentren von Google, Microsoft, Meta und Apple zwischen 2020 und 2022 bis zu 662 Prozent, also 7,62 Mal höher sein, als offiziell angegeben. Ein Hauptgrund für diese Diskrepanz ist die Nutzung von Renewable Energy Certificates (RECs, auf Deutsch: Herkunftsnachweise). Ein Vertreter von Amazon Employees for Climate Justice (eine Gruppe von mit der Klimapolitik ihres Arbeitgebers unzufriedenen Amazon-Mitarbeiter:innen) bezeichnet sie als Tools der „kreativen Buchführung“. Diese erlauben es Unternehmen, erneuerbare Energie an einem Ort zu kaufen und an einem anderen zu verbrauchen. Das sieht auf dem Papier gut aus, spiegelt aber nicht die tatsächlichen Emissionen am Standort des Rechenzentrums wider. Auch die Unternehmen sind sich nicht einig. Während Amazon und Meta für flexiblere Regeln plädieren, sprechen sich Google und Microsoft für strengere, standortspezifische Kriterien aus. Klar ist: Die Herausforderung, Technologie und Nachhaltigkeit in Einklang zu bringen, wird weiter wachsen (mehr zum Thema Nachhaltigkeit und KI finden Sie in diesem Leitfaden oder in unserer Erlesenes-Fokusausgabe). Was lernen wir daraus: das nächste Mal lieber eine Suchmaschine oder noch besser: ein Kochbuch für das Abendessen nutzen.
Hier geht’s zum Artikel!

 
Bunte Spielfiguren zu sehen

Follow-Empfehlung

Luiza Jarovsky

Luiza Jarovsky ist Expertin in KI Policy, Compliance und Regulierung.

Verlesenes

Die Beckhams haben immer recht

Roboter, der mit der rechten Hand sehr nachdenklich den Kopf berührt