|
„Erlesenes“ ist ein zweiwöchentlicher Newsletter von reframe[Tech] - Algorithmen fürs Gemeinwohl und bietet eine kuratierte Auswahl an wissenschaftlichen Studien, journalistischen Artikeln und Debattenbeiträgen sowie Fundstücken mit Augenzwinkern aus sozialen Medien zum Themenkomplex Algorithmen und KI. Mit „Erlesenes“ wollen wir den Diskurs rund um algorithmische Entscheidungssysteme und ihre Chancen sowie Risiken für das Gemeinwohl einordnen, wir möchten den Blick über den Tellerrand wagen und Perspektiven fernab des dominierenden Diskurses aufgreifen. So wollen wir die Abonnent:innen in dem sich rasch verändernden Themenfeld up-to-date halten. Jede Ausgabe finden Sie auch auf unserem Blog.
Hier geht's zum Blog!
|
|
|
|
|
|
Liebe Leser:innen,
der Herbst ist da und mit ihm auch die neueste Ausgabe unserer Lektüreempfehlungen. Während „Erlesenes“ aus der Sommerpause zurückkehrt, haben die Entwicklungen rund um Künstliche Intelligenz (KI) scheinbar keine Ruhepause eingelegt: Von Deepfakes, also KI-generierten Fälschungen, über den Einsatz von KI im Gesundheitsbereich bis hin zur Kommunalpolitik – es gibt viel zu berichten.
In dieser Ausgabe widmen wir uns unter anderem der Frage, wie KI-Tools für Barrierefreiheit eingesetzt werden können und ob sie Türen öffnen, die bisher verschlossen waren. Wir werfen einen Blick auf die Auswirkungen KI-generierter Übersetzungen auf die Literatur und fragen uns, ob das menschliche Feingefühl für Sprachen und Kontexte verloren geht. Und was bedeutet die digitale Kluft zwischen dem Globalen Norden und Süden für die Erkennung von Deepfakes? Außerdem: ein Interview über KI, Daten und Verantwortung.
Viel Spaß beim Lesen wünschen
Elena und Teresa
Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: www.reframetech.de/newsletter/
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de, bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl oder bei Bluesky unter @reframetech.bsky.social.
|
|
|
|
|
KI: Ein Gamechanger für die Barrierefreiheit?
AI could be a game changer for people with disabilities, MIT Technology Review, 23.8.2024
In diesem Artikel geht es darum, wie KI-Systeme Menschen mit Behinderungen dabei helfen, Barrieren zu überwinden. Egal ob automatische Videountertitel und Bildbeschreibungen, Spracheingaben oder die Unterstützung bei körperlichen Einschränkungen durch Roboter – KI-basierte Software kann Menschen dabei helfen, Dinge zu tun, von denen sie sonst ausgeschlossen wären. Für blinde Menschen war es beispielweise oft ziemlich aufwendig, sich durch eine Vielzahl von nicht barrierefreien Webseiten zu navigieren. KI-Tools wie etwa Chatbots helfen hier, indem sie alle wichtigen Infos an einem Ort sammeln und zusammenfassen. Auch im Bereich Mobilität könnten autonome Fahrzeuge es den Nutzer:innen ermöglichen, selbstbestimmter unterwegs zu sein. Natürlich gibt es auch Bedenken: Der Autor des Artikels weist – wie auch wir regelmäßig – darauf hin, dass Fehler und Vorurteile in den Daten Risiken sind, die nicht ignoriert werden dürfen. Wenn KI-Systeme jedoch richtig umgesetzt werden, zeigen die im Text genannten Beispiele, wie sie Türen öffnen, die bisher verschlossen waren.
Hier geht’s zum Artikel!
|
Von Maschinentinte und menschlichem Feingefühl
KI kann keine Literatur: Der Wert menschlicher Übersetzung, Netzpolitik.org, 1.9.2024
KI kann uns im Alltag auf vielfältige Weise praktisch unterstützen. Bei literarischen Werken stoßen wir jedoch schnell an Grenzen. Janine Malz, eine erfahrene Literaturübersetzerin, zeigt in diesem Artikel auf, welche Probleme KI-generierte Übersetzungen mit sich bringen. Kürzlich erhielt sie ein Angebot von einem großen Verlag, der sie nicht für eine klassische Übersetzung, sondern für das „Post-Editing“ (auf Deutsch: „Nachbearbeitung“) einer KI-Übersetzung anfragte – und das zu einem deutlich niedrigeren Honorar als üblich. Übersetzen ist allerdings weit mehr als nur das Übertragen von Wörtern. Das mag Leser:innen unseres Newsletters wenig überraschen, steht aber offenbar für manche noch zur Debatte: Übersetzen umfasst Recherche, kulturelle Sensibilität und oft auch eine enge Zusammenarbeit mit den Autor:innen. Zudem entgehen Übersetzer:innen bei KI-generierten Texten die Urheberrechte und die damit verbundene Einnahmen. Solche Praktiken gefährden nicht nur die Qualität der Übersetzungen und den Lebensunterhalt der Übersetzer:innen, sondern auch die Literatur als menschliche Ausdrucksform. Die Autorin hat die Anfrage abgelehnt und öffentlich gemacht. Ihr Standpunkt: „Mehr Sprachgefühl statt Sprachberechnung“.
Hier geht‘s zum Artikel!
|
|
|
|
Künstliche Intelligenz im Arztkittel?
The testing of AI in medicine is a mess. Here’s how it should be done, Nature, 21.8.2024
KI-Systeme werden zunehmend als Lebensretter in der Medizin gesehen. Dies zeigt das Beispiel des Assistenzarztes Devin Singh. Nach einem tragischen Erlebnis in der Notaufnahme wollte er herausfinden, ob KI helfen kann, Wartezeiten zu verkürzen und damit Leben zu retten. Obwohl eine Studie vielversprechende Ergebnisse lieferte – die Wartezeit pro Patient:in wurde etwa um fast drei Stunden reduziert –, gibt es eine Reihe an Herausforderungen: Die Prüfung und Zulassung der Systeme wird etwa derzeit noch nicht verlässlich geregelt, sodass auch fehlerhafte eingesetzt werden. Ein weiteres Problem ist, dass KI-Systeme oft nur mit wenigen Daten getestet werden. Die Ergebnisse klinischer Studien lassen sich daher nur schwer auf andere Bevölkerungsgruppen übertragen. In einigen Ländern versuchen die Behörden deswegen, strengere Anforderungen an KI-Systeme zu stellen. Selbst wenn sie technisch gut funktionieren, hängt viel von der Bereitschaft der Ärzt:innen ab, die Empfehlungen kritisch zu hinterfragen oder umzusetzen. In Krankenhäusern, die diese Systeme bereits einsetzen, hat man beispielsweise eine „Warnmüdigkeit“ festgestellt. Auch die Frage der Einwilligung der Patient:innen wird ebenfalls immer wichtiger. Das alles wirft neue rechtliche und ethische Aspekte auf, die noch geklärt werden müssen. Entscheidend wird sein, dass diese Technologien tatsächlich den Patient:innen zugutekommen und nicht nur wirtschaftlichen Interessen dienen.
Hier geht's zum Artikel!
|
Digitale Kluft: Deep Fakes im Globalen Süden
AI-Fakes Detection Is Failing Voters in the Global South, WIRED, 2.9.2024
Stellen Sie sich vor, Sie scrollen auf Ihrem Handy und sehen ein Bild von einer bekannten Politikerin oder einem bekannten Politiker, die:der plötzlich eine völlig unerwartete politische Meinung vertritt. Sie sind irritiert: Ist das echt? Im digitalen Zeitalter verschwimmen zunehmend die Grenzen zwischen Realität und Fiktion. Nehmen wir zum Beispiel die US-Präsidentschaftswahlen: Der ehemalige Präsident Donald Trump postete eine Reihe von Fotos, auf denen Fans des Popstars Taylor Swift zu sehen waren, die seine Kandidatur zu unterstützen schienen. Mit speziellen Tools konnten die Bilder schnell als manipuliert identifiziert werden. In vielen Teilen der Welt stellt dies jedoch eine große Herausforderung dar. Vor allem im Globalen Süden ist die Erkennung von Deep Fakes ein echtes Problem. Die Erkennungstools werden oft mit Daten aus dem Westen trainiert – vor allem mit englischsprachigen Texten und weißen Gesichtern (Erlesenes berichtete). Das Hauptproblem ist, dass es oftmals nicht genügend lokale, qualitativ hochwertige Daten gibt, um diese Systeme zu trainieren. Außerdem sind die Tools oft zu ungenau oder zu teuer. Es ist wichtig, mehr Unterstützung und neue Ansätze zu finden, um auch im Globalen Süden robuste Informationsökosysteme aufzubauen.
Hier geht’s zum Artikel!
|
|
|
|
KI, Daten und Verantwortung: Ein Gespräch mit Jonathan Frankle
Rejecting Dogmas Around AI, User Privacy, and Tech Policy, The Markup, 17.8.2024
KI ist in unserem Alltag angekommen, wie auch die Artikel in unserer heutigen Ausgabe zeigen. Sie beeinflusst, wie wir Informationen erhalten und wie unsere Geräte funktionieren. Das wirft aber auch Fragen auf: Wie wird mit unseren Daten umgegangen? Welche ethischen Richtlinien brauchen wir? Und was kann die Politik tun? In einem aktuellen Interview spricht der KI-Wissenschaftler Jonathan Frankle über diese Herausforderungen. Frankle betont: „Die Daten der Nutzer[:innen; Anm. d. Red.] sind heilig“ und sollten nur mit ausdrücklicher Genehmigung und klaren Regeln verwendet werden. Ein weiteres Thema ist die zunehmende Integration von KI-Modellen, wie ChatGPT, auf persönlichen Endgeräten. Dies könne zwar den Schutz der Privatsphäre verbessern, aber auch hier müssten Datenschutz, Benutzerfreundlichkeit und technische Möglichkeiten gegeneinander abgewogen werden: Nicht jeder habe etwa Zugang zu einem unbegrenzten Datenvolumen. Frankle diskutiert auch die Bedeutung einer datenbasierten Politikgestaltung, wie sie beispielsweise von der OECD verfolgt wird. Für alle, die sich politisch engagieren wollen, hat er einen praktischen Tipp: Engagiert euch in der Kommunalpolitik. Viele relevante Themen, wie zum Beispiel der Einsatz von Gesichtserkennung, würden auf kommunaler Ebene entschieden. Hier könne man Einfluss nehmen und sich Gehör verschaffen.
Hier geht’s zum Interview!
|
|
|
|
|
Follow-Empfehlung
Expertin für KI-Governance sowie rechtliche und ethische Fragen rund um KI
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|