|
„Erlesenes“ ist ein zweiwöchentlicher Newsletter von reframe[Tech] - Algorithmen fürs Gemeinwohl und bietet eine kuratierte Auswahl an wissenschaftlichen Studien, journalistischen Artikeln und Debattenbeiträgen sowie Fundstücken mit Augenzwinkern aus sozialen Medien zum Themenkomplex Algorithmen und KI. Mit „Erlesenes“ wollen wir den Diskurs rund um algorithmische Entscheidungssysteme und ihre Chancen sowie Risiken für das Gemeinwohl einordnen, wir möchten den Blick über den Tellerrand wagen und Perspektiven fernab des dominierenden Diskurses aufgreifen. So wollen wir die Abonnent:innen in dem sich rasch verändernden Themenfeld up-to-date halten. Jede Ausgabe finden Sie auch auf unserem Blog.
Hier geht's zum Blog!
|
|
|
|
|
|
Liebe Leser:innen,
die Integration kultureller Diversität und verschiedener Sprachen in Sprachmodellen ist ein zentrales Thema, da diese Modelle oftmals überwiegend auf Daten des Globalen Nordens trainiert wurden. Wie aber funktioniert der Balanceakt zwischen Diversität und Repräsentation auf der einen und Urheberrechten und Datenschutz-Fragen auf der anderen Seite? In der heutigen Ausgabe gibt es dazu zwei Beispiele, wie einerseits Communities im Globalen Süden trotz begrenzter Ressourcen daran arbeiten, lokale Sprachen in KI-Modelle zu integrieren, während andererseits Autor:innen in Singapur sich gegen die Nutzung ihrer Werke zur Entwicklung von Sprachmodellen wehren. Außerdem: Sind autonome Waffen der nächste „Oppenheimer“-Moment?
Übrigens: Am 9. Juni ist Europawahl! Deswegen wird die nächste Erlesenes-Ausgabe (am 06.06) ganz im Zeichen „Künstliche Intelligenz und Wahlen“" stehen. Stay tuned!
Viel Spaß beim Lesen wünschen
Elena und Teresa
P.S. Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: www.reframetech.de/newsletter/
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de, bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl oder bei Bluesky unter @reframetech.bsky.social.
|
|
|
|
|
20 Millionen wissenschaftliche Artikel auf einen Blick
Navigating 20 Million Papers at Once to Uncover Knowledge, Machine Learning for Science, 18.4.2024
In der biomedizinischen Forschung werden jedes Jahr über eine Million Artikel veröffentlicht: Da kann es schwierig sein, sich zurechtzufinden – vor allem mit herkömmlichen Suchmaschinen. Nun soll eine Kartenvisualisierung Abhilfe schaffen. Diese interaktive Karte bietet einen „Panoramablick“ auf 20 Millionen wissenschaftliche Artikel und erleichtert so eine strukturierte Recherche. Stellen Sie sich z. B. eine Historikerin vor, die die Auswirkungen der Covid-19-Pandemie auf den wissenschaftlichen Diskurs analysieren möchte. Die Karte ermöglicht es, durch die Themen der Covid-19-Literatur zu navigieren und zu sehen, wie sie miteinander verbunden sind. So wird erkennbar, welch beispiellosen Einfluss die Pandemie in nur zwei Jahren auf die wissenschaftliche Literatur hatte. Doch wie wird diese Karte erstellt? Durch den Einsatz von maschinellem Lernen werden Artikelzusammenfassungen in numerische Daten umgewandelt, auf der Karte platziert und miteinander verknüpft. Artikel mit ähnlichem Inhalt können so gruppiert werden. Diese Methode organisiert nicht nur die umfangreiche Literatur, sondern zeigt auch Muster und Verbindungen, die sonst verborgen blieben.
Hier geht’s zum Artikel!
|
Von Buddies, Trost und KI
The teens making friends with AI chatbots, The Verge, 4.5.2024
Junge Menschen nutzen vermehrt KI-Anwendungen im Alltag – das ist keine Überraschung. Was aber überrascht, ist wenn daraus eine „Freundschaft“ entsteht. Der 15-jährige Aaron aus Alberta, Kanada, befand sich nach einem Streit mit Freund:innen in einer schwierigen Phase. Er fand Trost an einem ungewöhnlichen Ort: einem KI-Chatbot namens „Psychologe“. Aaron ist nur einer von Millionen Jugendlichen, die täglich online gehen, um mit KI-basierten Chatbots zu interagieren. Was oftmals als persönliche Rückzugsorte beginnt, entwickelt sich schnell zu Orten, in denen Jugendliche KI-Chatbots von ihrem Leben berichten. Während viele Jugendliche sie als hilfreich und unterhaltsam erleben, werden Bedenken lauter: Expert:innen warnen vor der Gefahr (emotionaler) Abhängigkeiten und betonen die Bedeutung zwischenmenschlicher Beziehungen für die Entwicklung von Jugendlichen. Trotz dieser Bedenken ist Aaron dankbar für die Hilfe: Er hat einen sicheren Ort, wo er herumalbern kann, ohne sich verurteilt zu fühlen. Chatbots können also durchaus hilfreich sein, dennoch muss sichergestellt werden, dass sichere Orte für Jugendliche nicht nur virtuell zu finden sind oder privatwirtschaftlichen Unternehmen überlassen werden.
Hier geht‘s zum Artikel!
|
|
|
|
Afrikanische Perspektiven und Sprachen in der KI-Entwicklung
How African NLP Experts Are Navigating the Challenges of Copyright, Innovation, and Access, Carnegie Endowment for International peace, 30.4.2024
Wir haben über die Notwendigkeit der kulturellen Repräsentation in der KI-Entwicklung bereits berichtet. Eine Herausforderung liegt darin, dass KI-Forscher:innen im Globalen Süden oft begrenzte finanzielle Mittel haben und so schwer Zugang zu Daten erhalten. Diese Datenknappheit betrifft insbesondere die sprachliche Vielfalt: Die meisten Chatbots basieren z. B. auf Daten in englischer Sprache – das schränkt den Zugang für Menschen ein, die eine afrikanische Sprache wie Igbo oder Setswana beherrschen. Um diese Kluft zu schließen, entstehen in einem Teilbereich der KI, dem sogenannten „Natural Language Processing“ – also der Verarbeitung von natürlicher Sprache – vermehrt afrikanische Communities, um lokale Sprachen in der Datenerhebung zu fördern, wie z. B. „Masakhane“. Das stellt sie allerdings vor neue Herausforderungen: Wie können sie Daten zugänglich machen, ohne die Rechte der Dateninhaber:innen zu verletzen? Denn während Offenheit dazu beiträgt, den Zugang zu Daten zu verbessern und damit die KI-Entwicklung voranzutreiben, steht diese oft nicht im Einklang mit lokalen Bedürfnissen oder dem Datenschutz. Was kann dagegen getan werden? Erste Lösungen abseits einer notwendigen Rechtsreform könnten Anerkennung und Entschädigungen für die datengebende Communities umfassen.
Hier geht's zum Artikel!
|
Singapurs Autor:innen im Widerstand
Writers and publishers in Singapore reject a government plan to train AI on their work, Rest of World, 8.5.2024
Singapur strebt eine wichtige Rolle in der globalen KI-Entwicklung an, stößt in diesem Fall jedoch auf Widerstand, denn auch hier spielen Urheberrecht und Diskussionen um eine angemessene Entschädigung eine zentrale Rolle. Die Regierung Singapurs will ein mit lokalen Daten trainiertes KI-Modell entwickeln, das genauere Verweise auf die Geschichte, (Umgangs-)Sprache und Kultur des Landes enthält. Zu diesem Zweck möchte sie literarische Werke für das Training von KI-Systemen verwenden. Die literarische Community Singapurs lehnt dieses Vorhaben der Regierung entschieden ab. Obwohl das Einholen der Erlaubnis durch Autor:innen als ungewöhnlich rücksichtsvoll gesehen wird, haben diese Bedenken: Die genauen Regelungen, wie ihre Werke geschützt und verwendet werden – auch wie sie dafür entschädigt werden – bleiben unklar. Diese Auseinandersetzung spiegelt ein weltweites Phänomen wider (Erlesenes berichtete), bei dem sich Autor:innen zunehmend gegen die Verwendung ihrer Werke für KI-Trainings wehren.
Hier geht’s zum Artikel!
|
|
|
|
KI auf dem Schlachtfeld
Regulierung autonomer Waffen: Wettlauf zum Suizid der Menschheit? Telepolis, 2.5.2024
Die Konferenz des österreichischen Außenministeriums in Wien zur Regulierung autonomer Waffen versammelte mehr als 900 Teilnehmer:innen aus 140 Ländern. Trotz hochkarätiger Besetzung blieben ein Gefühl der Ratlosigkeit und eine zunehmende Besorgnis über die Regulierung autonomer Waffen bestehen. Österreichs Außenminister Alexander Schallenberg betonte die Dringlichkeit der Situation und verglich sie in einem Interview mit einem „Oppenheimer-Moment“. Dennoch scheint das Bewusstsein für die moralische Verantwortung und für die Gefahren autonomer Waffentechnologien zu fehlen. Trotz besorgniserregender Beispiele, wie das kürzlich von der israelischen Armee eingesetzte KI-Zielsystem, drängen Befürworter:innen weiterhin auf technische Innovation – auch wenn es praktisch unmöglich ist, ethische Prinzipien in Maschinen zu programmieren. Die Konferenz endete zumindest mit einem gewissen Konsens darüber, dass Maßnahmen ergriffen werden müssen, um existenziellen Drohungen entgegenzuwirken und die internationale Zusammenarbeit zu stärken.
Hier geht’s zum Artikel!
|
|
|
|
|
Follow-Empfehlung
Chinasa T. Okolo Ph.D ist Forscherin und Politikberaterin für KI-Regulierung im Globalen Süden
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|