|
Liebe Leser:innen,
Generative KI ist längst Teil des Alltags – auch in Organisationen, die sich dem Gemeinwohl verpflichtet fühlen. Im Hintergrund wirken jedoch Basismodelle: komplexe KI-Systeme, die auf riesigen, oft wahllos zusammengestellten Datensätzen beruhen. Sie bestimmen maßgeblich, ob Anwendungen verlässliche oder fehlerhafte, ausgewogene oder verzerrte Antworten liefern.
Unser neuer Report Fragile Foundations: Hidden Risks of Generative AI zeigt, welche Risiken entstehen, wenn die Basismodelle hinter ChatGPT, Gemini oder Copilot auf ungeprüften Trainingsdaten, intransparenten Geschäftsmodellen und fehlenden Kontrollmechanismen beruhen. Besonders für Organisationen mit gesellschaftlicher Verantwortung – etwa in Sozialarbeit, Umweltschutz oder der Unterstützung benachteiligter Gruppen – können diese Schwächen gravierende Folgen haben. Beispiele aus der Praxis verdeutlichen, dass falsche oder diskriminierende KI-Ausgaben Menschen in vulnerablen Situationen gefährden und Vertrauen untergraben.
Gleichzeitig beschreibt der Report Alternativen. Dazu gehören sorgfältig geprüfte Datensätze, Transparenz über Funktionsweise und Datengrundlagen, Offenheit für kontinuierliche Evaluation und externe Überprüfung sowie Bibliotheken als Vorbild für den Aufbau von Basismodellen.
Der Report wirft ein Schlaglicht darauf, worauf Entscheider:innen beim Einsatz generativer KI achten sollten, und regt insbesondere gemeinwohlorientierte Organisationen dazu an, sorgfältig zu prüfen, ob, welche und vor allem zu welchem Zweck sie solche Systeme einsetzen.
Ich wünsche Ihnen eine anregende Lektüre und freue mich auf Ihr Feedback.
Teresa Staiger
|