© Sebastian Pfütze
Datenherausforderungen
Nachfolgend findet ihr eine umfassende Beschreibung der Projekte, die beim DatenDialog teilnehmen werden bzw. teilgenommen haben. Macht euch bitte mit den aktuellen Projekten vertraut, lest die Unterlagen zur Vorbereitung und bringt gerne Anmerkungen, Fragen und eigene Impulse mit. Für Rückfragen stehen die Referent:innen gerne zur Verfügung. Ihr erreicht sie am besten per E-Mail, die Adressen sind jeweils verlinkt.
Vom Datensatz zur Datastory
Das Data Science Lab der Bertelsmann Stiftung ist ein internes Beratungsteam. Es hilft der Stiftung, Kompetenzen und Infrastruktur für Data Science und KI aufzubauen. Jedes Jahr veröffentlicht die Stiftung rund 200 Studien und Papiere in ihren acht Programmen und Zentren. Damit dieses Wissen leichter nutzbar ist, haben wir einen Q&A-Chatbot entwickelt – den „PublikationsBot“.
Der PublikationsBot nutzt Retrieval-Augmented Generation (RAG), um Fragen zu den Inhalten der Publikationen zu beantworten. Jede Nutzerfrage wird vektorisiert und mit vektorisierten Absätzen im Korpus abgeglichen. Die ähnlichsten Textstellen werden ausgewählt, und ein Sprachmodell formuliert daraus eine kurze Antwort mit Quellenangaben. Zu jeder Publikation speichern wir Metadaten wie Titel, Autor:innen, Jahr und – falls vorhanden – Projekt und Programm.
In der Datenherausforderung möchten wir untersuchen, wie der PublikationsBot genutzt werden kann, um spannende, evidenzbasierte Geschichten über die Themen der Stiftung zu erzählen – und wie sich diese im Zeitverlauf verändern.
Wir starten mit einem gemeinsamen Brainstorming: Welche Arten von Geschichten lassen sich mit „Text als Daten“ erzeugen? Welche Methoden eignen sich zum Extrahieren und Analysieren? Wie lassen sich Ergebnisse gut darstellen und visualisieren? Anschließend Prototypen kleine Gruppen ein oder zwei Methoden zu einem selbst gewählten Thema. Beispiele: Ein Thema über zwei Zeiträume vergleichen (z. B. vor vs. nach COVID-19) und zusammenfassen, was sich geändert hat. Oder verfolgen, wie sich Schlüsselbegriffe über die Jahre entwickeln – welche neu entstehen, welche abnehmen und welche stabil bleiben.
Nach der Session möchten wir einen prototypischen Workflow und praktische Tipps für Storytelling mit dieser Datenquelle haben. Idealerweise entsteht auch eine erste Geschichte, eine Visualisierung und/oder ein einfaches Jupyter-Notebook als Ausgangspunkt für ein Storytelling-Tool.
Stehen euch bereits Daten zur Verfügung?
Ja. Wir stellen Zugriff auf die Datenbank mit (vektorisierten) Absätzen und Publikations-Metadaten bereit.
Welche Datenkompetenzen sollten die Volunteers idealerweise mitbringen?
Kenntnisse zu Methoden, um „Text als Daten“ zu verarbeiten
Grundkenntnisse in Datenbanken (Starterfunktionen stellen wir bereit)
Python/Jupyter oder R – alternativ Low-Code-Tools für einfache Visualisierungen
Affinität für Storytelling und Datenvisualisierung
Grundverständnis von Information Retrieval (Embeddings, Top-k-Suche)
Neugier und die Fähigkeit, Forschungsfragen zu formulieren
- Die Website der Bertelsmann Stiftung durchstöbern und ein paar Publikationen ansehen
- Werft einen Blick auf mögliche Visualisierungen (z.B. Slope-Graph, Jahresbalken, Mini-Timeline)
- 1–2 Story-Ideen oder Leitfragen mitbringen (z.B.: „Welche Geschichte könnten wir über … erzählen – und für wen?“)
Ein halbes Jahr Datenatlas Zivilgesellschaft: Bilanz und Blick nach vorne
Der Datenatlas Zivilgesellschaft ist ein zentrales Metadatenportal, das offene Daten aus der Zivilgesellschaft sichtbar, auffindbar und nutzbar macht. Es ist ein Angebot der Bertelsmann Stiftung.
Ziel des Datenatlas Zivilgesellschaft ist es, den Zugang zu qualitativ hochwertigen Daten zu verbessern, die Arbeit zivilgesellschaftlicher Organisationen zu unterstützen und datenbasiertes Handeln zu fördern.
Der Datenkatalog bildet das Herzstück des Datenatlas. Hier können Sie gezielt nach offenen Datensätzen aus unterschiedlichsten zivilgesellschaftlichen Bereichen suchen – beispielsweise gefiltert nach Themen, Regionen oder Organisationen. Die verwendeten Metadaten folgen dem europäischen Standard DCAT-AP und ermöglichen so eine einfache Integration in bestehende Dateninfrastrukturen.
Neben dem Datenkatalog legt der Datenatlas besonderen Wert auf Kompetenzaufbau, Wissenstransfer und Vernetzung. Mit Open-Data-Workshops, Datensprechstunden, Open-Data-Netzwerktreffen und Open-Data-Barcamps wollen wir die Datenkompetenz zivilgesellschaftlicher Akteur:innen stärken.
Langfristig trägt der Datenatlas zum Aufbau eines gemeinwohlorientierten Datenökosystems bei, das Transparenz schafft, datenbasierte Entscheidungsprozesse unterstützt und gesellschaftliche Teilhabe fördert.
Der Datenatlas Zivilgesellschaft wird zum Zeitpunkt des Datendialogs am See seit gut einem halben Jahr live sein. Wir möchten mit euch eine erste Bilanz ziehen. Dazu schauen wir uns den aktuellen Stand des Datenatlas Zivilgesellschaft an: Wie viele Organisationen stellen ihre Daten bereit? Wie viele Datensätze gibt es im Datenatlas? Wie schätzt ihr die Usability ein, z.B. hinsichtlich des Data Provider Interface (DPI)?
Wir möchten auf der Basis einer aktuellen Bestandsaufnahme anschließend in die Zukunft blicken. In welche Richtung könnte sich der Datenatlas Zivilgesellschaft entwickeln? Sollte aus dem Metadatenportal ein Datenportal werden? Wie können wir die Nutzung des Datenatlas ausbauen?
In dieser Session brauchen wir unterschiedlichste Kompetenzen und wir freuen uns über alle Teilnehmenden, die sich für Daten aus dem zivilgesellschaftlichen Sektor interessieren.
Am besten schaut ihr euch zur Vorbereitung einmal den Datenatlas Zivilgesellschaft genau an und prüft ihn auf Herz und Nieren. Was fällt euch in der Nutzung auf? Was könnte verbessert werden? Wenn ihr euch den Datenatlas im Vorfeld schon angeschaut habt, können wir mit dem Workshop direkt tief im Thema einsteigen. Wir freuen uns auf eure Teilnahme und auf eure Beiträge!
datenatlas-zivilgesellschaft.de
Open Data Portal Wegweiser Kommune: Mit Fakten Potenziale heben
Im Projekt geht es darum, die vielfältigen Datenangebote des Wegweisers Kommune (Ist-Daten, Prognose, Typisierung usw.) so aufzubereiten, dass sie stärker genutzt und sichtbarer werden. Im Mittelpunkt steht die Frage, wie aus komplexen Rohdatenstrukturen verständliche, ansprechende und wirksame Kommunikationsformate entstehen können – von Kurzanalysen und Visualisierungen bis hin zu datengetriebenen Stories oder interaktiven Formaten. Ziel ist es, Ideen zu entwickeln, die sowohl analytisch fundiert als auch ressourcenschonend umsetzbar sind. Die Teilnehmenden arbeiten gemeinsam an prototypischen Ansätzen, wie Daten des Wegweisers allein oder in Kombination mit externen Quellen genutzt werden können, um gesellschaftlich relevante Themen sichtbar zu machen und gleichzeitig den Wegweiser präsenter zu positionieren. Damit trägt das Projekt zur neuen Kommunikationsstrategie des Wegweisers bei und stärkt dessen Position als Datentool.
Die konkrete Datenherausforderung besteht darin, Wege zu finden, wie die umfangreichen Datenlage des Wegweisers in konkrete Kommunikationsformate übersetzt werden kann. Die Daten selbst liegen größtenteils in guter Qualität vor, doch bisher fehlt es an Formaten, die den Mehrwert schnell sichtbar machen und eine breite externe Nutzung anregen. Gefragt sind Ansätze, die komplexe Informationen verdichten, visualisieren und mit narrativen Elementen verknüpfen, ohne dass dafür dauerhaft ein großes Analyseteam nötig wäre.
Mögliche Fragestellungen: Wie lassen sich aus den vorhandenen Indikatoren pointierte Data Storys entwickeln? Welche Visualisierungen oder Kurzanalysen könnten Aufmerksamkeit erzeugen? Inwiefern kann die Kombination mit externen Datenquellen zusätzliche Relevanz schaffen? Welche Kanäle würde man für welche Analyseform am besten nutzen? Es sollen erste prototypische Ideen erarbeitet werden, die in die Kommunikationsstrategie des Wegweisers Kommune einfließen können.
Wir wollen herausarbeiten, wie die Daten des Wegweisers Kommune so aufbereitet und kommuniziert werden können, dass sie über den Kreis von Fachanwender:innen hinaus genutzt werden. Im Fokus steht die Entwicklung von prototypischen Kommunikationsformaten, die komplexe Daten in verständliche, wirkungsvolle Geschichten und Visualisierungen übersetzen.
Obwohl Daten zur demografischen, sozialen und wirtschaftlichen Entwicklung in Kommunen verfügbar sind, werden sie in Politik, Verwaltung und Öffentlichkeit oft nicht genutzt, weil Zugänge und Aufbereitungen fehlen oder die Quellen (z. B. der Wegweiser) nicht bekannt sind. Damit bleiben Potenziale für faktenbasierte Diskussionen, politische Entscheidungen und gesellschaftliches Lernen ungenutzt.
Wir möchten erreichen, dass die Daten des Wegweisers Kommune sichtbarer, anschlussfähiger und wirkungsvoller eingesetzt werden – sowohl im gesellschaftlichen Diskurs als auch in der medialen Berichterstattung. Langfristig sollen datenbasierte Formate dazu beitragen, gesellschaftliche Debatten zu versachlichen, lokale Unterschiede verständlich zu machen und Kommunen Impulse für Handeln und Gestaltung zu geben.
Wir versprechen uns von der Diskussion mit den Volunteers kreative Impulse. Besonders wertvoll ist für uns der Blick von außen: Welche Formate würden sie selbst spannend finden? Welche Datenstorys lassen sich mit vertretbarem Aufwand entwickeln? Und wie können Visualisierungen oder Narrative gestaltet werden, damit sie in der Öffentlichkeit ihre geplante Wirkung entfalten? Die Diskussion soll uns helfen, Ideen zu priorisieren und konkrete Ansätze zu identifizieren.
Stehen euch bereits Daten zur Verfügung?
Ja, es existiert eine umfangreiche Datengrundlage: Ist-Daten-Zeitreihen von 2006 bis (bald) 2024 in über 300 Indikatoren verschiedener Themen (Nachhaltigkeit, Arbeitsmarkt, Bildung …) über alle Gemeinden, Kreise, Länder. Darüber hinaus Prognosedaten, Typisierungsdaten, Pflegeprognosedaten und Wanderungsdaten.
Welche Datenkompetenzen sollten die Volunteers eurer Meinung nach idealerweise mitbringen?
- Kenntnisse in Datenanalyse und vor allem Statistik (Lage- und Streuungsmaße, Verteilungen, Inferenz, hypothesengeleitetes Arbeiten, Explorationsmethoden …)
- Erfahrung mit Datenvisualisierungen jeglicher Art. Es muss nicht (und sollte auch nicht) die Ggplot-Grafik herauskommen, die zu fachlich ist und keiner versteht
- Fähigkeit zu Data Storytelling und verständlicher Kommunikation: Komplexe Zusammenhänge anschaulich darstellen; Erfahrung mit unterschiedlichen Kommunikationskanälen
- Konzeptstärke: Formate entwickeln, Zielgruppen denken
- Offenheit für interdisziplinäre Zusammenarbeit
Ganz wichtig: Es sind nicht nur Profi-Data-Scientists gefragt. Dieses Projekt profitiert von jeder Idee und jedem Fachbereich!
- Kurz mit dem Wegweiser Kommune vertraut machen (Datenangebot, Indikatoren, Themenübersicht der Indikatoren, Prognosen, Typisierung, ggfs. Methodenberichte)
- Beispiele für Data Storys und Visualisierungen anschauen, die man im Projekt als Referenz nutzen könnte
- Überlegen, welche Formate sie persönlich ansprechend finden (z. B. interaktive Grafiken, Kurzanalysen, Narrative)
- Falls möglich: einen Blick in vergleichbare offene Datenportale werfen, um Inspirationen zu sammeln.
Frischer Blick auf „alte“ Daten
Umfragen der Bertelsmann Stiftung folgen meist einem bewährten Muster: Datenerhebung, Studie, Veröffentlichung - dann verschwindet der Datensatz in der Schublade. Dabei steckt in jedem Datensatz weitaus mehr Potenzial, als eine einzige Auswertung ausschöpfen kann. Mit Frischer Blick auf „alte“ Daten wollen wir das Ändern und einen Kulturwandel anstoßen.
Wir bringen zwei aktuelle Befragungen (2025) samt Veröffentlichung mit - zum Thema 1) Gaming, Medien & Politik und 2) Ausbildungsperspektiven junger Menschen - und entwickeln in Gruppen neue Ideen und Auswertungen. Ziel ist es, am Ende spannende Ergebnisse zu haben, die einen neuen Spin geben und im besten Fall in Form von Posts, kurzen Beiträgen oder kleinen Veröffentlichungen sichtbar werden.
Die Datensätze können im Slackchannel #dd-frischer-blick eingesehen werden.
Die Volunteers wählen nach Interesse, mit welchem Datensatz und Thema sie arbeiten möchten. Je nach Anzahl der Teilnehmenden können auch mehrere Gruppen mit jeweils einem Datensatz gebildet werden. Zunächst verschaffen sich die Gruppen einen Überblick, welche Fragen bereits untersucht wurden und welche Potenziale offen sind. Anschließend entwickeln sie eigene Hypothesen und testen diese mit den Daten. Möglich sind einfache Vergleiche, Visualisierungen oder kleine Modelle. Ziel ist es, am Ende des DatenDialogs kurze Storylines, Grafiken oder Mini-Beiträge zu haben, die wir im Nachgang den Projektverantwortlichen pitchen können. Im besten Fall entsteht daraus ein Social-Media-Post, eine Mini-Veröffentlichung oder konkreter Input für ein neues Projekt.
Eine weitere Idee: Wir könnten erproben, ob KI uns bei der Analyse von Codebooks und den Veröffentlichungen zusätzliche Anknüpfungspunkte liefert. So könnten wir testen, ob LLMs künftig regelmäßig helfen können, ungenutzte Datenpotenziale sichtbar zu machen.
Unser Ziel:
Zu zeigen, dass bestehende Umfragedaten für neue Fragestellungen nutzbar sind und schnell zu relevanten Ergebnissen führen können.
Welches gesellschaftliche Problem bearbeiten wir in unserem Projekt:
Wissen bleibt oft ungenutzt, weil Daten nach der ersten Veröffentlichung nicht weiterverwendet werden. So gehen Erkenntnisse verloren, die für Politik und Zivilgesellschaft hilfreich wären.
Welche Wirkung wir erreichen möchten:
Projektteams der Stiftung sollen erleben, dass Re-Use praktikabel ist und Mehrwert schafft. So entsteht Anreiz, Daten künftig öfter erneut einzusetzen und mit anderen zu teilen.
Wir erhoffen uns neue Perspektiven auf unsere Datensätze: frische Fragestellungen, kreative Analyseideen und kleine Auswertungen, die wir selbst so nicht gesehen hätten. Besonders wertvoll ist für uns der frische, mehrdimensionale Blick aus unterschiedlichen Forschungsbereichen. So gewinnen wir Anregungen für künftige Projekte und Ansätze, die wir in die Stiftung zurück spiegeln können.
Diese Datenkompetenzen können hilfreich sein:
- Grundkenntnisse in Statistik und Datenanalyse
- Sicherheit im Umgang mit gängigen Analysetools (z. B. R, Python oder SPSS)
- Erfahrung in der Visualisierung
- Kreativität bei der Hypothesengenerierung
- Interesse an gesellschaftlichen Themen
Sobald feststeht, welche Datensätze genutzt werden, stellen wir Codebooks und die zugehörigen Studien bereit. Ihr könnt euch vorab einlesen und überlegen, welche Themen ihr spannend findet. Optional könnt ihr schon erste Ideen oder Fragen mitbringen und im Workshop pitchen – es geht aber auch problemlos ohne Vorbereitung.
Hier stellen wir die relevanten Materialien bereit, sobald die finalen Datensätze feststehen:
- Codebooks (folgt)
- Studienveröffentlichungen (folgt)
- ggf. weitere Hintergrundinformationen (folgt)
März 2025 | Berlin
Abbau von Sprachbarrieren
Die Open Innovation City Bielefeld verfolgt das Ziel, Netzwerke zu schaffen und offene Innovationsprozesse in der Stadt zu fördern. Eine aktuelle Herausforderung betrifft das Kommunale Integrationszentrum der Stadt Bielefeld. Das Kommunale Integrationszentrum unterstützt, berät und begleitet Menschen mit Migrationshintergrund oder Ausländer*innen. Häufig stehen sie dabei vor der Herausforderung, mit fremdsprachigen Menschen in den spontanen Kontakt zu treten oder Beratungsgespräche zu führen. Dies führt oft zu erheblichen Sprachbarrieren, da nicht immer genügend Dolmetscher*innen verfügbar sind und die Verwaltung keine handelsüblichen Übersetzungstools aufgrund datenschutzrechtlicher Bedenken verwenden darf. Unsere Aufgabe ist es, eine datenschutzkonforme Lösung zu entwickeln, die in Gesprächen zur Echtzeitübersetzung verwendet werden kann und von der Stadt selbst betrieben wird.
Die Herausforderung besteht darin, ein Tool zu entwickeln, das in Gesprächen und Beratungen des Kommunalen Integrationszentrums Sprachbarrieren überwindet. Dieses Tool soll sicherstellen, dass Berater*innen und Klient*innen trotz sprachlicher Unterschiede effizient kommunizieren können. Dabei steht der Datenschutz im Vordergrund, da das Tool keine externen Übersetzungsdienste wie ChatGPT nutzen darf. Die Idee ist, eine Lösung zu finden, bei der Speech-to-Text bzw. Text-to-Speech in Echtzeit erfolgt, sodass ein*e Berater*in sprechen und die beratende Person den Text lesen kann (und umgekehrt). Auch eine Speech-to-Speech Lösung ist denkbar. Entscheidend ist, dass die Stadt dieses System und eigenständig betreiben kann, um alle Datenschutzbestimmungen zu erfüllen.
Unser Ziel ist, eine datenschutzkonforme Lösung für Beratungsgespräche des Kommunalen Integrationszentrums zu entwickeln, um die Kommunikation zwischen Berater*innen und Klient*innen trotz Sprachbarrieren zu erleichtern.
In der Migrationsgesellschaft Bielefelds treffen Berater*innen häufig auf Klient*innen ohne gemeinsame Sprache. Das erschwert den Zugang zu Beratungsdiensten und behindert die Integration und Unterstützung. Die Herausforderung besteht darin, diese Kommunikationsbarrieren zu überwinden und dabei die strengen Datenschutzanforderungen zu erfüllen.
Wir möchten eine nachhaltige und sichere Übersetzungslösung bereitstellen, die Kommunikation erleichtert und gleichzeitig Datenschutz gewährleistet. So können Berater*innen und Klient*innen effektiv zusammenarbeiten und eine bessere Beratung ermöglichen.
Wir hoffen, durch den Austausch mit den Volunteers innovative technische Ansätze und Lösungen zu identifizieren, um unsere Herausforderung zu meistern. Insbesondere erwarten wir wertvolle Impulse zur Entwicklung und Implementierung einer datenschutzkonformen Lösung.
Stehen euch bereits Daten zur Verfügung?
Leider nicht.
Welche Datenkompetenzen sollten die Volunteers eurer Meinung nach idealerweise mitbringen?
- Erfahrung in Speech-to-Text, Text-to-Speech und Speech-to-Speech-Technologien
- Kenntnisse in der Entwicklung und Implementierung datenschutzkonformer Anwendungen
- Expertise in maschinellem Lernen und Natural Language Processing (NLP)
- Vertrautheit mit Datenschutz und Data Privacy, insbesondere im öffentlichen Sektor
- Auseinandersetzung mit bestehenden in Speech-to-Text, Text-to-Speech und Speech-to-Speech-Lösungen
- Recherche zu den datenschutzrechtlichen Rahmenbedingungen in Deutschland
- Einarbeitung in Open-Source-Alternativen zu kommerziellen Übersetzungstools
- Verständnis der spezifischen Anforderungen bei der kommunalen Datenverarbeitung
FörderFunke
FörderFunke ist eine Web Applikation, die Bürger*innen über ihre Rechte und Ansprüche informiert und sie dabei unterstützt, Anträge ordnungsgemäß einzureichen. Die Funktionsweise ist einfach: Bürger*innen erstellen auf einem Endgerät ein Profil mit einer Auswahl an Datenpunkten. Die Software vergleicht die Daten mit den Anforderungsprofilen verfügbarer Leistungen. Bei einem Treffer werden Nutzer*innen benachrichtigt und durch notwendige Schritte geführt. Fehlen Angaben für bestimmte Überprüfungen, werden Nutzende eingeladen, diese zu vervollständigen.
Aktuell enthält unser Katalog zehn essentielle Sozialleistungen. Im Laufe der kommenden Monate möchten wir die Anzahl kontinuierlich vergrößern. Dabei ist es für uns enorm wichtig, dass die Anforderungen und Leistungsbeschreibungen immer aktuell bleiben. Zu diesem Zweck möchten wir eine neue Lösung entwickeln: den Leistungs-Feed.
Der Leistungs-Feed ist ein kompakter Service, der in regelmäßigen Abständen diverse öffentliche Datenquellen scannt und prüft, ob neue Meldungen existieren, die für unseren Katalog relevant sind. Eine besonders interessante Datenquelle ist beispielsweise das Bundesgesetzblatt. Hier werden täglich alle neu erlassenen Gesetze und Verordnungen veröffentlicht.
Wir benötigen eine Pipeline aus drei Komponenten: ein Scraper lädt in regelmäßigen Intervallen die neuen Meldungen herunter. Ein Textanalyseprogramm prüft, erkennt und kategorisiert die Dokumente. Ein Benachrichtigungsservice bereitet relevante Daten auf und informiert uns oder andere Abonnenten.
Der Staat hat den Auftrag, Bürger*innen in unterschiedlichen Lebenssituationen zu unterstützen. Tatsächlich bleiben viele Leistungsangebote wie Elterngeld oder Bildungsgutscheine ungenutzt. Die Ursache ist oft einfach: Betroffene wissen nicht, dass ihnen Leistungen zustehen oder wie sie sie beantragen können. Unsere Applikation schließt diese Lücke, indem sie es Nutzer*innen ermöglicht, ihre Daten sicher zu speichern und durch schematisierte Anforderungsprofile über verfügbare Leistungen informiert zu werden. Wir hoffen, dass durch unsere Plattform eine signifikant größere Anzahl an Menschen relevante Leistungen und Förderungen in Anspruch nehmen kann.
Eine große Herausforderung für uns besteht darin, den Katalog an Leistungen kontinuierlich zu erweitern oder etwaige Änderungen in der Gesetzeslage aufzunehmen. Wir möchten die diversen öffentlichen Quellen (z.B. Bundesgesetzblatt) systematisch nutzen, um rechtzeitig die notwendigen Informationen zu erhalten, die es uns erlauben, den Katalog entsprechend zu pflegen und zu entwickeln.
Wir erhoffen uns Inspiration in drei Bereichen: gibt es möglicherweise zusätzliche Datenquellen, die uns nicht bekannt sind. Wir wären beispielsweise auch interessiert an Informationen zu Leistungen, die einzelne Bundesländer betreffen. Wir erhoffen uns Rat und Unterstützung im Bereich der textlichen Auswertung – unser eigener Erfahrungsschatz ist hier begrenzt. Wir sind neugierig, kreative Vorschläge für die allgemeine Infrastruktur des Services zu diskutieren.
Stehen euch bereits Daten zur Verfügung?
Der Bundesanzeiger und das Bundesgesetzblatt bieten eine spannende Datenquelle, die wir gerne gemeinsam weiter explorieren möchten. Daten stehen hier mit einer kleinen Anzahl an Metadaten als weitestgehend semi-strukturierte PDFs zur Verfügung. Tatsächlich gibt es aber auch viele Leistungen, die einzelne Länder, Kommunen oder Städte separat anbieten. Hier suchen wir zur Zeit nach belastbaren und einheitlichen Datenquellen.
Welche Datenkompetenzen sollten die Volunteers eurer Meinung nach idealerweise mitbringen?
Entsprechend der Herausforderung wäre Kompetenz in den folgenden Bereichen spannend: Allgemeine Software Entwicklung und Data Engineering, um den Service in seinen unterschiedlichen Komponenten und Schnittstellen zu entwerfen. NLP und Textverarbeitung, um die unstrukturierten Daten aus den PDFs sinnvoll auszuwerten und zu klassifizieren.
Grundsätzlich sehen wir keinen Bedarf, dass sich die Volunteers im Vorfeld besonders vorbereiten sollten. Wir möchten die Diskussionen flexibel und ergebnisoffen gestalten. Wer möchte, ist eingeladen, sich das Bundesgesetzblatt, den Bundesanzeiger oder beispielsweise auch die Website Abgeordnetenwatch anzusehen.
Health Transformation Hub
Der Health Transformation Hub ist eine Plattform für die Akteure des Gesundheitssystems, die unsere Gesundheitsversorgung durch aktives Handeln verbessern wollen und können. Hier kommen sie zusammen, um gemeinsam mit uns Lösungen zu entwickeln und umzusetzen. Unser Ziel: Konzepte für ein patientengerechtes, leistungsstarkes und zukunftsfestes Gesundheitssystem. Wir wissen, dass Veränderungen im Gesundheitswesen viel Substanz und einen langen Atem brauchen. Der HTH wird von der Bertelsmann Stiftung organisiert sowie inhaltlich und kommunikativ unterstützt. Das Gesundheitsprogramm der Stiftung treibt als Think Tank insbesondere die forschungsbasierte Grundlagenarbeit voran. Die BSt Gesundheit gGmbH, eine hundertprozentige Tochter der Stiftung, begleitet inhaltlich vor allem die Umsetzungsprojekte.
Der Health Transformation Hub der Bertelsmann Stiftung startet das Health Transformation Panel – eine exklusive Umfrage unter Personen, die das Gesundheitswesen maßgeblich mitgestalten.
Gemeinsam gewinnen wir wertvolle Einblicke in den Reformbedarf, das Reformklima und die aktuellen Handlungsbedarfe im Gesundheitswesen. So identifizieren wir die entscheidenden Themen und ebnen den Weg für zukunftsweisende Verbesserungen. Die Befragung findet zwei Mal jährlich statt (Mai/November). Der Fragebogen des Panels enthält ein festes Set an Items. Im letzten Schritt fragen wir Freitextantworten zum Thema, welche Veränderungen im Allgemeinen und vom Gesetzgeber konkret angegangen werden sollen, bei den Panelisten ab. Diese Freitextantworten werden aktuell manuell von uns definierten Clustern zugeordnet. Perspektivisch möchten wir diesen Schritt der Datenanalyse bestmöglich automatisieren.
Ziel der Forschung sind zwei Dinge:
1. Wir ermitteln, wie groß der Reformbedarf im deutschen Gesundheitssystem ist und ob es überhaupt Unterstützung und Bewegung für Veränderungen gibt.
2. Mit den Gestaltern des Gesundheitswesens die entscheidenden Themen zu identifizieren – auch, um an den relevanten Stellschrauben mit unserer Projektarbeit anzusetzen.
Wir stehen vor einer Vielzahl gesellschaftlicher Herausforderungen. Bei den jüngsten Bevölkerungsumfragen im Vorfeld der Landtagswahl in Thüringen (09.2024) gaben beispielsweise 59% der Befragten eine wahrgenommene Verschlechterung der ärztlichen Versorgung an.
Die bestehenden Strukturen und Prozesse des Gesundheitssystems passen nicht mehr zu den aktuellen gesellschaftlichen Realitäten. Die demografische Entwicklung, der medizinische Fortschritt sowie veränderte Lebens- und Arbeitsstile stellen enorme Herausforderungen dar. So gibt es immer mehr Menschen, die medizinische Leistungen in Anspruch nehmen, aber immer weniger Menschen, die diese Leistungen erbringen können oder wollen. Wir erleben zunehmend einen Fachkräftemangel und Versorgungslücken. Das System muss an die neuen Realitäten angepasst werden. Unser Ziel ist es, dass das vorhandene Gesundheitspersonal effektiver und effizienter eingesetzt wird, veraltete Strukturen und Prozesse modernisiert sowie die Möglichkeiten der Digitalisierung klug genutzt werden.
Als gemeinnützige Plattform, die Theorie und Praxis verbindet wollen wir – gemeinsam mit den Veränderungen im Gesundheitswesen – Lösungen zur Verbesserung des Gesundheitssystems entwickeln und diese auch wirklich realisieren.
Wir haben bereits im Dezember 2023 am Datendialog in München teilgenommen und super gute Erfahrungen gemacht, konkret an den Realdaten mit den Teilnehmenden zu arbeiten. Das möchten wir in dieser Session auch gern wieder machen. Wenn es uns gelingt, Software und Scripte und alles, was es braucht so aufzusetzen, dass wir die Analyse und Zuordnung der Daten zu den Clustern oder ggf. auch freies Bilden der Cluster durchzuführen und zu automatisieren, haben wir für unser Vorhaben ein großes Ziel erreicht. Denn: Das Panel wächst, die Teilnehmenden werden mehr, die Antworten vielfältiger. Manuell können wir den Analyseprozess künftig nicht mehr stemmen.
Stehen euch bereits Daten zur Verfügung?
Ja, wir bringen mit:
- die Originaldaten als Exporte aus unserer Panel-Software aus zwei Befragungswellen
- ein Script (R), mit dem wir Fragen mit weichen Antwortzwang vorbearbeiten
- eine Liste mit den von uns definierten Clustern (Sammelbegriffen)
- das Datenformat (json) für den Import auf unserer Website
Welche Datenkompetenzen sollten die Volunteers eurer Meinung nach idealerweise mitbringen?
Nach unserem Empfinden macht es Sinn, wenn wir gemeinsam mit Datenanalysen arbeiten, die in folgenden Schwerpunkten unterwegs sind:
- Datenanalyse & Automatisierung
- Clusteranalyse
- Ggf. Machine Learning
Und alle, die Lust darauf haben, an einem ganz konkreten Usecase mit uns zu arbeiten.
Ihr könnt euch gern unser „Endprodukt“ – die Kommunikation der Panelergebnisse auf unserer Website vorab anschauen, um einen ersten Eindruck zu bekommen, den Rest erarbeiten wir einfach on the fly.
MobiData BW®
MobiData BW® ist die verkehrsträgerübergreifende Open-Data-Plattform für Mobilitätsdaten des Landes Baden-Württemberg. Die zentrale Integrationsplattform trägt dazu bei, die Ziele der Mobilitätswende zu erreichen, indem sie die Mobilitätsdaten landesweit bündelt und diese kosten- sowie diskriminierungsfrei öffentlich bereitstellt. Ein standardisiertes, transparentes Lizenzmodell erlaubt die Nutzung der Daten für kommerzielle und nicht kommerzielle Zwecke. So können innovative verkehrsträgerübergreifende und nachhaltige Mobilitätsdienste entstehen.
Die NVBW – Nahverkehrsgesellschaft Baden-Württemberg mbH – betreibt MobiData BW® im Auftrag des Ministeriums für Verkehr Baden-Württemberg und hat MobiData BW® als landesweite Plattform für Mobilitätsdaten etabliert und damit einen zentralen Punkt zur Bündelung und Bereitstellung von Verkehrs- und Angebotsdaten aus Kommunen und Verkehrsverbünden sowie von privatwirtschaftlichen Mobilitätsanbietern geschaffen.
Der bestehende Datenkatalog reicht von Sharing- über Parkdaten und Fahrplandaten, sowie Daten zu Ladeinfrastruktur, Ereignissen, Baustellen, Rad- und Fußverkehr, Zählungen und Verkehrsmeldungen.
Mobilität ist Gemeinwohl – welche Daten machen dies möglich?
MobiData BW® sammelt und bündelt Daten mit Mobilitätsbezug (wie z.B. ÖPNV, Barrierefreiheit, Sharing Mobility, Parkraum, Meldungen, Zählungen, etc.) und stellt diese in standardisierten Formaten und mit offenen Lizenzen bereit.
Welche Anwendungen von Mobilitätsdaten seht ihr in gemeinwohlorientierten Organisationen und Projekten?
Mit welchen Informationen / Daten lassen sich Mobilitätsdaten für gemeinwohlorientierte Anwendungen sinnvoll ergänzen, um deren Nutzen zu steigern?
Wie sollten Plattformen wie MobiData BW® die Daten und Formate im Idealfall bereitstellen, um optimale Mehrwerte zu erzielen? Welche Datenarten sind am relevantesten, welche Lizenzen und Anwendungen wichtig? Welche Rolle können sensible, aber relevante Daten spielen, die nicht als Open Data verfügbar sind?
Vorstellbar ist für uns ein Leitfaden für Mobilitätsdaten im Gemeinwohl-Einsatz als auch ein prototypisches Anwendungsdesign für konkrete Anwendungen.
Aufgabe von MobiData BW® ist die verkehrsträgerübergreifende Datenbereitstellung, als Open Data und damit für alle nutzbar. Das Ziel ist, mit den Daten einen Beitrag zur Mobilitätswende zu leisten und damit die klimafreundliche Mobilität voranzubringen.
Unser Ziel ist es, die Perspektive der Zivilgesellschaft zu erfahren und kennen zu lernen, Feedback zu erhalten und auch herauszufinden, wo noch bisher ungenutzte Potentiale liegen. Wir wollen ermitteln, mit welchen Daten wir das bestehende Datenangebot sinnvoll ergänzen und damit besser machen können, um die Nutzung attraktiver zu gestalten. Oder: Mit welchen Datenquellen können wir unser Angebot besser vernetzen, welche Informations- und Vernetzungspfade helfen dabei, Mobilitätsdaten optimal in praktische Anwendungen zu bringen.
Stehen euch bereits Daten zur Verfügung?
Ja, MobiData BW® verfügt über einen gut gefüllten Datenkatalog. Zu verschiedenen Mobilitätsarten stehen jeweils Datenprofile zur Verfügung, über welche die Daten eingesehen und genutzt werden können.
Welche Datenkompetenzen sollten die Volunteers eurer Meinung nach idealerweise mitbringen?
Wir freuen uns generell über Offenheit und Interesse, sich mit dem Thema Mobilität auseinander zu setzen. IT-Erfahrung und Programmierkenntnisse können von Vorteil sein, um einen Blick in das bestehende Datenangebot werfen zu können und ggf. sogar erste Anwendungsszenarien skizzieren zu können.
Die Plattform MobiData BW® besuchen, die Datenprofile und vor allem die dazugehörigen Visualisierungen betrachten. Mit geschärftem Blick durch den Alltag gehen und die Vielfalt von Mobilitätsdaten und deren (potentielle) Anwendungsgebiete entdecken und erkunden. Beispiele von bestehenden Datenanwendungen ausprobieren. Ähnliche Plattformen besuchen wie z.B. die Mobilithek, die Open-Data-Plattform daten.bw sowie Geoportale oder Open Data Portale von Kommunen.
Open Data Forum
Das Kompetenzzentrum Open Data (CCOD) im Referat D I 4 des Bundesverwaltungsamtes hat in Kooperation mit dem Zentrum für Digitale Souveränität (ZenDiS) auf der Open CoDE Plattform ein eigenes Forum zum Thema Open Data eingerichtet.
Hiermit kommen wir dem Wunsch der Open Data Community nach einer zeit- und ortsunabhängigen Möglichkeit zum Austausch nach.
Das Open Data Forum (ODF) verfolgt das Ziel, durch transparente und systematisierte Formen der Kommunikation von Datenbereitstellenden und Datennutzenden mit- und untereinander langfristig die Veröffentlichung faktisch nachgefragter und qualitativ hochwertiger Datensätze zu erhöhen.
Im Open Data Forum können (sich)
- Nutzende von offenen Daten mit den Datenbereitstellenden in Kontakt treten
- Datenbereitstellende untereinander Erfahrungen und Wissen teilen
- Anwendungsfälle von offenen Daten präsentiert werden
- Interessierte zu Open Data Veranstaltungen (z.B. den Fachforen) austauschen
Verwaltungsmitarbeitende von der Open Data Expertise in der Zivilgesellschaft profitieren
Anstelle einer konkreten Datenherausforderung bildet den Kern dieses Projektes die Kommunikation über (offene) Daten, um der Herausforderung der wenig systematisierten Kommunikation der beteiligten Akteure zu begegnen.
Während Teile der Datenbereitstellenden zumindest innerhalb bestehender Netzwerke kommunizieren, ist insbesondere die Kommunikation mit Nutzenden in der Breite unterentwickelt. Für eine möglichst
bedarfsgerechte Nachnutzung – das eigentliche Ziel der Datenbereitstellung – ist jedoch die Kommunikation (vor allem mit) mit Datennutzenden unerlässlich. Nur so können datenbereitstellende Stellen die Qualität der Daten einschätzen, faktische Bedarfe ihrer Community kennen lernen und letztlich in ihrer Bereitstellung priorisieren.
Häufig erfolgt eine solche Kommunikation sporadisch und unstrukturiert, hier soll das Open Data Forum Abhilfe schaffen. Mit der neuen Kommunikationsplattform ergeben sich jedoch neue Hürden:
- Wie erreichen wir möglichst viele Datennutzende?
- Wie schaffen wir es, den Großteil der Bundes- Landes und Kommunalbehörden ins Forum zu holen und dazu zu animieren, sich aktiv einzubringen?
- Wie fördern wir einen nachhaltigen Diskurs?“
Mit dem Open Data Forum beabsichtigt das CCOD einen zentralen, transparenten und systematisierten Raum für Austausch im Bereich der offenen Daten zu bieten.
Neben der Akquise neuer Nutzender beabsichtigen wir, neue Anforderungen für die stetige Weiterentwicklung des Forums einzuholen. Nachdem das Forum – dank der Kooperation mit Open CoDE – schnell realisiert und gelauncht werden konnte, konzentrieren wir uns nun darauf, die Plattform anhand der realen Nutzendenbedarfe weiterzuentwickeln.
Welche Datenkompetenzen sollten die Volunteers eurer Meinung nach idealerweise mitbringen?
Keine spezifischen Datenkompetenzen von Nöten. Wichtiger ist, dass die Teilnehmenden Nutzende oder Bereitstellende von Open [Government] Data sind.
Volunteers können sich gerne im Vorfeld zu dem Workshop mittels der unten genannten Links registrieren und das Open Data Forum besuchen.


