Zum Inhalt springen
Ein moderner U-Bahnhof mit Rolltreppen, die zu den Plattformen führen – ein Sinnbild für den geregelten Zugang zu Daten, wie ihn Zugangsrechte im NetzDG und DSA ermöglichen.
27 November 2024

Plattformdaten und Forschung: Zugangsrechte als Gefahr für die Wissenschaftsfreiheit?

Beim Thema Regulierung von Online-Plattformen herrscht ein seltenes Maß an Einigkeit: Es braucht mehr fundierte Forschung und verlässliche Daten. Sowohl das deutsche Netzwerkdurchsetzungsgesetz (NetzDG) als auch der europäische Digital Services Act (DSA) haben deshalb Zugangsrechte zu Forschungsdaten geschaffen. Diese definieren jedoch eng, welche Art von Forschung mit diesen Plattformdaten durchgeführt werden darf. Welche Auswirkungen hat dies auf die Wissenschaftsfreiheit?

Ein Ausgangspunkt zahlreicher parlamentarischer Anhörungen von CEOs großer Technologieplattformen war der Verdacht, dass diese Unternehmen aus den gesammelten Daten wesentlich mehr über die Auswirkungen ihrer Geschäftsmodelle auf die Gesellschaft wissen, als sie preisgeben. Whistleblower*innen wie Frances Haugen haben das durch ihre Arbeit mit gelegentlichen Einblicken untermauert. Ein Abbau solcher Informationsasymmetrien wurde zur zentralen Forderung vieler Internetaktivist*innen, Forscher*innen und Politiker*innen. Eine legislative Antwort darauf sind neue Datenzugangsrechte für die Wissenschaft: Regelungen, die Forschenden unter bestimmten Bedingungen (z.B. öffentliche Förderung, Veröffentlichung der Ergebnisse, Schutz der Privatsphäre der Nutzer*innen) den Zugang zu Plattformdaten ermöglichen.

Plattformdaten als wertvolle Ressource für Forschende

Die von Internetnutzer*innen generierten Daten gelten als vielversprechende Wissensquelle für alle Disziplinen, die menschliches Verhalten untersuchen oder daraus Rückschlüsse daraus ziehen wollen. Besonders von Nutzer*innen generierte Inhalte wie Beiträge, Kommentare und Suchanfragen auf großen Plattformen sind ein attraktiver Ausgangspunkt.  Quantitativ erlauben sie eine direkte Abbildung menschlichen Verhaltens in maschinenlesbarer Form,  in großem Umfang und auch für wenig dokumentierte Gruppen oder Phänomene. Daher werden solche Daten nicht nur in den Sozialwissenschaften, sondern auch in der epidemiologischen Forschung oder sogar in der Stadtplanung verwendet.

Grenzen freiwilliger Datenbereitstellung durch Plattformen

Den möglichen Erkenntnissen steht jedoch oft das kommerzielle Interesse der Plattformanbieter entgegen, ihre Daten als wertvollstes Gut zu monetarisieren statt zu teilen. Zudem verpflichtet sie der Datenschutz, zum Beispiel die DSGVO, Nutzer*innendaten nicht ohne Zustimmung an Dritte weiterzugeben. Einige Plattformen haben Forschenden in der Vergangenheit dennoch freiwillig Zugang gewährt oder Daten an Forschungsarchive gespendet.  Aus Sicht der Wissenschaft sind solche freiwilligen Praktiken jedoch oft begrenzt und vom guten Willen des Unternehmens abhängig. Mitunter behalten sich die Plattformunternehmen sogar vor, die Veröffentlichung der Ergebnisse zu verhindern. Dies alles schreckt nicht nur von Forschung ab, die kommerziellen Interessen zuwiderläuft. Es erschwert auch die Planung und Finanzierung von Forschungsprojekten erheblich, die oft bereits in der Antragsphase einen gesicherten Datenzugang nachweisen müssen.

Datenzugangsrechte als Anhängsel der Plattformregulierung?

Deutsche und europäische Gesetzgeber*innen haben auf diese Kritik mit neuen Zugangsrechten reagiert.  Diese konzentrieren sich jedoch vor allem auf die Auswirkungen von Plattformen und schränken den Zugang auf bestimmte Forschungszwecke ein.

Beispielsweise gewährte der mittlerweile aufgehobene § 5a NetzDG ein Zugangsrecht, wenn das Phänomen der Plattformkommunikation untersucht wurde – unabhängig von Fachrichtung, Methode oder der Zielsetzung der Forschenden. Art. 40 Abs. 4 und 12 DSA ist dagegen enger gefasst und verlangt, dass die Forschung systemische Risiken sehr großer Plattformen untersucht. Demnach muss die Forschung nicht nur ein öffentliches Gut, genannt in Art. 34 Abs. 1 DSA, wie beispielsweise das öffentliche Gesundheitswesen fördern, sondern sich auch auf die negativen Auswirkungen einer Plattform auf dieses Gut konzentrieren. 

Das bedeutet zum Beispiel, dass etwa der Zugang zu Daten gewährt wird, um die Rolle einer Plattform in Bezug auf Essstörungen zu untersuchen. Wiederum aber nicht für eine epidemiologische Studie, die Bewegungsdaten zur Effizienz eines Lockdowns analysiert. Die engste Definition findet sich im inzwischen ebenfalls aufgehobenen § 19 Abs. 3 des Urheberrechts-Diensteanbieter-Gesetzes (UrhDaG). Es ermöglichte nur Zugänge für die Überwachung überheberrechtlicher Pflichten von Plattformen.

Folgen für die Wissenschaftsfreiheit

Die aktuellen Regelungen zu Forschungsdatenzugängen verdeutlichen ein grundlegendes Missverständnis: Sie werden lediglich als Anhängsel von Plattformregulierungsgesetzen betrachtet.  Dies  setzt voraus, dass Gesetzgeber bereits wissen, welches Wissen sie oder die Gesellschaft benötigen, und Forschenden nur eine sehr begrenzte Rolle dabei zugestehen, vermeintliche Wissenslücken zur Plattformkommunikation oder ihrer Regulierung zu schließen. Zufällige Entdeckungen, ganze Disziplinen und Forschungsansätze werden dabei ausgeklammert. Nach einer weit verbreiteten Auffassung, die auch das Bundesverfassungsgericht vertritt, basiert die Wissenschaftsfreiheit auf der Idee,  dass eine von sozialem Nutzen und politischer Zweckmäßigkeit unabhängige Wissenschaft dem Staat und der Gesellschaft am besten dient. Aus dem Grundsatz wissenschaftlicher Autonomie wird regelmäßig abgeleitet, dass die Wissenschaftspolitik keine Themen oder Disziplinen vollständig ausschließen darf. Dies würde eine Relevanzzuweisung bedeuten, zu der weder der Staat noch die EU berechtigt sind. Doch genau das geschieht in den Forschungsdatenzugängen des Plattformrechts, etwa in Art. 40 DSA. Das dortige Zugangsregime berücksichtigt nicht die überwiegende Mehrheit der Disziplinen oder spezifischen Forschungsansätze, die sich mit anderen Fragen als den systemischen Risiken großer Plattformen und Suchmaschinen befassen. Die Regelung privilegiert Forschung nur insoweit, als sie diese Dienste als vermutete Ursachen der Probleme untersucht, denen sich der DSA widmet.  

Die Zugangsrechte zu Forschungsdaten zielen damit nicht auf wissenschaftliche, sondern auf regulatorische Angemessenheit ab. Thematisch eingeschränkte Zugangsvoraussetzungen begrenzen die Forschungsautonomie in Bezug auf die Wahl des Forschungsthemas, der Fragestellung und des Umfangs der Forschung. Obwohl andere digitale Forschungsthemen und -projekte rechtlich weiterhin zulässig sein mögen, machen selektive Datenzugänge sie de facto weniger attraktiv und oft unmöglich.

Welche Auswirkungen wird dies haben?

Zwei Szenarien sind denkbar, beide problematisch für die Wissenschaftsfreiheit: Einerseits könnte die Anpassung von Datenzugängen Forschende dazu motivieren, regulatorisch relevante Fragen zu untersuchen, die sie bei einem breiteren Datenzugang nicht adressiert hätten. Doch es fördert kaum wissenschaftliche Exzellenz, wenn Forschende sich gezwungen sehen, ihre eigenen Themen und Fragen einzuschränken, nur um ein vermeintlich aktuelles Thema dank exklusiven Datenzugangs bearbeiten zu können. Eine solche Einschränkung erstickt kreative wissenschaftliche Prozesse. Andererseits schließt der enge Zugang zu Forschungsdaten Forschende, die sich für andere Themen interessieren, schlicht aus, ohne andere dazu zu bewegen, sich relevanten Fragen zuzuwenden. In diesem Fall ist die Einschränkung schwer mit dem Gebot der Gleichbehandlung zu vereinbaren. Denn der regulatorische Zweck profitiert in solchen Fällen nicht von der eingeschränkten Art der Zugangsgewährung.

Wie geht es weiter?

Da regulatorische Überlegungen allein die Einschränkung des Datenzugangs kaum rechtfertigen können, müssen andere rechtliche Interessen herangezogen werden, um diese  Eingriffe in die Forschung zu begründen.

Ein möglicher Rechtfertigungsgrund könnte der Schutz der verpflichteten Unternehmen sein, die zur Bereitstellung der Daten verpflichtet werden. Es ist gängige Praxis,  jede einzelne Offenlegung sensibler persönlicher oder unternehmerischer Daten als separaten Grundrechtseingriff zu betrachten,  der einer eigenen Rechtfertigung bedarf. Jeder Datenzugang erhöht die Zahl der Personen, die Zugang zu internen UnternehmensInformationen erhalten und diese möglicherweise missbrauchen könnten, etwa durch Weitergabe an Wettbewerber. Doch auch dieses Argument ist schwach, da eine stärker eingeschränkte Forschungsautonomie dazu führt, dass der Wissenschaftsfreiheit als durch den Zugang gefördertem Grundrecht geringeres Gewicht in einer Abwägung mit den beeinträchtigten Unternehmensrechten zukommt. Zudem muss die Interessenabwägung in Gesetzen, die den Datenzugang gewähren, unabhängig von Einzelfällen erfolgen und darf sich nicht auf das vermutete quantitative Aktivierungsniveau der Norm stützen.

Die derzeitigen Regelungen zum Zugang zu Forschungsdaten im Digitalrecht verfehlen ihr eigentliches Ziel. Zeigten sie sich offener für die datengetriebene Forschung, wären sie mit Blick auf die Wissenschaftsfreiheit besser zu rechtfertigen und könnten den Eindruck einer politischen Instrumentalisierung vermeiden.

Autoren

Tobias Mast leitet ein Forschungsprogramm am Leibniz-Institut für Medienforschung | Hans-Bredow-Institut. Martin Fertmann ist dort Junior Researcher. Beide Autoren haben diesen Blogbeitrag innerhalb des DSA Research Networks verfasst, in dessen Rahmen sie kürzlich einen Forschungsartikel zu Datenzugangsrechten in der Zeitschrift Wissenschaftsrecht (WissR, open access) veröffentlicht haben, auf dem dieser Beitrag basiert: Mast/Fertmann, Forschungsdatenzugang und Technologieregulierung, 57 WissR (2024), S. 101-128 DOI 10.1628/wissr-2024-0011.

Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und  die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Du siehst eine Tastatur auf der eine Taste rot gefärbt ist und auf der „Control“ steht. Eine bildliche Metapher für die Regulierung von digitalen Plattformen im Internet und Data Governance. You see a keyboard on which one key is coloured red and says "Control". A figurative metaphor for the regulation of digital platforms on the internet and data governance.

Data Governance

Wir entwickeln robuste Data-Governance-Rahmenwerke und -Modelle, um praktische Lösungen für eine gute Data-Governance-Politik zu finden.

Plattform Governance

In unserer Forschung zur Plattform Governance untersuchen wir, wie unternehmerische Ziele und gesellschaftliche Werte auf Online-Plattformen miteinander in Einklang gebracht werden können.

Weitere Artikel

Drei Gruppen von Menschen haben Formen über sich, die zwischen ihnen und in Richtung eines Papiers hin und her reisen. Die Seite ist ein einfaches Rechteck mit geraden Linien, die Daten darstellen. Die Formen, die auf die Seite zusteuern, sind unregelmäßig und verlaufen in gewundenen Bändern.

Beschäftigte durch Daten stärken

Arbeitsplätze werden zunehmend datafiziert. Doch wie können Beschäftigte und Gewerkschaften diese Daten nutzen, um ihre Rechte zu vertreten?

Eine stilisierte Illustration mit einem großen „X“ in einer minimalistischen Schriftart, mit einem trockenen Zweig und verblichenen Blättern auf der einen Seite und einem leuchtend blauen Vogel im Flug auf der anderen Seite. Das Bild symbolisiert einen Übergangsprozess, wobei der Vogel das frühere Twitter-Logo darstellt und das „X“ das Rebranding der Plattform und Änderungen im Regelwerk von X symbolisiert.

Zwei Jahre nach der Übernahme: Vier zentrale Änderungen im Regelwerk von X unter Musk

Der Artikel beschreibt vier zentrale Änderungen im Regelwerk der Plattform X seit Musks Übernahme 2022 und deren Einfluss auf die Moderation von Inhalten.

Das Bild zeigt einen Traktor von oben, der ein Feld bestellt. Eine Seite des Feldes ist grün bewachsen, die andere trocken und erdig. Das soll zeigen, dass nachhaltige KI zwar im Kampf gegen den Klimawandel nützlich sein, selbst aber auch hohe Kosten für die Umwelt verursacht.

Zwischen Vision und Realität: Diskurse über nachhaltige KI in Deutschland

Der Artikel untersucht die Rolle von KI im Klimawandel. In Deutschland wächst die Besorgnis über ihre ökologischen Auswirkungen. Kann KI wirklich helfen?