logo

Beschlussarchiv

N1 2021
Big Data: Blinden Fleck im Datenschutz schließen!

Beschluss N1: Big Data – Blinden Fleck im Datenschutz schließen!

Im Zeitalter der Digitalisierung und Künstlicher Intelligenz erhält die Speicherung von Massendaten, sog. Big Data, eine zunehmende Bedeutung. Die unter dem Begriff "Big Data" zusammengefassten Techniken ermöglichen es, spezifische Abfragen und Analysen auf heterogenen Datenmengen durchzuführen, die für eine herkömmliche manuelle Analyse zu groß oder komplex sind. So generieren z.B. Musik- und Streaminganbieter*innen mittels Big Data hochspezifische Profile von Nutzer*innen und leiten daraus individualisierte Playlisten und Filmempfehlungen ab. Die Informationen aus denen diese Profile generiert werden, dienten ursprünglich einem anderen Zweck. Wer wann, wie oft und wie lange einen bestimmten Song hört, sind für Unternehmen wie Spotify notwendige Informationen, um die Nutzung gegenüber der Musikindustrie abzurechnen. Dieses Vorgehen steht exemplarisch für Big Data. Es wird auf Bestandsdaten zurückgegriffen, die ursprünglich zu einem ganz anderen Zweck erhoben wurden. Diese werden mit anderen Datensätzen fusioniert, um neue Erkenntnisse zu gewinnen. Wir wollen die blinden Flecken im Datenschutz schließen und den Datenschutzbegriff umfassender denken und erweitern. Daher fordern wir einen strengeren Datenschutz auch bei extrapolierten, also aus Datensätzen abgeleiteten, Informationen! Zu den Unkalkulierbarkeiten von Big Data gehört die ständige Gefahr der Reidentifizierung. Auch wenn Datensätze zuvor vollständig anonymisiert wurden, so lassen sie in Kombination mit anderen zumeist doch Schlüsse auf individuelle Personen zu. So konnte bspw. die Informatikerin Latanya Sweeney bereits in den 90ern anhand von pseudonymisierten Krankenakten und öffentlich zugänglichen Daten aus einem Wähler*innenregister die Patientenakte des Gouverneurs von Massachusetts rekonstruieren. 2013 veröffentlichten deutsche Wissenschaftler*innen eine Untersuchung von anonymisierten Handydaten, nach der im Schnitt vier willkürliche Datenpunkte aus Uhrzeit und Standort ausreichen, um das komplette Bewegungsprofil einer dahinterstehenden Person herauszufinden. Die Reidentifizierung von Personen aus anonymisierten oder pseudonymisierten Datensätzen wollen wir strafbewehrt verbieten.

Das europäische Datenschutzrecht ist maßgeblich durch die sog. Datenschutzgrundverordnung (DSGVO) geprägt, von dem Gedanken der “informierten Einwilligung” geleitet ist. Eine Person muss also grundsätzlich in Art und Umfang der Verarbeitung ihrer Daten einwilligen. in der Realität stehen diesem Grundsatz mehrere Hürden im Weg. So ist oft nicht klar ersichtlich, welche Daten überhaupt genau erhoben werden. Zweitens ist nicht klar nachvollziehbar, welche Wege die erhobenen Daten gehen, wie sie kopiert und wie genau verarbeitet werden und schließlich kann man nicht wissen, welche Aussagen Daten in Verknüpfung mit anderen zulassen oder in Zukunft zulassen könnten. Vor dem Hintergrund, dass eine einmal erteilte Einwilligung aufgrund eines Vertragsverhältnisses sowohl rechtlich, als auch praktisch nicht rückwirkend widerrufen werden kann, ist das Prinzip der Datensouveränität in der DSGVO nicht zielführend. Die bisherigen regulatorischen Ansätze erweisen sich also als unzureichend. Dennoch bieten Künstliche Intelligenz, Big Data & Co. Möglichkeiten, die sich mit Blick auf dringend notwendige sozial-ökologische Transformation als unverzichtbar erweisen könnten. Um den motorisierten Individualverkehr zurückzudrängen, braucht es intelligente Mobilitätsplanung, die sich an den Bedürfnissen der Menschen orientiert. Wenn der Umstieg auf erneuerbare Energien gelingen soll, benötigen wir intelligente Stromnetze, die sich innerhalb von Sekunden an Veränderungen in der Energieproduktion anpassen können. Es bedarf einer neuen Herangehensweise an den Umgang mit Daten im digitalen Zeitalter. Der Schutz unserer Grundrechte muss dabei oberste Priorität besitzen. Dazu müssen Konzepte wie “Privacy-by-Design” noch weitergedacht werden als es die Datenschutzgrundverordnung bisher tut. Ein “Bike-Sharing”-Anbieter muss beispielsweise nicht wissen, wo sich gerade welche Person genau befindet. Es genügt die Position der Fahrräder zu kennen und die Gewissheit, dass deren Nutzung richtig abgerechnet wird. Der genaue Standort von Kund*innen muss nicht erfasst werden, um die Dienstleistung anbieten zu können. Die Sammlung von Daten ohne genauen Anlass, aber mit dem Gedanken sie später ökonomisch verwerten zu können, darf nicht der Standard sein. Gleichwohl sollen für festgelegte Zwecke auch mit Zustimmung der Nutzer*innen Daten erhoben werden können, um eine digitale Dienstleistung verbessern zu können. Das Modell der “Datenspende” in der öffentlichen “Corona- Warn-App” kann dabei ein Vorbild sein.

Durch den Einsatz automatisierter, algorithmischer Prozesse werden Daten ausgewertet, um Entscheidungen zu treffen. Diese Algorithmen lernen durch vorher von Menschen getroffene Entscheidungen oder aufgrund ausgewählter Daten. Sie bergen also die Gefahr des Eindrucks von Neutralität durch Technik, wobei eigentlich gesellschaftliche Vorurteile und Benachteiligungen reproduziert und faktisch unsichtbar gemacht werden. Sei es im Gesundheits- oder Finanzwesen, dem Ausschluss in Bewerbungsverfahren oder der “präventiven” Beobachtung durch Sicherheitskräfte: Automatisierte oder durch automatisierte Verfahren unterstützte Entscheidungsprozesse müssen transparent und nachvollziehbar sein. Sie müssen dem Rechtsweg unterworfen und die Beweislast den Betreiber*innen dieser Systeme aufgebürdet werden. Bei den Chancen, die große Datenmengen und deren Verarbeitung mit sich bringen, ist für uns klar: Niemand darf durch ihren Einsatz benachteiligt werden oder negative Konsequenzen zu fürchten haben. Sammlung, Umgang und Nutzbarmachung großer Datenmengen stellen richtungsweisende Grundsatzfragen für die Wirtschaft und Gesellschaft unserer Zeit. Wir regen eine tiefergehende Beschäftigung mit der Datenökonomie durch das Bundesprojekt “Digitales Grundsatzprogramm” an.