logo

Beschlussarchiv

N1 2023
Die digitale Gesellschaft der Freien und Gleichen: Unsere jungsozialistischen Leitlinien in der Digitalpolitik

Der digitale Wandel treibt die Welt zu immer neuen kapitalistischen Höchstleistungen an. Digitale Großkonzerne, wie Meta, Alphabet, Amazon und Co. generieren aus Daten ihrer Nutzer*innen fantastische Gewinne: Die Liste der reichsten Menschen führen Männer an, die ihr Vermögen mehrheitlich in diesem Bereich gemacht haben und jeder von ihnen vereinigt ein Vermögen auf sich, das die Wirtschaftsleistung mancher Länder übersteigt. Diese radikale Ungleichheit lehnen wir als Jungsozialist*innen aus tiefer Überzeugung ab.

Ebenso öffnet besonders digitale Kommunikation auch für staatliche Repressionen und Überwachungen neue Türen. Wo in der analogen Welt eng abgesteckte Befugnisse und Grenzen für staatliche Eingriffe gelten, ist in der digitalen Welt die Sammlung und Verarbeitung von Daten oft nicht einsehbar. Für uns ist klar, dass die Digitalisierung kein Einfallstor für die staatliche Überwachung sein kann.

Gleichzeitig ermöglicht Digitalisierung gesellschaftlichen Fortschritt und bringt insbesondere durch Effizienzgewinne enorme Potenziale für Arbeitszeitverkürzung, Umverteilung und gesellschaftliche Mehrwerterzeugung/-abschöpfung mit sich. Auch höhere Transparenz, bessere Partizipation und erhöhte Sichtbarkeit von marginalisierten Gruppen können durch eine richtig umgesetzte Digitalisierung erreicht werden. Als Jungsozialist*innen müssen wir daher unsere hergebrachten Analysen auf den Prüfstand stellen, mit neuen Realitäten abgleichen und aus diesen aktualisierte Schlussfolgerungen ziehen.

Kritik an der kapitalistischen Verwertungslogik im Digitalen

In unserem digitalen Zeitalter werden Daten unterschiedlicher Herkunft und Verwendung abgeschöpft, zusammengesetzt und verwertet. Die Sammlung und Verknüpfung von Daten ist allgegenwärtig. Denn Daten sind ein unabdingbarer Rohstoff unserer Gesellschaft geworden. Somit ist eine Verwertung dieser auch integraler Teil unserer gesellschaftlichen und wirtschaftlichen Rohstoffverwertung.

Im digitalen Kapitalismus entsteht Wertschöpfung teilweise auf eine neue Art und Weise. Produkte setzen sich nicht aus physischen Rohstoffen zusammen, sondern aus Ereignissen in der realen Welt, deren Daten mittels menschlicher oder sensorischer Eingabe zunächst als gesammelt, rekombiniert und zu interpretierbaren und wertstiftenden Informationen aufbereitet werden. Durch die Bereitstellung dieser Informations-Infrastruktur für Konsument*innen, Maschinen oder für andere Unternehmen ist es möglich, Rendite zu generieren. Ein gutes Beispiel dafür ist der Google-Suchalgorithmus. Der Mehrwert entsteht hierbei dadurch, dass das Internet und damit Daten, die ohnehin öffentlich zugänglich sind, besser durchsucht werden können. Unsortiert oder in Ausschnitten machen diese Daten nicht den kapitalistischen Wert des Suchalgorithmus aus. Erst wenn die Daten in Zusammenhang zueinander gebracht werden, werden sie für Nutzende so wertvoll und damit auch für werbetreibenden Unternehmen, die eben jene Kund*innen erreichen wollen.

  • Kollektivierung gesellschaftlich relevanter Infrastrukturen

Während es unsere sozialistische Vision ist, dass Unternehmen mit Daten überhaupt keine Rendite machen, so muss es unsere realpolitische Forderung sein, Dienste und digitale Infrastruktur in den Fällen zu kollektivieren, in denen sie im Sinne des Gemeinwohls gesellschaftlich relevant sind. Das verhindert, dass einzelne Konzerne die Deutungshoheit in Bezug auf den Ausbau, den Erhalt und die Art und Weise dieser Infrastrukturen haben. Wo es sich bei kritischer Infrastruktur um Software handelt, ermöglicht die Veröffentlichung und freie Nutzbarmachung als Open Source Software eine Kollektivierung. Der Staat versteht sich als vorgebender Akteur des ursprünglich anarchistischen Projekts Internet, der Regulierungen durchsetzt und Standards vorgibt. Diese Haltung führt zur Entmachtung und zur Zerschlagung von Big Tech und sichert damit das gemeinwohlorientierte antikapitalistische Wesen des Internets.

Gesellschaftliche Machtstrukturen verfestigen sich ebenfalls durch kapitalistische Strukturen im digitalen Raum. So werden beispielsweise Posts, die viele Reaktionen haben, also Likes, Reposts usw., zum Beispiel durch Social-Media-Plattformen bevorzugt und wiederum mehr Nutzer*innen angezeigt. Dies liegt daran, dass sich die kapitalistisch betriebenen Plattformen dadurch noch mehr Interaktionen, also noch mehr Daten und daraus resultierendes Kapital versprechen. Gesellschaftliche Konsequenzen dieser Praktiken sind allerdings direkt spürbar.

Denn Posts, die viele Interaktionen hervorrufen, sind teilweise menschenfeindlich und diskriminierend. Auch wenn es Gesetze gegen Hate Speech gibt, werden diese nicht ausreichend angewendet und bleiben wirkungslos. Was Kapitalismus im digitalen Raum bedeuten kann, lässt sich aktuell am Beispiel von Twitter (nun X) verfolgen. Nach dem Kauf der Plattform durch einen der reichsten Menschen der Welt, schaffte dieser plattforminterne Regulierungsinstanzen ab. Die Folgen war ein drastischer Anstieg von Hate Speech, sodass viele von Diskriminerung betroffene Menschen sich auf dieser Plattform nicht mehr sicher fühlten und diese verließen.

So wird dieser digitale Raum immer weiter nach rechts gerückt, menschenfeindliche Aussagen nehmen zu. All diese Verschiebungen haben Auswirkungen auf die politische Debatte, die auch im digitalen Raum stattfindet. Den digitalen Raum dem Kapitalismus zu entziehen, ist also nicht nur eine wirtschaftliche Frage, sondern auch eine gesellschaftliche und demokratische Aufgabe.

  • Deshalb fordern wir die baldige Kollektivierung aller gesellschaftlich relevanten digitalen Infrastrukturen.

 

  • Kritik am Rohstoffverbrauch durch digitale Infrastruktur

Digitale Technologien, Infrastruktur und Dienstleistungen haben auch durch ihre Herstellung einen Einfluss auf die analoge Welt. Wir kritisieren die fehlende Transparenz über den Energieverbrauch digitaler Infrastruktur und Dienstleistungen. Es ist für den*die Endverbraucher*in meist nicht ersichtlich, wie viele Ressourcen mit der Nutzung einer digitalen Dienstleistung verbraucht werden. Außerdem ist der Ursprung und Verbrauch von Energie und Rohstoffen digitaler Unternehmen für die Öffentlichkeit nicht einsehbar. Ausbeutung ist auch bei der Herstellung digitaler Hardware durchweg vorhanden.

Deshalb fordern wir:

  • Volle Transparenz über Energieverbrauch bei Nutzung digitaler Infrastruktur.
  • Öffentliche Einsicht in den Energieverbrauch von Technologieunternehmen und Anbietern digitaler Infrastruktur.
  • Volle Transparenz über Ursprung Rohstoffe und Produktionswege digitaler Endprodukte.

Ein sozialistischer Freiheitsbegriff für die digitale Welt

Wir Jusos setzen uns für die Verteidigung von Freiheits- und Gleichheitsrechten in der Digitalpolitik ein. Insbesondere muss eine Perspektive für die Digitalpolitik eröffnet werden, die weitergedacht wird als ein bloßer Abwehrkampf gegen Überwachungsfantasien konservativer Politik. Wir brauchen einen sozialistischen Freiheitsbegriff für die digitale Welt. Denn digitale Freiheit ist nicht nur die Abwesenheit von Unterdrückung oder äußeren Zwängen, sondern auch das Vorhandensein von Chancengleichheit, sozialer Gerechtigkeit und demokratischer Kontrolle über digitale Ressourcen und Technologien.

  • Feministische Digitalpolitik

Das erfordert einen Paradigmenwechsel in der Digitalpolitik. Dieser bezweckt den digitalen Raum sowie die Technikentwicklung- und -industrie umzustrukturieren. Die Digitalisierung ist hin zu einer gerechteren und auf den Menschen zentrierten Strukturen zu entwickeln. Feministische Digitalpolitik heißt, Digitalpolitik als Gesellschafts- und Gerechtigkeitsfrage zu betrachten.

Denn die Digitalisierung ist bisher vor allem von wirtschaftlichen Interessen geprägt. Statt den Bedürfnissen von Menschen zu dienen, prägen Innovation und Effizienz die Entwicklungen im digitalen Raum. Das führt heute dazu, dass es Gewinner*innen und Verlierer*innen in der Digitalisierung gibt. Denn nicht alle Menschen verfügen über die gleichen Zugangsmöglichkeiten zu neuen Technologien oder können diese aktiv mitgestalten. Zudem werden bestehende Diskriminierungsmuster und Ungerechtigkeiten wie Sexismus, Rassismus, Queerfeindlichkeit, Klassismus oder Ableismus verfestigt und verstärkt.

Diese Umstände darf sich eine kritische Digitalpolitik nicht kommentarlos zu eigen machen. Wir nehmen eine neue Perspektive an und blicken mit einem gesamtgesellschaftlichen Bezug auf die Digitalisierung. Dazu ist das Augenmerk auf die Situation und Bedürfnisse benachteiligter Gruppen zu legen. Die Ungerechtigkeiten durch gesellschaftliche und staatliche Machtstrukturen sind auch im digitalen Raum zu bekämpfen. Denn Digitalpolitik ist Gesellschaftspolitik, die grundlegende soziale Fragen wie Gerechtigkeit, Mitbestimmung und Zugang zu öffentlichen Räumen adressiert.

  • Demokratische Kontrolle der Digitalisierung

Zudem gilt es, öffentliche Räume wieder unter die wirksame Kontrolle des Staates zu stellen. Die entstandenen Strukturen sind aufzubrechen und zu demokratisieren. Denn der Staat tritt bisher im Verhältnis zur Tech-Branche in erster Linie als regulierende Instanz auf. Dabei besteht jedoch eine Abhängigkeit von den Regulierungsadressat*innen, die in wirtschaftlicher Hinsicht und mit Blick auf die Kompetenzen im digitalen Bereich einen klaren Vorsprung genießen. Staatliche Regulierung bleibt so strukturell auf das kooperative Verhalten der Konzerne angewiesen.

Besondere Probleme treten dabei dort auf, wo Big Tech staatliche oder proto-staatliche Aufgaben übernommen hat. Nutzer*innen und Bürger*innen sind hier den Unternehmen durch ihre monopolistische Stellung ausgeliefert. Die Übermacht von Big Tech, die hohe Innovationsgeschwindigkeit und die verlangsamte Reaktionszeit der Regulierungsinstanzen führten nicht zuletzt zur Eröffnung einer Art von rechtsfreien Räumen, die in Teilen bis heute fortbestehen und sich auch neu eröffnen.

Wenn der demokratische Diskurs im digitalen Raum ausgelebt wird, darf dieser nicht privatwirtschaftlich und kapitalistisch getrieben werden. Es sind insbesondere die Plattformen von Big-Tech-Unternehmen, auf denen ein Großteil des öffentlichen Diskurses stattfindet. So wie der Staat für die Gewährleistung und den Schutz öffentlicher Räume in der analogen Welt zuständig ist, trägt er auch die Verantwortung für den öffentlichen Raum in der digitalen Welt. Dabei sind an den digitalen öffentlichen Raum sogar höhere Schutzstandards anzusetzen. Denn die umfassende Datensammlung von privaten Diensten ermöglicht Echtzeitrückschlüsse auf die politische Einstellung, das Verhalten, die Routinen und Bekanntschaften und den Standort einer Person.

Dieselben Standards gelten auch für staatliches Handeln im Digitalen. Denn auch staatliches Handeln ist im Rahmen des gesamtgesellschaftlichen Spannungsfeldes zwischen Sicherheitsinteressen und dem Interesse individueller Freiheit zu betrachten. Dieses Spannungsfeld zwischen Datensicherheit und Datennutzungsinteressen bewegt sich insbesondere im Bereich der Tätigkeiten von Sicherheitsbehörden ungleich zu Lasten der Datensicherheit. Während die Grenzen des Handelns von Sicherheits- und Strafverfolgungsbehörden in der analogen Welt beschränkt sind und kontrolliert werden können, wird nachrichtendienstlichen Behörden das Sammeln und Verarbeiten von umfassenden Daten ermöglicht.

  • Der Handlungsauftrag des Staates im Digitalen

Wir sehen nach all dem den Staat in all seinen Gewalten in der Verantwortung, im digitalen Raum Schutz zu bieten, sich bei Eingriffen in Zurückhaltung zu üben und Grunddienste zu leisten.

  • Der Staat, der Rechte schützt

Nach unserem jungsozialistischen Verständnis von Freiheit ist der Schutz der Bürger*innen vor staatlicher Überwachung hochzuhalten und durchzusetzen. Dieser Schutz darf nur unter engsten Voraussetzungen beeinträchtigt werden. Grundrechte wie insbesondere das Recht auf informationelle Selbstbestimmung sowie die Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme dürfen nur äußerst behutsam und zum Schutz überragend wichtiger Interessen des Gemeinwohls beschnitten werden.

Aus dieser Perspektive betrachten wir viele aktuelle Entwicklungen auf dem Gebiet staatlicher Überwachung kritisch. Wir lehnen den Einsatz automatisierter Echtzeit-Gesichtserkennenung in Verbindung mit Videoüberwachung ab. Aufgrund der bisherigen Ergebnisse des sogenannten Predictive Policing lehnen wir diesen ebenso ab. Auch hinsichtlich des zuletzt vom Bundesverfassungsgericht thematisierten Data-Mining haben wir Bedenken. Data-Mining darf nur unter den oben genannten hohen Voraussetzungen rechtlich zulässig sein. Die Vorratsdatenspeicherung steht unserem Verständnis über die Rolle des Staates in der Digitalisierung konträr gegenüber. Wie lehnen sie deshalb auch weiterhin konsequent ab.

Eine zeitgemäße, digitale Demokratie erfordert neue Ansätze, um sicherzustellen, dass Rechte im digitalen Raum verteidigt werden. Ein besonderes Augenmerk muss dabei auf den Schutz vor digitaler Gewalt gelegt werden. Hass und Hetze im Netz führen zu einem Ausschluss marginalisierter Gruppen aus digitalen Räumen und verfestigen gesellschaftliche Strukturen. Dem treten wir entschieden entgegen, denn Diskriminierungsschutz gehört zum Freiheitsschutz. Wir unterstützen den Vorschlag für ein Digitales Gewaltschutzgesetz um die effektive Rechtsdurchsetzung zu verbessern. Dabei setzen wir auf eine Stärkung staatlicher Strukturen, damit die Abwägung zwischen Meinungsfreiheit und Schutz vor digitaler Gewalt nicht Plattformbetreibern überlassen werden. Dafür braucht es eine zügige Befähigung von Gerichten und Staatsanwaltschaften, neue zivilrechtliche Verfahrensmöglichkeiten und Accountsperren als Mittel gegen unbekannte Urheber*innen. Eine grundsätzliche Klarnamenpflicht lehnen wir ab.

Wir unterstützen zudem ausdrücklich die Bestrebungen zur Schaffung digitaler Grundrechte. Insbesondere der Entwurf der "European Declaration on Digital Rights and Principles for the Digital Decade" ist ein Schritt in die richtige Richtung. Derzeitig bestehende private Plattformen müssen zunächst verpflichtet werden, die Grundrechte ihrer Nutzer*innen in der Ausgestaltung und Anwendung ihrer Algorithmen zu beachten. Zudem ist Nutzer*innen das Recht zu gewähren, eine autonome Entscheidung darüber zu erhalten, welche Informationen sie preisgeben möchten. Dies stellt sicher, dass persönliche Daten nicht ungefragt und ohne Zustimmung der Betroffenen verwendet werden.

  • Der Staat, der sich in Zurückhaltung übt

Zur Aufgabe des Staates gehört es, dass er sich bei Eingriffen in die Rechte von Bürger*innen selbst kontrolliert. Unser Ansatz ist, der Legislative und Exekutive Pflichten aufzuerlegen, die zu einer Rücksichtnahme auf die Rechte von Bürger*innen im Entstehungsprozess und bei der Anwendung von Gesetzen führen. Zudem muss der Weg zu Gerichten erleichtert werden. Mit geringeren Spielräumen für Behörden und einem weiteren Anwendungsbereich in Bezugnahme auf Richter*innen sowie erleichterter Rechtsschutzmöglichkeiten, ist bereits ein großer Schritt zu mehr Selbstkontrolle geschafft. Es sind vermehrt präventive Instrumente zum Schutz vor Missbrauch bei der Anwendung von Überwachungsmaßnahmen einzuführen, wie beispielsweise Richter*innenvorbehalte.

Zudem wollen wir zivilgesellschaftliche Akteur*innen wie NGOs stärken, die sich kritisch mit Überwachungsmaßnahmen auseinandersetzen.

Es existieren bereits eine Vielzahl staatlicher Überwachungsbefugnisse und Datensammlungen. Für eine Aufrechterhaltung und Ausweitung dieser Zugriffsmöglichkeiten müssen zwingend erhebliche Gründe vorliegen. Bevor weitere Überwachungsmaßnahmen durch Ermächtigung von Behörden geschaffen werden, gilt eine besondere Begründungspflicht. Insbesondere muss aufgezeigt werden, dass bereits bestehende staatliche Eingriffsmöglichkeiten genutzt und möglichst grundrechtsschonend angewendet werden. Jede belastende Maßnahme, wie Videoüberwachung oder Geo-Tracking, muss vor Erlass weiterer Regelungen auf ihre Verhältnismäßigkeit hin evaluiert werden.

Die Wirkungen einer neuen Überwachungsmaßnahme dürfen zudem nicht isoliert für die individuellen Freiheitsrechte der Betroffenen betrachtet werden. Bei der Bewertung staatlicher Eingriffe ist vielmehr eine Überwachungsgesamtrechnung vorzunehmen, wie sie das Bundesverfassungsgericht bereits vorgeschlagen hat und wie sie auch im aktuellen Koalitionsvertrag der Ampel vereinbart, aber bislang immer noch nicht umgesetzt ist. Dabei werden nicht nur die Folgen für das Individuum, sondern darüber hinaus die Belastung von Überwachungsmaßnahmen für das freiheitlich-demokratische Gemeinwesen wissenschaftlich und evidenzbasiert untersucht und in die Abwägung miteinbezogen. Eine solche Überwachungsgesamtrechnung halten auch wir für notwendig, um unsere freiheitliche Demokratie aufrecht zu erhalten.

Zudem hat eine Technikfolgenabschätzung zu erfolgen, die jeder neuen oder aufrechtzuerhaltenden Überwachungsbefugnis vorhergehen soll. Bevor ein neues technisches Überwachungsinstrument eingeführt oder verstärkt eingesetzt wird, müssen seine Auswirkungen vorausschauend untersucht werden. Prognosen sollen dabei hinsichtlich gesellschaftlicher, wirtschaftlicher und ökologischer Folgen angestellt werden. Insbesondere Diskriminierungsrisiken müssen zuvor untersucht werden.

Bei allen Überwachungsmaßnahmen ist der Grundsatz der Datensparsamkeit einzuhalten. Die Behörden sollen nur so viele Daten erheben, wie zur Erfüllung ihrer gesetzlichen Aufgaben notwendig sind. Die Zusammenführung von personenbezogenen Daten in zentralisierte Systeme ist grundsätzlich von der Planung an zu vermeiden. Vorhaben wie das gemeinsame Datenhaus aller Polizeibehörden „Polizei 20/20“ lehnen wir entschieden ab. Der Zwang zum online-Ausweis als Kontrollmaßnahme widerspricht unserem Grundverständnis.

  • Der Staat, der (gewähr-)leistet

Der Staat muss sich von marktwirtschaftlichen Prinzipien im Infrastrukturausbau verabschieden. Dies stellt keine rein ideelle, sondern zugleich eine elementare Sicherheitsfrage dar. Kritische Infrastrukturen haben dem Gemeinwohl zu dienen und sollen nicht profitorientiert bereitgestellt werden.

Der Staat hat dabei eine Grundversorgung sicherzustellen. Zum einen bedeutet dies, dass ein physischer Internetanschluss unabdingbar ist. Ohne Internetanschluss wird ein wichtiger Teil der gesellschaftlichen Teilhabe verwehrt. Aus diesem Grund muss die Versorgung mit Breitbandinternet und Mobilfunk staatlich gewährleistet sein, darunter fällt auch der Glasfaserausbau. Dadurch werden zudem Doppelstrukturen, also mehrere Leitungen verschiedener Dienstleister, vermieden und die Versorgungssicherheit in wirtschaftlich unattraktiven Regionen sichergestellt. Der Internetausbau kann in kommunale Hand in Form der Stadtwerke oder in Form einer staatlich kontrollierten Telekom als Netzbetreiber gelegt werden. Private Anbieter sollen keine eigenen Netze außerhalb eines öffentlichen Gesamtkonzepts ausbauen können.

Ebenso muss Digitalisierung vermehrt in das Bildungssystem integriert werden. Dies betrifft sowohl die Entwicklung von digitalen Anwendungen als auch die Auswirkungen der Digitalisierungen auf das wirtschaftliche und demokratische System. So kann im Rahmen der politischen Bildung das Systemverständnis und die Teilhabe an einer digitalen Demokratie gestärkt werden.

Plattformsozialismus durch Zerschlagung, Verstaatlichung und Regulierung der Macht von Digitalkonzernen

Big-Tech-Unternehmen stellen Staat, Demokratie, Wirtschaft und Gesellschaft auf die Probe. Die nie dagewesene Effizienz und Vernetzung im sozialen, unternehmerischen und gesellschaftlichen Agieren ist gewiss zwiespältig zu betrachten. Wir stellen fest, dass Digitalisierung einen enormen Informationsgewinn auf der einen, aber eine Herausforderung für die freie, demokratische und soziale Gesellschaft auf der anderen Seite darstellt.

Durch die monopolartige oder sogar monopolistische Stellung von Big Tech Unternehmen entsteht eine extreme Konzentration von Macht. Teilweise bestehen diese Monopole oder Oligopole auch in Dienstleistungsbereichen, die gesellschaftliche Relevanz aufweisen oder sogar kritische Infrastruktur darstellen. Ist ein digitaler Dienst, den ein Unternehmen anbietet, einerseits durch seine monopolartige Durchdringung im Markt und andererseits die Art der Dienstleistung von gesamtgesellschaftlicher Relevanz, entsteht die Notwendigkeit, den Konzern entweder zu verstaatlichen oder zu zerschlagen und den entsprechenden Dienstleistungsbereich zu regulieren. Umso mehr gilt das selbstverständlich für Unternehmen, die gleich in mehreren Dienstleistungsbereichen mit ihren Diensten eine solche marktbeherrschende Stellung in gesellschaftlich relevanten Bereichen aufweisen, wie das derzeit für viele Big Tech Unternehmen der Fall ist. Sind in einem Dienstleistungsbereich zwar ausreichend viele Unternehmen am Markt aktiv, aber dieser Bereich ist dennoch von hoher gesellschaftlicher Relevanz, soll eine starke Regulierung im Sinne einer klassisch-jungsozialistischen Wirtschaftspolitik erfolgen.

Schließlich bieten das Web und die Digitalisierung trotz der derzeit dystopischen Entwicklungen auch in besonders hohem Maß Chancen für demokratisch-sozialistische Ansätze des Lebens und Wirtschaftens. Anders als bei physischen Dienstleistungen kann mit geringen Steigerungen des Material- und Ressourceneinsatzes eine potentiell unbeschränkte und globale Verteilung von Dienstleistungen, sog. “Skalierung” erreicht werden.

  • Aktuelle Regulierung durch die EU

Der bereits 2022 in Kraft getretene Digital Markets Act (DMA) und der 2023 in Kraft getretene Digital Services Act (DSA) zielen als Regulierungspaket der EU darauf ab, marktbeherrschende Tech-Konzerne und deren einzelne Service-Unternehmen stärker zu regulieren, da sie einerseits Grundrechte von Bürger*innen systematisch gefährden und andererseits als private Unternehmen die Macht besitzen, in quasi-staatlicher Funktion Regeln in der digitalen Welt einzuführen und durchzusetzen.

Im Rahmen des Digital Markets Act (DMA) hat die EU-Kommission auch im September 2023 konkret sechs Gatekeeper definiert: Alphabet, Amazon, Apple, Meta und Microsoft sowie ByteDance. Deren marktbeherrschende Stellung bezieht sich auf die Kerndiensleistungen Soziales Netzwerk, Vermittlung, Werbung, Browser, Betriebssystem, Video Sharing und Messenger. Die genannten Gatekeeper haben nun bis März 2024 Zeit, die im DMA vorgegebenen Normen zu erfüllen, wie z.B. Drittanbietern eine Interoperabilität mit ihren Services zu ermöglichen oder Zugang zu Datenbeständen zu gewähren.

Der Digital Services Act (DSA) wiederum zielt generell auf Online-Vermittlerdienste und Online-Plattformen, nicht nur auf die größten im Markt. Allerdings werden auch hier die großen Dienste mit monatlich mehr als 45 Millionen aktiven Nutzer*innen gesondert behandelt und müssen unter anderem früher die Regulierung umsetzen. Bei diesen großen Diensten handelt es sich derzeit um: Alibaba AliExpress, Amazon, Apple App Store, Booking.com, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIN, Pinterest, Snapchat, TikTok, X, Wikipedia, YouTube und Zalando sowie Google Search und Bing. Der DSA stärkt die Rechte von Nutzer*innen im Verhältnis zu diesen Dienstleister*innen und verlangt z.B. auch das Löschen von Hate Crime und diskriminierenden Inhalten.

Grundsätzlich halten wir die Absicht und auch die Vorgehensweise der EU mit dem aktuellen Regulierungspaket für richtig. Zum ersten Mal werden nun die großen und größten Tech-Unternehmen gesondert und ihrer Größe angemessen reguliert. Es bleiben jedoch noch einige offene Baustellen. Insbesondere ist zu bezweifeln, ob die Maßnahmen ausreichen, um die Monopolstellung von Großkonzernen nachhaltig einzudämmen. Auch stellt sich die Frage nach der Kontrolle der Verpflichtungen, die sich aktuell noch als schwierig und unübersichtlich gestaltet.

  • Plattformsozialismus statt Big Tech

Wir fordern je nach Bereich entweder die Verstaatlichung von Big-Tech-Unternehmen oder die Zerschlagung bei gleichzeitiger Regulierung des nach der Zerschlagung entstehenden Marktsegments. Hierdurch wollen wir aber nicht nur destruktiv die Marktmacht der Konzerne bremsen, sondern konstruktiv auf die sozialistische Gesellschaft der Freien und Gleichen hinarbeiten, die Ziel aller jungsozialisitschen Politik ist.

Neben den weiter oben genannten physischen Netzen bedeutet digitale Grundversorgung für uns auch, dass es eine Grundversorgung an Software geben muss, die wir als kritische Infrastruktur und Teil der Daseinsvorsorge begreifen. Und gerade hier zeigt sich der Konflikt unserer Vorstellung mit Big Tech am deutlichsten. Hier kann auf der Vorarbeit der EU mit der Einführung des DMA und DSA und der damit verbundenen Verwaltungs- und Kontrollstruktur aufgebaut werden. Alle im DMA-DSA-Paket als von Big Tech dominiert identifizierten Bereiche sehen auch wir Jusos als kritisch an. Über diese von der EU identifizierten Bereiche hinaus stellen wir starke Konzentrationen bei Big Tech in folgenden Bereichen fest: Bei Office-Anwendungen, bei der Identifikationsinfrastruktur für Personen sowie beim Hosting (Cloud-Services).

Eindeutig eine staatliche Aufgabe ist für uns eine offene, zugängliche Infrastruktur zur sicheren Identifikation im Web. Der ePerso ist bereits ein Schritt in diese Richtung, jedoch ist er für Dritte nicht besonders gut zugänglich, da die Bundesdruckerei hier die Rolle eines unter Wirtschaftlichkeitszwang stehenden Gatekeepers einnimmt. Es muss für jede*n einfach möglich sein, rechtssicher mit einer digitalen Identität zu unterschreiben / signieren und zu verschlüsseln.

In anderen Bereichen fällt es teilweise schwerer zu entscheiden, ob ein von Big Tech dominierter Marktbereich verstaatlicht oder zerschlagen werden soll. Verstaatlichung verbietet sich überall dort, wo ein zu starker Eingriff des Staates in die Grundrechte der Bürger*innen zu befürchten ist. Letztlich scheiden nach diesen beiden Kriterien die Bereiche Soziale Netzwerke, Video-Sharing, Suche, Betriebssysteme, Werbung sowie Browser allesamt für eine Verstaatlichung aus.

Der Bereich der Intermediäre umfasst zum einen Kartendienste und insbesondere Google Maps. Hier ist eine Form von “softer Verstaatlichung” denkbar, bei der eine öffentlich-rechtliche Plattform auf EU-Ebene für Karten und Navigationsdienstleistungen eigenständig aufgebaut wird. Öffentlich-rechtlich soll hier explizit staatsfern bedeuten, da die Nutzer*innenanfragen, ihre Standorte und Navigationsrouten sensible personenbezogene Daten darstellen, die nicht für staatliche Akteur*innen einsehbar sein sollten. Google Maps dürfte weiterhin parallel zu dieser neuen öffentlich-rechtlichen Plattform auf EU-Gebiet seine Dienste betreiben, sofern diese mittelfristig durch die öffentlich-rechtliche Konkurrenz signifikant an Marktanteilen verliert und somit die Quasi-Monopolstellung verliert. Öffentlichen Stellen und insbesondere öffentlichen Verkehrsunternehmen soll es gleichzeitig verboten werden, Google Maps und anderen gewinnorientierten Unternehmen ihre Daten zur Verfügung zu stellen. Ohne die Einbindung von z.B. ÖPNV-Daten wird die Relevanz von Google Maps für Nutzer*innen stark sinken.

Als Intermediäre werden nach der Definition des DMA zudem Verkaufsplattformen bezeichnet. Im mobilen Software-Markt haben hier Apple Store und Play Store eine monopolartige Stellung. Bei klassischen Desktopanwendungen ist eher der Direktvertrieb der Anbieter zu beobachten, wobei dieser Bereich durch die Verwendung von Web Apps sehr stark an Bedeutung verloren hat. Im Games-Bereich wiederum gibt es ein Oligopol einer Hand voll Stores, die die Spiele der größeren Games-Entwickler vertreiben, insbesondere Steam, EA-App und Ubisoft Connect. In allen diesen Bereichen ist häufig ein Lock-In-Effekt zu verzeichnen, bei dem man Softwareprodukte, die man bei einem Händler gekauft hat, auch nur aus dessen Bibliothek heraus starten oder aktualisieren kann. Wir fordern die Pflicht, digitale Softwareprodukte interoperabel zu machen. Hersteller und Marktplätze für Software sollen verpflichtet werden, einmal erworbene Software unabhängig vom Vertriebskanal auf jedem anderen Marktplatz oder direkt beim Hersteller neu herunterladen und updaten zu können. Der Marktplatz wäre somit lediglich ein optionaler Vertriebskanal für Software, aber es entstünde keine dauerhafte Abhängigkeit mehr.

Auch bei Office-Anwendungen braucht es aus unserer Sicht kein Vertriebsverbot für die Produkte von Microsoft und Google in der EU, um den Zweck zu erreichen. Vielmehr erwarten wir vom Staat, dass er alternative Open Source-Office-Produkte aktiv fördert, indem er in die Entwicklung investiert und diese selbst verwendet. Durch ein solches Vorgehen kann erreicht werden, dass Open Source-Alternativen gut funktionieren und über eine barrierearme Dokumentation verfügen. Das führt langfristig dazu, dass die Nutzung dieser Produkte attraktiver wird und langfristig private Monopole ablösen kann

Im Bereich der Werbung liegt die Gefahr für die Gesellschaft zum einen in der enormen Machtkonzentration bei wenigen Playern, wie sie auch im Digital Markets Act der EU beschrieben wird. Andererseits geht aber auch ganz grundsätzlich, unabhängig von der Größe der Firmen, eine gesamtgesellschaftliche Gefahr von personenbezogener Werbung aus. Bereits in der Vergangenheit forderten wir als Jusos eine starke Einschränkung personenbezogener Werbung. Der Digital Services Act der EU geht einen ähnlichen Weg, und beschneidet die Möglichkeiten zum Ausspielen von Targeted Ads. Wir schließen uns der Forderung von Datenschutz-Aktivist*innen, zivilgesellschaftlicher Organisationen und linker Kräfte im EU-Parlament an und fordern ein generelles Verbot personenbezogener Werbung. Eine separate Zerschlagung der Ad-Services von Google, Meta und Amazon wird dadurch obsolet.

In allen anderen von Big Tech dominierten Bereichen kommt keine Verstaatlichung, sondern nur eine Zerschlagung und anschließende Regulierung in Frage. Alle von der EU im DMA als Gatekeeper definierten Big Tech Unternehmen haben ihren Hauptsitz in den USA oder in China. Ein natürlicher Ansatzpunkt für die Zerschlagung ist es daher, alle Sub-Unternehmen der Gatekeeper-Konzerne mit Sitz in der EU aus den jeweiligen Konzernen auszulösen und den Konzernteilen mit Sitz außerhalb der EU das Anbieten der Dienstleistungen gegenüber Bürger*innen mit Sitz in der EU verbieten. Letztlich wird dies seitens der Konzerne in vielen Fällen zu einer Abwicklung der europäischen Gesellschaften führen. Häufig sind diese Gesellschaften heute auch defizitär, beschränken sich auf Beratungsleistungen und stellen selbst keine Service-Endpoints zu den Kund*innen bereit. Im Ergebnis wäre dann der bekannte Dienst in der EU zunächst nicht verfügbar. Dies stellt allerdings kein Problem dar, da schnell andere Anbieter die Lücke schließen werden, um den von Big Tech als hochprofitabel erwiesenen Marktbereich für sich zu erschließen. Bei den Sozialen Netzwerken Facebook, Instagram, TikTok und LinkedIn sowie dem Messenger WhatsApp muss die bestehende Pflicht für die Anbieter aus der DSGVO besser durchgesetzt werden, den gesamten Verlauf an Aktivitäten sowie insbesondere ihr Kontaktnetzwerk (“Social Graph”) in standardisierter und technisch geeigneter Form auf Wunsch an die jeweiligen Nutzer*innen herauszugeben, sodass diese bei ihren nächsten Sozialen Netzwerken und Messengern direkt mit ihren gesammelten Kontakten und Chatverläufen beginnen können.

Wir fordern also zusammenfassend:

  • Die Verstaatlichung oder Zerschlagung großer Tech-Unternehmen, abhängig von dem Bereich, in dem sie eine marktbeherrschende Stellung einnehmen.
  • Ein generelles Verbot personenbezogener Werbung.
  • Eine Regulierung des durch Zerschlagung dezentralisierten Digitalmarkts.

 

  • Offene und demokratische Ausgestaltung des staatlichen und nicht-kommerziellen Plattformökosystems

Die oben skizzierte staatliche Grundversorgung mit Software soll für uns mit der Veröffentlichung aller produzierter Software als Open Source mit einer sog. “Copyleft-Lizenz” sichergestellt werden. Diese besondere Form der Open Source-Lizenz sorgt dafür, dass Veränderungen, Verbesserungen oder ganze Projekte, die auf dem Code aufbauen nicht “abgeschlossen” und damit privatisiert werden dürfen, sondern auch wieder als Open Source-Software der Gesellschaft zur Verfügung gestellt werden müssen. Staatliche Softwareentwicklung und staatlich geförderte Software-Entwicklung sowie staatliche Daten müssen der Logik "public money, public code" folgen. Das heißt, dass Software und Daten, die mit öffentlichen Geldern entwickelt werden, öffentliches Eigentum werden. 

Der Staat kann wählen, ob er selbst Entwickler*innen anstellt oder bestehende Projektformen fördert und ausfinanziert. Die Jusos begrüßen dabei Vereine und Softwaregenossenschaften, da sie den Gedanken der demokratischen Organisation aufgreifen. In Fällen, in denen wir eine öffentlich-rechtliche Organisationsstruktur fördern, muss diese staats- und privatfern ausgestaltet sein. Insbesondere muss sie durch Beiträge und nicht aus Steuern oder privatwirtschaftlichen Einnahmen finanziert werden.

Eigene staatliche Betätigung im Bereich der Softwareentwicklung ist nur dort akzeptabel, wo mittelfristig ausreichend eigenes Know-How aufgebaut wird. Die Verschwendung von finanziellen Mitteln für umfassende Beratungstätigkeiten bereits bei Ausschreibungen („Beratungstreppe“) ist nicht weiter hinnehmbar. Zudem muss ein starker Fokus auf der Nutzer*innenorientierung liegen. Neben dem Aufbau von Fähigkeiten im Bereich der UI/UX-Entwicklung fordern wir hierfür die Einführung von User*innen-Plattformräten, die die Interessen der User*innen angemessen vertreten können. Auch digitale Barrierefreiheit muss in der staatlichen Softwareentwicklung ein wesentlicher Baustein sein. Das beinhaltet nicht nur den Text (Leichte Sprache), sondern auch die Darstellung (Kontrast), sowie die logischen und technischen Navigationsmöglichkeiten durch die Prozesse.

Neben dem Anbieten von Software der digitalen Grundversorgung mit direktem Nutzen, müssen auch unbekannte, aber stark verbreitete Software-Basis-Komponenten in den Blick genommen werden. Diese Komponenten bilden teils kritische Infrastruktur, werden aber nur von sehr wenigen, teilweise nur einzelnen Menschen weiterentwickelt und gewartet. Durch staatliche Förderung muss sichergestellt werden, dass diese Komponenten weiterhin sicher und auf dem technisch neuesten Stand bleiben. Auch die systematische Überprüfung von Sicherheitsstandards in diesen Softwarekomponenten sollte staatlich finanziert werden.

Wir fordern also:

  • die Veröffentlichung staatlicher und staatlich geförderter Software als Open Source mit “Copyleft” Lizenz.
  • ein Ende der Abhängigkeit von Berater*innen in der öffentlichen Softwareentwicklung.
  • die Einhaltung hoher Qualitätsstandards für Software bei Nutzer*innenorientierung und Barrierefreiheit.

Regulierung von Künstlicher Intelligenz

Die Weiterentwicklung und der verantwortungsvolle Einsatz von KI und maschinellem Lernen ist eine der drängendsten Herausforderungen unserer Zeit. Künstliche Intelligenz (KI) ist zu einem zentralen und hochaktuellen Feld der sozio-technischen Entwicklung in Forschungseinrichtungen und Unternehmen auf der ganzen Welt geworden. Es werden kontinuierlich Fortschritte erzielt, die unser Verständnis „intelligenter“ Systeme und ihrer Anwendungsmöglichkeiten erweitern. Der Einsatz von KI wirft insbesondere in den Bereichen wichtige Fragen auf, in denen mit sensiblen Daten umgegangen wird. Deshalb ist die Anwendung von KI unter anderem in Bezug auf Ethik, Datenschutz und ihrer Auswirkungen auf den Arbeitsmarkt hinreichend zu überprüfen.

Dabei ist längst bekannt, dass der Einsatz von KI-Systemen häufig zu Diskriminierungen führt. Dafür gibt es mehrere Gründe. Zum einen werden KI-Modelle mit Trainingsdaten entwickelt, die oft Vorurteile und Ungleichheiten unserer Gesellschaft widerspiegeln. Diese Vorurteile werden dann von den Modellen übernommen und in ihren „Entscheidungen“ wiedergegeben. Wir beobachten auch die Entwicklung von „Deepfakes“ mit großer Sorge. Wenn mittels KI erstellte, täuschend echt aussehende Bilder und Videos kursieren, stellt dies eine Bedrohung für den freien und offenen demokratischen Diskurs dar. Oftmals lässt sich kaum erkennen, ob es sich um verfälschte Bilder handelt. Diese manipulierten Wahrnehmungen der Wirklichkeit untergraben das öffentliche Vertrauen.

Die gesamten Entwicklungen rund um KI stellen zudem die Funktionsweise des Staates auf die Probe. Die KI-Anwendungen werden meist privatwirtschaftlich entwickelt. Für diese entwickelnden Tech-Konzerne stellt die Entwicklung der KI ein Geschäftsgeheimnis dar. Daher weigern sie sich die Daten offenzulegen, die für die Entwicklung der KI herangezogen worden sind. Somit kann die Grundlage, auf der die Ergebnisse möglicher KI-Anwendungen beruhen, nicht hinreichend geprüft werden. Dadurch wird auch eine Kontrolle dessen verhindert, inwiefern sich Diskriminierungsformen und Machtstrukturen widerspiegeln und sich durch ihre Anwendung manifestieren. Dies ist besonders problematisch in Fällen, bei denen KI staatliche Entscheidungen, wie die Bewilligung oder Ablehnung von Anträgen, übernehmen soll. Wenn staatliche Entscheidungen an KI-Anwendungen ausgelagert werden, gehen also damit grundsätzliche Probleme in Bezug auf die Rechenschaftspflicht und Transparenz staatlichen Handelns einher.

Menschen müssen Verantwortung für KI-Entscheidungen übernehmen. Denn KI-Entscheidungen werden nicht objektiv und unabhängig vom Menschen gemacht. KI kann und soll im aktuellen Entwicklungsstandard die menschliche Entscheidungsfindung nicht komplett ersetzen. Denn die Anwendung von KI sorgt nicht für objektive Entscheidungen, solange sie von Menschen in diskriminierenden, gesellschaftlichen Systemen erstellt werden. Bevor es zu einer umfassenden Anwendung von KI kommen kann, müssen Vorurteile in den Daten minimiert, ethische Grundsätze in den Entwicklungsprozess integriert und Transparenz und Rechenschaftspflicht gefördert werden.

Für uns sind in der Entwicklung und Anwendung von KI wichtige Aspekte:

  • Transparenz: Wir fordern, dass KI-generierte Inhalte sowie die Nutzung von KI gegenüber allen Nutzer*innen kenntlich gemacht werden und eine vollständige Erklärung der verwendeten Methoden der Entwickler*innen erfolgt. Diese muss verpflichtend offengelegt werden. Gleiches gilt auch für die Quellcodes der KI.
  • Aufklärungspflichten: Diese zwingende Offenlegung muss einhergehen mit einer grundsätzlichen Aufklärungspflicht in Bezug auf angewandte digitale Technologien. Die Erklärungen müssen leicht verständlich und für alle Nutzer*innen nachvollziehbar sein.
  • Zertifizierung: Auch fordern wir, dass KIs zertifiziert werden. Hierzu ist eine KI-Norm zu entwickeln, die sich auf die Zertifizierung und Anwendbarkeit der KI bezieht. Diese Zertifizierung muss anwendungsspezifisch sein.
  • Standards: Zudem sind statistische Kriterien (z.B. im Hinblick auf die Repräsentativität) zu definieren und offenzulegen, die eine Aussagekraft über die zugrundeliegenden Daten für die Gesellschaft bieten können.
  • Datenschutz und Privatsphäre: Eine DSGVO-konforme Nutzung wird vorausgesetzt. Es ist vor der Verwendung von personenbezogenen Daten in einer KI die Einwilligung der betroffenen Person einzuholen. Werden personenbezogenen Daten mit einer KI ausgewertet oder von einer KI verwendet, sind diese Informationen den Nutzer*innen bekannt zu machen.
  • Meldestellen: Die Einhaltung der gestellten Anforderungen muss überprüfbar sein. Es muss eine Meldestelle eingerichtet werden, um auf die Nichteinhaltung hinweisen zu können.
  • Mitbestimmung: Betriebs- und Personalräte sind eng in die Entscheidung über den Einsatz von KI einzubinden. Die Arbeitserleichterung durch KI muss sich auch positiv auf die Beschäftigten auswirken und darf nicht zu einer ständigen Nachverdichtung von Arbeit führen.

Trotz dieser hohen Standards sind Bereiche zu definieren, in denen die Anwendung von KI ausgeschlossen ist. In diesem Zusammenhang begrüßen wir den im aktuellen Entwurf der EU zur KI-Verordnung vorgenommenen, risikobasierten Ansatz. Die vorgeschlagene Regulierung geht uns jedoch nicht weit genug. Wir fordern ein weitreichendes KI-Anwendungsverbot in wichtigen Lebensbereichen wie im gesamten Gesundheitsbereich sowie bei gerichtlicher Entscheidungsfindung. Außerdem darf KI bei Behördenentscheidungen im Bereich Asyl- und Migration sowie im militärischen Kontext nicht zum Einsatz kommen. Denn KI-generierte Entscheidungen können zwar nachträglich durch einen Menschen kontrolliert werden. Die KI-Entscheidung bringt jedoch oftmals einen Bias mit sich. So tendieren Menschen öfter dazu, der vorhergehenden KI-Entscheidung zu folgen.

Für uns ist darüber hinaus klar, dass staatliche Entscheidungen nicht an privatwirtschaftliche Programme ausgelagert werden dürfen. Daher gelten die oben genannten Pflichten insbesondere bei der Anwendung von KI bei staatlichem Handeln. Gleichzeitig hat ein Rechtsanspruch zu bestehen, dass alle Entscheidungen, die von einer KI getroffen wurden, erneut von einem Menschen geprüft werden. In Fällen, in denen eine KI eine Ermessensentscheidung oder Prognose trifft, muss diese grundsätzlich durch einen Menschen überprüft werden, da die Grundlage für diese Entscheidung sonst nicht hinreichend geprüft werden kann.

  • Keine Überwachung durch die EU-Chatkontrolle!

Die Chatkontrolle soll zukünftig Behörden dabei unterstützen, die Verbreitung von Missbrauchsdarstellungen von Kindern zu verhindern und Kinder und Jugendliche vor Cybergrooming zu schützen. Nach der entsprechenden Verordnung sollen Anbieter*innen von Messengerdiensten bis zu E-Mail-Providern verpflichtet werden, Fotos, Videos und andere Inhalte, die Nutzer*innen verschicken oder hochladen, automatisch auf Darstellungen von Kindesmissbrauch zu durchsuchen und mögliche strafbare Fälle an die Ermittlungsbehörden zu melden. Außerdem soll Cybergrooming entdeckt werden, also Textnachrichten, die von Erwachsenen formuliert werden, um sich Kindern in Chats mit sexuellen Absichten zu nähern. Eine Ausnahme soll es für Kommunikationsdienste, die eine Ende-zu-Ende-Verschlüsselung ermöglichen, nicht geben. Das heißt, jede Kommunikation im Digitalen kann nach dem Entwurf durchleuchtet werden.

Ob die vorgeschlagene Chatkontrolle zur Eindämmung der Verbreitung von Missbrauchsdarstellungen überhaupt geeignet ist, ist auch nach Auswertung durch den Wissenschaftlichen Dienst des Europäischen Parlaments und durch Kinderschutzorganisationen mehr als zweifelhaft. Der Wissenschaftliche Dienst stellte fest, dass die Gesamtwirksamkeit der vorgeschlagenen Regelung begrenzt sein dürfte. Denn es mangelt den Ermittlungsbehörden nicht an Hinweisen auf Aufzeichnungen von sexualisierter Gewalt gegenüber Minderjährigen. Allein auf das Sammeln und Melden von solchen Inhalten zielt jedoch die Verordnung ab. Dabei ist anzumerken, dass die verschlüsselte Kommunikation bereits jetzt kaum eine Rolle in der Verbreitung von Missbrauchsdarstellungen spielt.

Während der positive Effekt der Chatkontrolle nicht belegt ist, wäre ihr Eingriff in die Grundrechte der Betroffenen massiv. Es handelt sich um ein Instrument der anlasslosen Massenüberwachung. Insbesondere bei Ende-zu-Ende-verschlüsselter Kommunikation ist das höchst problematisch. Wird eine Technologie entwickelt, die Verschlüsselung umgeht oder entschlüsselt, wird ein wichtiger Schutzmechanismus für die Nutzer*innen ausgehebelt. Dadurch können gefährdete oder marginalisierte Gruppen nicht mehr sicher kommunizieren oder Whistleblower*innen sich nicht mehr geschützt äußern.

Wir lehnen entschieden ab, dass der Staat selbst „unechte“ Missbrauchsdarstellungen mittels KI generiert und verbreitet. Im Bereich der Strafverfolgung debattiert, ob KI-generierte Bilder im Rahmen sog. "Honey Pot"-Operationen genutzt werden dürfen, um Zugang zu einschlägigen Foren zu erhalten. Dazu würden beschlagnahmte Datensätze zur Generierung ähnlicher, wenn auch "künstlicher" Missbrauchsdarstellungen verarbeitet. Für uns ist jedoch klar, dass insbesondere staatliche Akteur*innen dem verantwortungsvollen Umgang mit KI unterworfen sein müssen. Ein solches Vorgehen lehnen wir entschieden ab.

Der Staat hat die Pflicht, die zur Strafverfolgung gesammelten Daten und die darauf abgebildeten Personen zu schützen. Eine Verarbeitung durch KI sowie die Bildgenerierung aufgrund dieser Daten sehen wir als unvertretbaren Vertrauensbruch. Aufgrund dessen, dass KI-Systeme zur Generierung von Inhalten angelernt und mit vergleichbaren Inhalten „gefüttert“ werden müssen, können Gewaltdarstellungen auch dann, wenn sie KI-generiert sind, niemals gewaltfrei entstehen. Die staatliche Schutzpflicht gegenüber Opfern gilt auch in Bezug auf die Verwendung verbotener Schriften, welche durch private Akteur*innen zum Zwecke der KI-Anlernung genutzt werden. Die strafbewehrte Verbreitung von Inhalten darf nicht durch eine Flucht in KI-generierte Inhalte umgangen werden.

Statt einer wahllosen Kontrolle aller Kommunikationsmedien bedarf es einer besseren Aufklärung und gesamtgesellschaftlichen Sensibilisierung in Bezug auf die Belästigung von Kindern im digitalen Raum. Erwachsene, insbesondere Lehr- und Erziehungspersonal müssen geschult und sensibilisiert werden, sodass mögliche Betroffene schnell erkannt werden und Unterstützung erhalten. Nicht zuletzt deshalb erachten wir auch den Ausbau des Therapiesektors für unerlässlich. Auch in den Jugendämtern ist mehr Fachpersonal und eine bessere Ausstattung vonnöten. Statt einer Chatkontrolle machen wir uns außerdem für die konzentrierte Zerschlagung von Foren stark, in denen Missbrauchsdarstellungen von Kindern geteilt werden.

Für eine wirksame Bekämpfung der Missbrauchsdarstellungen im Netz sind Justizschnittstellen zu schaffen, die in die Dienste von Dritten (beispielsweise Messenger-Apps) eingebunden werden können. Über diese Schnittstellen können strafrechtlich relevante Inhalte mit wenigen Klicks von den Nutzer*innen selbst an Strafverfolgungsbehörden gemeldet werden. Auf diesem Weg können einfache, niedrigschwellige Meldeverfahren eingeführt werden, die auch vor Cybergrooming schützen. Den meldenden Personen sollten dabei auch Hilfsangebote angezeigt werden, auf die sie zurückgreifen können.