Europäische Union untersucht Soziale-Medien-Plattform X im Rahmen des Gesetzes über digitale Dienste
Die Europäische Union untersucht die Soziale-Medien-Plattform X aufgrund einer Reduzierung ihrer Inhaltsmoderation-Ressourcen um fast 20% und einer Einschränkung der Sprachabdeckung innerhalb der EU von 11 auf 7 Sprachen. Dies hat Bedenken hinsichtlich der Einhaltung des Gesetzes über digitale Dienste (Digital Services Act, DSA) in Bezug auf Inhaltsmoderation und Risikobewertungen für generative KI ausgelöst. Die Untersuchung folgt auf das förmliche Vertragsverletzungsverfahren der EU gegen X im Dezember 2023, das sich auf die Einhaltung der DSA-Vorschriften zur Bekämpfung von Desinformation und Hassrede konzentriert. Verstöße gegen den DSA könnten zu hohen Geldstrafen von bis zu 6% des weltweiten Jahresumsatzes des Unternehmens führen.
Wichtigste Erkenntnisse
- Die Europäische Union untersucht die Soziale-Medien-Plattform X im Rahmen des Gesetzes über digitale Dienste aufgrund von Reduzierungen bei den Inhaltsmoderation-Ressourcen.
- X hat sein Inhaltsmoderation-Team um fast 20% verkleinert und die Sprachabdeckung innerhalb der EU von 11 auf 7 Sprachen eingeschränkt.
- Die EU fordert von X weitere Informationen zu Risikobewertungen in Bezug auf den Einfluss generativer KI auf Wahlprozesse, die Verbreitung illegaler Inhalte und den Schutz von Grundrechten.
- X muss die angeforderten Informationen bis zum 17. Mai vorlegen, weitere Antworten sind bis zum 27. Mai fällig.
- Diese Untersuchung markiert einen wichtigen Schritt im förmlichen Verfahren gegen mutmaßliche Verstöße von X gegen den EU-Rechtsakt über digitale Dienste, wobei dem Unternehmen bei Nichteinhaltung Geldstrafen von bis zu 6% seines weltweiten Jahresumsatzes drohen.
Analyse
Die Untersuchung der Europäischen Union gegen die Soziale-Medien-Plattform X signalisiert eine strengere Haltung in Bezug auf die Einhaltung des Gesetzes über digitale Dienste, was andere Technologieunternehmen dazu veranlassen könnte, die Einhaltung von Vorschriften zur Vermeidung hoher Strafen prioritär zu behandeln. Die Prüfung könnte X auch dazu zwingen, seine Inhaltsmoderation-Strategie zu überarbeiten, was sich auf Nutzererfahrung und Vertrauen auswirken könnte. Langfristig könnte dies zu strengeren Vorschriften und einer stärkeren Durchsetzung über Soziale-Medien-Plattformen hinweg führen, was sich auf Aspekte wie Meinungsfreiheit, Datenschutz und digitale Innovation auswirken könnte. Die Ergebnisse dieser Untersuchung könnten den Ansatz anderer Länder und Regionen bei der Regulierung von Technologieriesen und KI prägen.