FSC Europa lanciert Petition an die Europäische Union

FSC Europe Change

Der frisch gegründete Europa-Ableger der Free Speech Coaltion, FSC Europe, hat seine Arbeit aufgenommen. Als einen ersten Vorstoß wurde eine Petition an die EU-Kommission gerichtet, die Rechte von Sexarbeitern, Künstlern und Aufklärungsexperten in der EU im neuen Digitalgesetz zu stärken.

Seit vielen Jahren setzt sich die Free Speech Coalition in den USA für die Rechte von Mitgliedern der Erotik- und Sexbranche ein. Mit teils medienwirksamen Aufrufen und Kampagnen hat sich der Verband so zu einem Sprachrohr für meist marginalisierte und diskriminierte Selbständige der Erotik- und Sexwelt etabliert. Seit kurzem ist auch eine Niederlassung in Europa aktiv.

Nun veröffentlichte die europäische FSC eine erste Petition und richtet sich direkt an die EU. Hier das Statement im Wortlaut:

Während die Europäische Union sich darauf vorbereitet, ein neues Regelwerk für digitale Dienstleistungsplattformen einzuführen und die Online-Rechte der Nutzer zu schützen, fordert die Free Speech Coalition, dass Sexarbeiter und Sexualwissenschaftler, Künstler und Pädagogen nicht länger ausgeschlossen oder diskriminiert werden. Die Organisation schlägt 10 Schritte zu einem sichereren digitalen Raum vor, der die Rechte derjenigen schützt, die im Bereich der Sexualität arbeiten – die ohnehin schon zu den am stärksten marginalisierten Menschen der Gesellschaft gehören – und um Transparenz von den Plattformen zu fordern, die, wie die Europäische Kommission selbst sagt, »zu einem festen Bestandteil unseres täglichen Lebens, unserer Wirtschaft, unserer Gesellschaften und unserer Demokratien geworden sind«.

Sexuelle Ausdrucksformen werden online unterbunden

Sex in fast all seinen Erscheinungsformen wird im öffentlichen Online-Bereich und in den sozialen Medien unterdrückt wie nie zuvor. Accounts, die sich mit Sexualität befassen – angefangen bei Fachleuten aus dem Bereich der Sexualität, erwachsenen Darstellern und Sexarbeitern bis hin zu Künstlern, Aktivisten und LGBTIQ-Personen, Publikationen und Organisationen – werden ohne Vorwarnung oder Erklärung und mit wenig Regulierung von privaten Unternehmen gelöscht, die derzeit in der Lage sind, diskriminierende Änderungen ihrer Geschäftsbedingungen ohne Erklärung oder Rechenschaftspflicht gegenüber den von diesen Änderungen Betroffenen durchzusetzen. Darüber hinaus ist es in vielen Fällen für die Nutzer unmöglich, ihre Konten wiederherzustellen – Konten, die oft lebenswichtig für die Fähigkeit der Nutzer sind, Einkommen zu erzielen, sich zu vernetzen, zu organisieren und Informationen auszutauschen.

Das Gesetz zu Digitalen Diensten

Zur gleichen Zeit, in der sexuelle Äußerungen aus dem digitalen Raum gelöscht werden, werden in der Europäischen Union neue Gesetze verabschiedet, um die Online-Rechte der Internetnutzer zu schützen. Der Digital Services Act (DSA) und der Digital Markets Act der Europäischen Kommission umfassen verbesserte Regeln für digitale Dienstleistungen, die sich zum Teil darauf konzentrieren, einen sichereren und offeneren digitalen Raum zu schaffen. Diese Regeln werden für Online-Vermittlungsdienste gelten, die täglich von Millionen von Menschen genutzt werden, einschließlich großer Plattformen wie Facebook, Instagram und Twitter. Sie setzen sich unter anderem für eine größere Transparenz der Plattformen, einen besseren Schutz der Verbraucher und die Stärkung der Nutzer ein.

Mit dem Versprechen der DSA, »Europas digitale Zukunft zu gestalten« und »einen sichereren digitalen Raum zu schaffen, in dem die Grundrechte aller Nutzer digitaler Dienste geschützt sind«, ist es an der Zeit zu fordern, dass dies eine Zukunft sein muss, die diejenigen einschließt, die im Bereich der Sexualität arbeiten, Inhalte erschaffen, organisieren und aufklären. Während wir darüber nachdenken, wie ein sicherer digitaler Raum aussehen kann und sollte, ist es auch an der Zeit, die allgegenwärtige und offen gesagt puritanische Vorstellung zu hinterfragen, dass Sexualität – ein normaler und gesunder Teil unseres Lebens – irgendwie schädlich, beschämend oder hasserfüllt ist.

Wie DSA richtig ausgestaltet werden kann

Der DSA setzt sich für »wirksame Schutzmaßnahmen für Nutzer ein, einschließlich der Möglichkeit, die Entscheidungen der Plattformen zur Moderation von Inhalten anzufechten«. Darüber hinaus fordert die Free Speech Coalition Europe Folgendes:

  • Plattformen müssen Antidiskriminierungsrichtlinien einführen und ihre Content-Moderatoren so schulen, dass Diskriminierung aufgrund von Geschlecht, sexueller Orientierung, Rasse oder Beruf vermieden wird – dieselben Community-Richtlinien müssen für einen A-Promi oder einen Mainstream-Medienvertreter gelten wie für einen Stripper oder ein queeres Künstler-Kollektiv;
  • Plattformen müssen dem Nutzer den Grund nennen, wenn ein Beitrag gelöscht oder ein Account eingeschränkt oder gelöscht wird. Shadowbanning ist ein hinterhältiges Mittel, um Stimmen von Nutzern zu unterdrücken. Nutzer sollten das Recht haben, informiert zu werden, wenn sie gebannt werden, und die Entscheidung anzufechten;
  • Plattformen müssen es dem Nutzer ermöglichen, eine Revision der Entscheidung einer Inhaltsmoderation anzufordern; Plattformen müssen sicherstellen, dass Moderationsmaßnahmen am Standort des Nutzers stattfinden und nicht an beliebigen Gerichtsbarkeiten, die möglicherweise andere Gesetze oder Gepflogenheiten haben; z. B. kann ein Nutzer in Deutschland nicht durch Meldungen & Moderation im Nahen Osten gesperrt werden, sondern muss vom europäischen Moderationsteam überprüft werden;
  • Die Entscheidungsfindung über Meldungen von gemeldeten Inhalten gemäß Artikel 14 DSA sollte nicht von automatisierter Software übernommen werden, da diese erwiesenermaßen wahllos Inhalte löschen. Ein Mensch sollte die endgültige Entscheidung treffen. Die Meldung von Inhalten gemäß Artikel 14.2 DSA sollte eine Plattform nicht unmittelbar für die Inhalte gemäß Artikel 14.3 haftbar machen, da eine solche Haftung Plattformen dazu verleiten wird, nach der Meldung wahllos zu löschen, um eine solche Haftung zu vermeiden, was es organisierten Hassgruppen ermöglicht, massenhaft Nutzer zu melden und auszuschalten;
  • Plattformen müssen eine Abteilung (oder zumindest eine eigene Kontaktperson) innerhalb des Unternehmens für Beschwerden über Diskriminierung oder Zensur vorsehen;
  • Plattformen müssen die Möglichkeit bieten, anzugeben, ob man über 18 Jahre alt ist, und Erwachsenen die Möglichkeit geben, ihre Profile und Inhalte vor Kindern zu verbergen (z. B. Profile als 18+ markieren); Plattformen müssen die Möglichkeit bieten, bestimmte Inhalte als »sensibel« zu markieren;
  • Plattformen dürfen die Funktionen, die denjenigen zur Verfügung stehen, die sich selbst als erwachsen oder erwachsenengerecht kennzeichnen (d. h. diejenigen, die ihre Profile als 18+ oder Inhalte als »sensibel« gekennzeichnet haben), nicht einschränken. Diese Profile sollten dann als 18+ oder »sensibel« erscheinen, wenn sie ohne Login oder ohne Altersangabe aufgerufen werden, aber nicht aus den Suchergebnissen ausgeschlossen werden oder als »nicht existent« erscheinen;
  • Plattformen müssen klare, konsistente und transparente Richtlinien darüber aufstellen, welche Inhalte akzeptabel sind; diese Richtlinien dürfen jedoch keinesfalls Nutzer, die sich auf nicht jugendfreie Themen konzentrieren, pauschal verbieten;
  • Beispielsweise könnte man sehr explizite Pornografie verbieten (z.B. Videos von Geschlechtsverkehr, die eine Penetration zeigen), aber es wäre immer noch möglich, ein bearbeitetes Video zu posten, das keine Penetration zeigt; Plattformen können Inhalte, die für ein erwachsenes Publikum bestimmt sind, nicht vollständig verbieten, es sei denn, eine Plattform ist speziell für Kinder oder >50% ihrer aktiven Nutzer sind Kinder.

Weitere Informationen zur FSC Europe finden Sie hier. Die Petition findet sich hier.

Kommentar hinterlassen

Please enter your comment!
Please enter your name here