Richtlinie und Prozess zur Eskalation von Missbrauchsmaterial

Wirksamkeitsdatum: 01. Januar 2025

Zuletzt aktualisiert: 07. Oktober 2025

Gilt für: Alle Nutzer, Ersteller, Partner, Moderatoren und Drittpartner

1. Zweck

Diese Richtlinie zur Eskalation von Missbrauchsmaterial ("Richtlinie") legt die Verfahren und Verantwortlichkeiten für die Identifizierung, Meldung, Untersuchung und Lösung von Vorfällen mit missbräuchlichen Inhalten auf SinParty ("Plattform") fest. Der Zweck dieser Richtlinie ist es sicherzustellen, dass alle Meldungen von missbräuchlichem Material umgehend, gesetzeskonform und in Übereinstimmung mit Branchenstandards und geltenden Vorschriften behandelt werden.

2. Definitionen

Für die Zwecke dieser Richtlinie:

Missbrauchsmaterial bezieht sich auf jegliche Inhalte, die gegen die Nutzungsbedingungen der Plattform, die Community-Richtlinien oder geltende Gesetze verstoßen, einschließlich, aber nicht beschränkt auf:

  • Nicht einvernehmliche sexuelle Inhalte
  • Kindesmissbrauchsmaterial (CSAM)
  • Rachepornos oder Missbrauch intimer Bilder
  • Inhalte, die Zwang, Ausbeutung oder Menschenhandel beinhalten
  • Darstellungen von physischem oder psychischem Missbrauch
  • Hassrede, Belästigung oder Gewaltandrohungen

Meldung bezieht sich auf eine formelle Einreichung durch einen Nutzer, Moderator, eine Strafverfolgungsbehörde oder eine Drittorganisation bezüglich vermuteten Missbrauchsmaterials.

Eskalation bezieht sich auf den Prozess der Weiterleitung einer Meldung an höhere Ebenen der Überprüfung, Durchsetzung oder rechtlichen Verweisung basierend auf Schweregrad und Risiko.

3. Meldekanäle

Meldungen von Missbrauchsmaterial können über die folgenden Kanäle eingereicht werden:

  • Nutzer-Meldewerkzeuge: Eingebettet in Inhaltsseiten und Nutzerprofile
  • Moderator-Flagging-System: Interne Werkzeuge, die von geschultem Personal verwendet werden
  • Drittanbieter-Einreichungen: NGOs, Aufsichtsbehörden oder Strafverfolgungsbehörden
  • Notfall-Hotline: Für dringende oder hochriskante Fälle (z.B. CSAM)

Alle Meldungen müssen ausreichende Details enthalten, um eine Untersuchung zu ermöglichen, einschließlich Inhalts-URLs, Nutzer-IDs, Zeitstempel und Art des vermuteten Missbrauchs.

4. Untersuchungsverfahren
4.1 Erstprüfung

Nach Erhalt einer Meldung wird das Trust & Safety-Team der Plattform:

  • Den Empfang innerhalb von 24 Stunden bestätigen
  • Eine vorläufige Überprüfung durchführen, um Gültigkeit und Schweregrad zu bewerten
  • Fälle priorisieren, die potenzielles CSAM, Menschenhandel oder unmittelbare Gefahr beinhalten
4.2 Inhaltstrias

Inhalte werden in eine der folgenden Kategorien eingestuft:

Klassifizierung Beschreibung Maßnahme
Kritisch CSAM, Menschenhandel, unmittelbare Gefahr Sofortige Entfernung, rechtliche Verweisung
Hohes Risiko Nicht einvernehmliche Inhalte, Ausbeutung Vorübergehende Entfernung, Eskalation zur höheren Überprüfung
Mittel Belästigung, Hassrede Inhaltswarnung, Benachrichtigung des Nutzers
Niedriges Risiko Falsche Kennzeichnung, grenzwertige Verstöße Aufklärung, Überwachung, keine Entfernung
4.3 Beweissicherung

Alle zur Untersuchung markierten Inhalte werden in einem sicheren Beweisarchiv für mindestens 90 Tage aufbewahrt. Metadaten, Nutzeraktivitätsprotokolle und Kommunikationsaufzeichnungen können für rechtliche oder Prüfungszwecke aufbewahrt werden.

5. Benachrichtigung der Nutzer

Nutzer, deren Inhalte markiert wurden, werden per E-Mail oder Dashboard-Benachrichtigung informiert. Die Benachrichtigungen enthalten:

  • Eine Zusammenfassung der Meldung
  • Die spezifische Richtlinie oder Regel, die verletzt wurde
  • Ergriffene Maßnahmen (z.B. Inhaltsentfernung, Kontosperrung)
  • Anweisungen für Einspruch oder Streitbeilegung

In Fällen, die Strafverfolgungsbehörden oder hochriskanten Missbrauch betreffen, können Benachrichtigungen zurückgehalten werden, um die Ermittlungen nicht zu beeinträchtigen.

6. Eskalationsprotokoll
6.1 Interne Eskalation

Fälle, die als kritisch oder hohes Risiko eingestuft werden, werden eskaliert an:

  • Senior Compliance-Beauftragte
  • Rechtsberatung für regulatorische Überprüfung
  • Externe Berater (z.B. Kinderschutzexperten, Trauma-Spezialisten)
6.2 Externe Verweisung

Die Plattform wird Fälle an geeignete externe Stellen verweisen, wenn dies gesetzlich vorgeschrieben oder als notwendig erachtet wird, einschließlich:

  • Nationale oder internationale Strafverfolgungsbehörden
  • CyberTipline oder gleichwertige Meldestellen
  • NGOs, die sich auf Missbrauchsprävention und Opferunterstützung spezialisiert haben

Alle Verweisungen werden dokumentiert und im Compliance-System der Plattform nachverfolgt.

7. Lösung und Durchsetzung

Nach der Untersuchung kann die Plattform eine oder mehrere der folgenden Maßnahmen ergreifen:

  • Dauerhafte Entfernung von missbräuchlichen Inhalten
  • Kontoaussetzung oder -kündigung
  • IP- und Geräteverbote
  • Verweisung an rechtliche Behörden
  • Benachrichtigung der betroffenen Nutzer oder Opfer
  • Updates zu Moderationsprotokollen oder Schulungen

Ergebnislösungen werden protokolliert und vierteljährlich zur Qualitätssicherung überprüft.

8. Einspruchsverfahren

Nutzer können gegen Durchsetzungsmaßnahmen Einspruch erheben, indem sie support@sinparty.com kontaktieren. Einsprüche müssen enthalten:

  • Eine klare Erklärung des Streits
  • Unterstützende Beweise oder Kontext
  • Anerkennung der Plattformregeln

Einsprüche werden innerhalb von zehn (10) Werktagen überprüft. Entscheidungen sind endgültig und bindend, es sei denn, es tauchen neue Beweise auf.

9. Richtlinienverwaltung

Diese Richtlinie wird von den Trust & Safety- und Rechtsteams der Plattform verwaltet. Alle Entscheidungen, die im Rahmen dieser Richtlinie getroffen werden, unterliegen internen Audits und können von externen Compliance-Beratern überprüft werden.

Die Plattform behält sich das Recht vor, diese Richtlinie jederzeit zu ändern. Wesentliche Änderungen werden den Nutzern per E-Mail oder öffentlicher Bekanntmachung mitgeteilt.

10. Rechtliche Einhaltung

Diese Richtlinie ist darauf ausgelegt, den folgenden Anforderungen zu entsprechen:

  • US-amerikanische Bundes- und Landesgesetze zur Regelung von CSAM und Online-Missbrauch
  • EU-Digital Services Act (DSA) und DSGVO
  • Branchenstandards, die von der Technology Coalition, INHOPE und anderen Organisationen festgelegt wurden

Die Plattform verfolgt eine Null-Toleranz-Politik gegenüber illegalen Inhalten und arbeitet vollständig mit Strafverfolgungsbehörden zusammen.