Richtlinie und Prozess zur Eskalation von Missbrauchsmaterial
Wirksamkeitsdatum: 01. Januar 2025
Zuletzt aktualisiert: 07. Oktober 2025
Gilt für: Alle Nutzer, Ersteller, Partner, Moderatoren und Drittpartner
1. Zweck
Diese Richtlinie zur Eskalation von Missbrauchsmaterial ("Richtlinie") legt die Verfahren und Verantwortlichkeiten für die Identifizierung, Meldung, Untersuchung und Lösung von Vorfällen mit missbräuchlichen Inhalten auf SinParty ("Plattform") fest. Der Zweck dieser Richtlinie ist es sicherzustellen, dass alle Meldungen von missbräuchlichem Material umgehend, gesetzeskonform und in Übereinstimmung mit Branchenstandards und geltenden Vorschriften behandelt werden.
2. Definitionen
Für die Zwecke dieser Richtlinie:
Missbrauchsmaterial bezieht sich auf jegliche Inhalte, die gegen die Nutzungsbedingungen der Plattform, die Community-Richtlinien oder geltende Gesetze verstoßen, einschließlich, aber nicht beschränkt auf:
- Nicht einvernehmliche sexuelle Inhalte
- Kindesmissbrauchsmaterial (CSAM)
- Rachepornos oder Missbrauch intimer Bilder
- Inhalte, die Zwang, Ausbeutung oder Menschenhandel beinhalten
- Darstellungen von physischem oder psychischem Missbrauch
- Hassrede, Belästigung oder Gewaltandrohungen
Meldung bezieht sich auf eine formelle Einreichung durch einen Nutzer, Moderator, eine Strafverfolgungsbehörde oder eine Drittorganisation bezüglich vermuteten Missbrauchsmaterials.
Eskalation bezieht sich auf den Prozess der Weiterleitung einer Meldung an höhere Ebenen der Überprüfung, Durchsetzung oder rechtlichen Verweisung basierend auf Schweregrad und Risiko.
3. Meldekanäle
Meldungen von Missbrauchsmaterial können über die folgenden Kanäle eingereicht werden:
- Nutzer-Meldewerkzeuge: Eingebettet in Inhaltsseiten und Nutzerprofile
- Moderator-Flagging-System: Interne Werkzeuge, die von geschultem Personal verwendet werden
- Drittanbieter-Einreichungen: NGOs, Aufsichtsbehörden oder Strafverfolgungsbehörden
- Notfall-Hotline: Für dringende oder hochriskante Fälle (z.B. CSAM)
Alle Meldungen müssen ausreichende Details enthalten, um eine Untersuchung zu ermöglichen, einschließlich Inhalts-URLs, Nutzer-IDs, Zeitstempel und Art des vermuteten Missbrauchs.
4. Untersuchungsverfahren
4.1 Erstprüfung
Nach Erhalt einer Meldung wird das Trust & Safety-Team der Plattform:
- Den Empfang innerhalb von 24 Stunden bestätigen
- Eine vorläufige Überprüfung durchführen, um Gültigkeit und Schweregrad zu bewerten
- Fälle priorisieren, die potenzielles CSAM, Menschenhandel oder unmittelbare Gefahr beinhalten
4.2 Inhaltstrias
Inhalte werden in eine der folgenden Kategorien eingestuft:
| Klassifizierung | Beschreibung | Maßnahme |
|---|---|---|
| Kritisch | CSAM, Menschenhandel, unmittelbare Gefahr | Sofortige Entfernung, rechtliche Verweisung |
| Hohes Risiko | Nicht einvernehmliche Inhalte, Ausbeutung | Vorübergehende Entfernung, Eskalation zur höheren Überprüfung |
| Mittel | Belästigung, Hassrede | Inhaltswarnung, Benachrichtigung des Nutzers |
| Niedriges Risiko | Falsche Kennzeichnung, grenzwertige Verstöße | Aufklärung, Überwachung, keine Entfernung |
4.3 Beweissicherung
Alle zur Untersuchung markierten Inhalte werden in einem sicheren Beweisarchiv für mindestens 90 Tage aufbewahrt. Metadaten, Nutzeraktivitätsprotokolle und Kommunikationsaufzeichnungen können für rechtliche oder Prüfungszwecke aufbewahrt werden.
5. Benachrichtigung der Nutzer
Nutzer, deren Inhalte markiert wurden, werden per E-Mail oder Dashboard-Benachrichtigung informiert. Die Benachrichtigungen enthalten:
- Eine Zusammenfassung der Meldung
- Die spezifische Richtlinie oder Regel, die verletzt wurde
- Ergriffene Maßnahmen (z.B. Inhaltsentfernung, Kontosperrung)
- Anweisungen für Einspruch oder Streitbeilegung
In Fällen, die Strafverfolgungsbehörden oder hochriskanten Missbrauch betreffen, können Benachrichtigungen zurückgehalten werden, um die Ermittlungen nicht zu beeinträchtigen.
6. Eskalationsprotokoll
6.1 Interne Eskalation
Fälle, die als kritisch oder hohes Risiko eingestuft werden, werden eskaliert an:
- Senior Compliance-Beauftragte
- Rechtsberatung für regulatorische Überprüfung
- Externe Berater (z.B. Kinderschutzexperten, Trauma-Spezialisten)
6.2 Externe Verweisung
Die Plattform wird Fälle an geeignete externe Stellen verweisen, wenn dies gesetzlich vorgeschrieben oder als notwendig erachtet wird, einschließlich:
- Nationale oder internationale Strafverfolgungsbehörden
- CyberTipline oder gleichwertige Meldestellen
- NGOs, die sich auf Missbrauchsprävention und Opferunterstützung spezialisiert haben
Alle Verweisungen werden dokumentiert und im Compliance-System der Plattform nachverfolgt.
7. Lösung und Durchsetzung
Nach der Untersuchung kann die Plattform eine oder mehrere der folgenden Maßnahmen ergreifen:
- Dauerhafte Entfernung von missbräuchlichen Inhalten
- Kontoaussetzung oder -kündigung
- IP- und Geräteverbote
- Verweisung an rechtliche Behörden
- Benachrichtigung der betroffenen Nutzer oder Opfer
- Updates zu Moderationsprotokollen oder Schulungen
Ergebnislösungen werden protokolliert und vierteljährlich zur Qualitätssicherung überprüft.
8. Einspruchsverfahren
Nutzer können gegen Durchsetzungsmaßnahmen Einspruch erheben, indem sie support@sinparty.com kontaktieren. Einsprüche müssen enthalten:
- Eine klare Erklärung des Streits
- Unterstützende Beweise oder Kontext
- Anerkennung der Plattformregeln
Einsprüche werden innerhalb von zehn (10) Werktagen überprüft. Entscheidungen sind endgültig und bindend, es sei denn, es tauchen neue Beweise auf.
9. Richtlinienverwaltung
Diese Richtlinie wird von den Trust & Safety- und Rechtsteams der Plattform verwaltet. Alle Entscheidungen, die im Rahmen dieser Richtlinie getroffen werden, unterliegen internen Audits und können von externen Compliance-Beratern überprüft werden.
Die Plattform behält sich das Recht vor, diese Richtlinie jederzeit zu ändern. Wesentliche Änderungen werden den Nutzern per E-Mail oder öffentlicher Bekanntmachung mitgeteilt.
10. Rechtliche Einhaltung
Diese Richtlinie ist darauf ausgelegt, den folgenden Anforderungen zu entsprechen:
- US-amerikanische Bundes- und Landesgesetze zur Regelung von CSAM und Online-Missbrauch
- EU-Digital Services Act (DSA) und DSGVO
- Branchenstandards, die von der Technology Coalition, INHOPE und anderen Organisationen festgelegt wurden
Die Plattform verfolgt eine Null-Toleranz-Politik gegenüber illegalen Inhalten und arbeitet vollständig mit Strafverfolgungsbehörden zusammen.