Übersicht
Die Community-Richtlinien wurden zum Schutz unserer Community erstellt. Sie definieren, was auf YouTube erlaubt ist und was nicht. Dabei gelten sie für alle Arten von Inhalten auf der Plattform, inklusive Videos, Kommentare, Links und Thumbnails.
Unten findest du eine Liste unserer Community-Richtlinien:
Spam und irreführende Praktiken
Sensible Inhalte
Gewaltverherrlichende oder gefährliche Inhalte
Waren, die gesetzlichen Beschränkungen unterliegen
Mehr
Wie entwickeln wir neue Richtlinien und aktualisieren vorhandene Richtlinien?
Alle unsere Richtlinien wurden sorgfältig durchdacht, damit sie konsistent und weltweit anwendbar sind sowie auf fundierten Entscheidungen basieren. Sie werden in Zusammenarbeit mit einer großen Bandbreite von externen Branchen- und Richtlinienexperten und Creatorn entwickelt. Neue Richtlinien durchlaufen erst mehrere Testreihen, bevor sie eingeführt werden, damit unser globales Team von Inhaltsprüfern sie richtig und konsistent anwenden kann.
Die Richtlinien werden regelmäßig überprüft, damit wir besser ermitteln können, wie wir zwar einerseits die YouTube-Community schützen, zugleich aber allen Nutzern eine Plattform der freien Meinungsäußerung bieten können.
Wie identifiziert YouTube Inhalte, die gegen die Community-Richtlinien verstoßen?
Da jede Minute Hunderte Stunden an neuen Videos auf YouTube hochgeladen werden, setzen wir sowohl manuelle Überprüfung als auch maschinelles Lernen ein, um möglicherweise problematische Inhalte in großem Umfang zu ermitteln. Mithilfe von maschinellem Lernen können wir Muster erkennen und so Inhalte von der Plattform entfernen, die anderen bereits entfernten Inhalten ähneln, noch bevor sie angesehen werden.
Wir wissen auch, dass Inhalte am besten zeitnah entfernt werden können, wenn wir Probleme vorhersehen, noch bevor sie auftreten. Unser Intelligence Desk überwacht Nachrichten, soziale Medien und Meldungen von Nutzern, um neue Trends bezüglich unangemessener Inhalte zu erkennen. Unsere Teams werden dann auf den Umgang mit diesen Inhalten vorbereitet, bevor sie sich zu einem größeren Problem entwickeln können.
Gibt es Möglichkeiten, wie die Community schädliche Inhalte melden kann?
Unser Ziel ist es weiterhin, die Verbreitung von Videos, die gegen unsere Richtlinien verstoßen, zu unterbinden. Über 10.000 Personen arbeiten bei Google und YouTube weltweit daran, die Richtlinien umzusetzen und Inhalte, die gegen die Richtlinien verstoßen, zu entfernen. Die YouTube-Community spielt aber auch eine wichtige Rolle bei der Meldung von potenziell unangemessenen Inhalten.
-
Wenn du auf Inhalte stößt, die gegen unsere Community-Richtlinien verstoßen, kannst du sie mithilfe der Meldefunktionen zur Überprüfung einreichen.
-
Wir haben ein YouTube Trusted Flagger-Programm entwickelt, um Nichtregierungsorganisationen (NGOs), die auf bestimmte Richtlinienbereiche spezialisiert sind, Behörden und Nutzern, die häufig korrekte Meldungen einreichen, zusätzliche Tools zur Verfügung zu stellen. Die Teilnehmer können auf ein Tool zugreifen, mit dem sie mehrere Videos gleichzeitig melden können, und sie werden hinsichtlich der Community-Richtlinien von YouTube geschult. Videos, die von Teilnehmern am Trusted Flagger-Programm gemeldet werden, werden aber nicht automatisch entfernt. Sie werden wie alle von Nutzern gemeldeten Videos manuell überprüft, dabei kann die Überprüfung durch unsere Teams aber beschleunigt werden.
Welche Maßnahmen ergreift YouTube bei Inhalten, die gegen die Community-Richtlinien verstoßen?
YouTube ergreift Maßnahmen, nachdem gemeldete Videos durch unsere geschulten Prüfer überprüft wurden. Sie stellen fest, ob die Inhalte tatsächlich gegen unsere Richtlinien verstoßen, und schützen dabei Inhalte mit pädagogischem, dokumentarischem, wissenschaftlichem oder künstlerischem Zweck. Videos, die gegen die Richtlinien verstoßen, werden von den Prüfteams entfernt, während bei Inhalten, die nicht für alle Zuschauer geeignet sind, eine Altersbeschränkung festgelegt wird. Wir verwenden auch automatische Meldesysteme, mit denen Spam automatisch erkannt und entfernt wird. Sie erkennen außerdem, wenn schon geprüfte Inhalte, die gegen unsere Richtlinien verstoßen, noch einmal hochgeladen werden.
Verwarnungen wegen eines Verstoßes gegen die Community-Richtlinien
Wenn unsere Prüfer feststellen, dass Inhalte gegen die Community-Richtlinien verstoßen, werden diese Inhalte entfernt und der Creator wird benachrichtigt. Wenn ein Creator zum ersten Mal gegen die Community-Richtlinien verstößt, erhält er eine Warnung, die keine Konsequenzen für den Kanal hat. Nach der ersten Warnung erhält der Kanal bei weiteren Verstößen eine Verwarnung wegen eines Verstoßes gegen die Community-Richtlinien. Es gelten dann vorübergehende Einschränkungen für das Konto. Wenn ein Kanal drei Verwarnungen innerhalb von 90 Tagen erhält, wird er gekündigt. Bei Kanälen, die auf Verstöße gegen die Richtlinien ausgerichtet sind oder einen einzelnen schweren Verstoß begehen, gilt das Verwarnungssystem nicht mehr und sie werden sofort gekündigt. Wenn ein Creator der Meinung ist, dass es sich bei einer Verwarnung oder Kündigung um einen Irrtum handelt, kann er dagegen Beschwerde einlegen. Unsere Teams überprüfen dann die Entscheidung noch einmal.
Ressourcen
Inhalte mit Altersbeschränkung
In manchen Fällen verstoßen Inhalte nicht gegen die Community-Richtlinien, sind aber möglicherweise für Zuschauer unter 18 Jahren nicht geeignet. In diesen Fällen legt unser Prüfteam eine Altersbeschränkung für das Video fest, damit es für Zuschauer unter 18 Jahren, nicht angemeldete Nutzer und Nutzer im eingeschränkten Modus nicht sichtbar ist. Creator können beim Upload auch eine Altersbeschränkung für ein eigenes Video festlegen, wenn sie glauben, dass es für jüngere Zuschauer nicht geeignet ist.