Así lo confirmó la community manager de la plataforma en un foro de la comunidad de ayuda de la ‘app’. Al parecer, esta decisión se tomó por los problemas que ha tenido YouTube con la Comisión Federal de Comercio por afectar la privacidad de los niños cuando observan videos.

“Proteger a los menores y a las familias del contenido inapropiado siempre es una prioridad, por eso hemos ampliado nuestras políticas de seguridad infantil. Estamos constantemente tomando medidas para proteger a los menores en YouTube, pero aún recomendamos que los padres usen YouTube Kids si planean permitir que los niños menores de 13 años vean de forma independiente”, dijo la Community Manager.

El contenido será eliminado si en su título, descripción o etiqueta tiene alguna característica de violencia dirigida hacia los menores. Además, la aplicación afirmó que en un futuro borrará todos los videos violentos de su plataforma, mencionó The Verge

Los videos que son violentos para YouTube son aquellos que incluyen sexo, violencia, muerte, lenguaje vulgar y cualquier otro que la plataforma considere inapropiado para el público joven, de acuerdo con Daily Mail.

YouTube no quiere ofender a los creadores de este tipo de contenido, por lo tanto les ha dado un lapso de 30 días para que todos puedan familiarizarse con esta nueva política y eliminen los videos antes de que la plataforma lo haga, según el mismo medio.