Noticias
YouTube quiere mejorar con bots la moderación de comentarios, spam y chats en vivo
YouTube ha anunciado un plan con medidas más enérgicas contra el spam y el contenido abusivo en los comentarios y los chats en vivo. El servicio de vídeo enviará advertencias a los usuarios si descubre que los comentarios publicados en su plataforma violan las pautas de la comunidad y, por lo tanto, deben eliminarse.
Google cree que su advertencia de eliminación de comentarios disuadirá a los usuarios de publicar comentarios negativos y reducirá la cantidad de instancias adicionales en las que dejan comentarios infractores. Sin embargo, si la persona continúa con el mismo comportamiento, es posible que se le impida publicar comentarios por hasta 24 horas o hasta que haya transcurrido un límite de tiempo específico.
Según la compañía, durante la ejecución de las pruebas que ha venido realizando, los resultados de las advertencias de eliminación de comentarios y los tiempos de espera fueron alentadores y con ello ayudó a proteger a los creadores de los usuarios que intentaban impactarlos negativamente. Actualmente, el nuevo sistema de notificación solo está disponible para comentarios en inglés. Google planea llevarlo a más idiomas en los próximos meses. La compañía también solicita a los usuarios que proporcionen comentarios si creen que su sistema de comentarios los ha seleccionado por error.
Además de este cambio, Google también ha mejorado la detección de spam en los comentarios y dice que ha logrado eliminar más de 1.100 millones de comentarios de spam solo en los primeros seis meses de 2022. Además, ha mejorado la detección de spambots para mantenerlos fuera de los chats en vivo.
Comentarios de YouTube: los bots al mando
Por supuesto, YouTube hará todo esto con bots, que ahora tendrán el poder de emitir tiempos de espera para los usuarios y eliminar instantáneamente los comentarios que se consideren abusivos. Y no será sencillo. La moderación de comentarios en YouTube a menudo parece una tarea imposible, hasta el punto de que muchas páginas simplemente desactivan los comentarios por completo porque no quieren lidiar con ello. La moderación del chat en vivo es más difícil todavía, ya que incluso si detecta un mensaje ofensivo rápidamente después de publicado, la misma naturaleza del medio supone que el daño probablemente ya esté hecho.
Los bots son una forma escalable de abordar este problema, pero el historial de moderación automatizada de Google con YouTube y Play Store es bastante tosco. Y hemos visto algunos ejemplos de ello. Marcar un canal de terror como «para niños» porque incluía animación; prohibir un reproductor de video de Google Play porque los archivos de subtítulos usaban la extensión «.ass», que también es una palabra malsonante. Otro ejemplo es que Play Store prohíbe regularmente las aplicaciones de chat, las aplicaciones de Reddit y las aplicaciones de podcast porque, al igual que un navegador, pueden acceder al contenido generado por el usuario y, a veces, ese contenido es objetable.
No parece que YouTube involucre a los propietarios de los canales en ninguna de estas decisiones de moderación. Hay que tener en cuenta que el anuncio de mejora de moderación de comentarios de YouTube dice que el portal advertirá al autor (no al propietario del canal) sobre la eliminación automática de contenido y que si los usuarios no están de acuerdo con la eliminación automática de comentarios, pueden «enviar comentarios» a YouTube.
El enlace «enviar comentarios» en muchos productos de Google es un cuadro de sugerencias de agujero negro y no cualquier tipo de cola de moderación de comentarios, por lo que no sabemos si habrá alguien (humano) detrás que responda a la disputa. YouTube remarca que esta moderación automática de contenido solo eliminará los comentarios que violen las pautas de la comunidad, una lista de prohibiciones de contenido bastante básicas. Veremos.