YouTube, propiedad de Google, revela una nueva estadística de moderación de contenido

YouTube está arrojando nueva luz sobre cómo modera su extensa plataforma de videos, que tiene miles de millones de visitas cada día.

El martes, la compañía publicó por primera vez una estadística llamada «tasa de visualización infractora», un nuevo punto de datos que YouTube planea incluir en sus informes de cumplimiento de las directrices de la comunidad. Básicamente, por cada 10,000 visitas en su red social, o al menos durante el último trimestre de 2020, entre 16 y 18 de esas vistas son videos que violan las reglas de YouTube, que actualmente prohíben todo, desde el discurso de odio hasta la desinformación médica sobre Covid-19. hacer spam.

En una publicación de blog publicada el martes, YouTube argumenta que esas estadísticas son una señal de progreso y compartió que la «tasa de visualización infractora» ha bajado un 70 por ciento desde 2017 gracias a las mejoras que la compañía ha realizado en su inteligencia artificial centrada en la moderación de contenido. «Hemos progresado muchísimo y es un número muy, muy bajo», dijo a los periodistas la directora de gestión de productos de YouTube para la confianza y la seguridad, Jennifer Flannery O’Connor, «pero, por supuesto, queremos que sea más bajo, y eso es lo que mi equipo trabaja día tras día para intentar hacer ”.

YouTube compartió esta nueva información a medida que los políticos y los usuarios se preocupan cada vez más por cómo las empresas de tecnología están moderando sus plataformas en medio de una «infodemia» de desinformación de Covid-19, y luego de la insurrección en el Capitolio de los EE. UU. Y un ciclo de elecciones presidenciales el año pasado que fue marcado por teorías de la conspiración.

Al mismo tiempo, las estadísticas de YouTube sobre contenido infractor refuerzan una narrativa que algunos ejecutivos de YouTube han promovido en el pasado: que sus sistemas generalmente hacen un buen trabajo al detectar contenido malo y que, en general, el problema de los videos nefastos en su sitio es comparativamente pequeño. . YouTube también dijo el martes que puede eliminar el 94 por ciento del contenido que infringe sus reglas con sistemas de marcado automatizados, y que la gran mayoría de esos videos se capturan antes de obtener 10 vistas. En general, YouTube afirma que ha eliminado más de 83 millones de videos desde que comenzó a publicar informes de transparencia de cumplimiento hace tres años.

«Tenemos un denominador grande, lo que significa que tenemos mucho contenido», dijo la directora ejecutiva Susan Wojcicki a Recode en 2019. «Cuando lo miramos, todas las noticias, preocupaciones e historias han sido sobre esta fracción del uno por ciento».

Pero los números que YouTube dio a conocer el martes tienen limitaciones. Así es como los calculó: YouTube muestra una cantidad de vistas, es decir, instancias en las que un usuario mira un video en particular (YouTube no publicó la cantidad de videos que se incluyeron en esta estadística). Luego, YouTube mira los videos que obtienen esas vistas y los envía a sus revisores de contenido. Estudian todos los videos y averiguan cuáles violan las reglas de la compañía, lo que permite que YouTube produzca una tasa de porcentaje estimada de vistas que ocurrieron en «videos violadores».

Tenga en cuenta que los propios revisores de YouTube, no los auditores independientes, deciden qué se considera una violación de las pautas de YouTube. Si bien el año pasado Facebook se comprometió a realizar una auditoría independiente de las métricas de cumplimiento de los estándares de la comunidad, Flannery O’Connor dijo el lunes que la plataforma de video aún no se había comprometido a un compromiso similar.

YouTube suele tardar en decidir qué tipo de contenido controvertido prohibirá. La plataforma solo cambió su política de incitación al odio para prohibir la negación del Holocausto y los neonazis en 2019. Si bien los investigadores habían advertido sobre la propagación de la teoría de la conspiración de derecha QAnon durante años, YouTube solo se movió para prohibir «el contenido dirigido a un individuo o grupo con teorías de conspiración que se han utilizado para justificar la violencia del mundo real ”en octubre del año pasado.

También hay una gran cantidad de contenido que YouTube no elimina, y no viola las reglas de la compañía, pero elude la línea y que algunos críticos creen que no debería permitirse en la plataforma. YouTube a veces llama a este tipo de videos controvertidos «contenido límite». Es difícil estudiar qué tan frecuente es este contenido límite, dado lo enorme que es YouTube. Pero sabemos que está ahí. La compañía mantuvo videos con desinformación electoral y solo expandió sus reglas de acoso y odio para prohibir el contenido que apunta a grupos y personas con teorías de conspiración utilizadas para justificar la violencia, a saber, QAnon, en octubre del año pasado.

Un ejemplo importante de cómo YouTube no eliminó por completo el contenido ofensivo y dañino se produjo en 2019 cuando YouTube enfrentó protestas después de que la compañía decidió dejar contenido del YouTuber conservador Steven Crowder que incluía el acoso racista y homofóbico del entonces periodista de Vox Carlos Maza (bajo intensa presión, YouTube finalmente eliminó la capacidad de Crowder para ejecutar anuncios). Más tarde ese año, Wojcicki les dijo a los creadores que «[p]El contenido roblemático representa una fracción del uno por ciento del contenido de YouTube «, pero tuvo un» impacto enorme «.

YouTube elimina los anuncios para los creadores que publican contenido que viola las reglas de monetización de la plataforma, y ​​clasifica el contenido límite, pero YouTube no publica estadísticas similares sobre la prevalencia de este tipo de contenido o cuántas visitas suele recibir.

En cuanto a por qué YouTube está publicando esta estadística en particular en este momento, Flannery O’Connor dijo que la compañía había utilizado el número internamente durante varios años para estudiar el progreso de YouTube en la seguridad y los picos en las vistas de videos infractores, y para establecer objetivos para su equipo de aprendizaje automático. . «Nos sentimos como [it’s] Lo mejor es ser transparente y usar las mismas métricas interna y externamente ”, dijo.

El anuncio de YouTube es parte de un patrón más amplio de compañías de redes sociales que dicen que sus plataformas no están, de hecho, dominadas por contenido nefasto, mientras que críticos, investigadores y periodistas continúan señalando la gran cantidad de visitas y clics que ese contenido a menudo atrae. Incluso cuando YouTube elimina estos videos, a veces ya han tenido éxito en compartir ideas dañinas que se propagan fuera de la plataforma; por ejemplo, el video de Plandemic, que difundió conspiraciones falsas de Covid-19 el año pasado, capturó millones de visitas en la plataforma antes de que se tomara. abajo.

Open Sourced es posible gracias a Omidyar Network. Todo el contenido de código abierto es editorialmente independiente y producido por nuestros periodistas.

Millones recurren a Vox para comprender lo que está sucediendo en las noticias. Nuestra misión nunca ha sido más vital que en este momento: empoderar a través de la comprensión. Las contribuciones financieras de nuestros lectores son una parte fundamental para apoyar nuestro trabajo intensivo en recursos y nos ayudan a mantener nuestro periodismo gratuito para todos. Considere hacer una contribución a Vox hoy desde tan solo $ 3.

YouTube, propiedad de Google, revela una nueva estadística de moderación de contenido

YouTube está arrojando nueva luz sobre cómo modera su extensa plataforma de videos, que tiene miles de millones de visitas cada día.

El martes, la compañía publicó por primera vez una estadística llamada «tasa de visualización infractora», un nuevo punto de datos que YouTube planea incluir en sus informes de cumplimiento de las directrices de la comunidad. Básicamente, por cada 10,000 visitas en su red social, o al menos durante el último trimestre de 2020, entre 16 y 18 de esas vistas son videos que violan las reglas de YouTube, que actualmente prohíben todo, desde el discurso de odio hasta la desinformación médica sobre Covid-19. hacer spam.

En una publicación de blog publicada el martes, YouTube argumenta que esas estadísticas son una señal de progreso y compartió que la «tasa de visualización infractora» ha bajado un 70 por ciento desde 2017 gracias a las mejoras que la compañía ha realizado en su inteligencia artificial centrada en la moderación de contenido. «Hemos progresado muchísimo y es un número muy, muy bajo», dijo a los periodistas la directora de gestión de productos de YouTube para la confianza y la seguridad, Jennifer Flannery O’Connor, «pero, por supuesto, queremos que sea más bajo, y eso es lo que mi equipo trabaja día tras día para intentar hacer ”.

YouTube compartió esta nueva información a medida que los políticos y los usuarios se preocupan cada vez más por cómo las empresas de tecnología están moderando sus plataformas en medio de una «infodemia» de desinformación de Covid-19, y luego de la insurrección en el Capitolio de los EE. UU. Y un ciclo de elecciones presidenciales el año pasado que fue marcado por teorías de la conspiración.

Al mismo tiempo, las estadísticas de YouTube sobre contenido infractor refuerzan una narrativa que algunos ejecutivos de YouTube han promovido en el pasado: que sus sistemas generalmente hacen un buen trabajo al detectar contenido malo y que, en general, el problema de los videos nefastos en su sitio es comparativamente pequeño. . YouTube también dijo el martes que puede eliminar el 94 por ciento del contenido que infringe sus reglas con sistemas de marcado automatizados, y que la gran mayoría de esos videos se capturan antes de obtener 10 vistas. En general, YouTube afirma que ha eliminado más de 83 millones de videos desde que comenzó a publicar informes de transparencia de cumplimiento hace tres años.

«Tenemos un denominador grande, lo que significa que tenemos mucho contenido», dijo la directora ejecutiva Susan Wojcicki a Recode en 2019. «Cuando lo miramos, todas las noticias, preocupaciones e historias han sido sobre esta fracción del uno por ciento».

Pero los números que YouTube dio a conocer el martes tienen limitaciones. Así es como los calculó: YouTube muestra una cantidad de vistas, es decir, instancias en las que un usuario mira un video en particular (YouTube no publicó la cantidad de videos que se incluyeron en esta estadística). Luego, YouTube mira los videos que obtienen esas vistas y los envía a sus revisores de contenido. Estudian todos los videos y averiguan cuáles violan las reglas de la compañía, lo que permite que YouTube produzca una tasa de porcentaje estimada de vistas que ocurrieron en «videos violadores».

Tenga en cuenta que los propios revisores de YouTube, no los auditores independientes, deciden qué se considera una violación de las pautas de YouTube. Si bien el año pasado Facebook se comprometió a realizar una auditoría independiente de las métricas de cumplimiento de los estándares de la comunidad, Flannery O’Connor dijo el lunes que la plataforma de video aún no se había comprometido a un compromiso similar.

YouTube suele tardar en decidir qué tipo de contenido controvertido prohibirá. La plataforma solo cambió su política de incitación al odio para prohibir la negación del Holocausto y los neonazis en 2019. Si bien los investigadores habían advertido sobre la propagación de la teoría de la conspiración de derecha QAnon durante años, YouTube solo se movió para prohibir «el contenido dirigido a un individuo o grupo con teorías de conspiración que se han utilizado para justificar la violencia del mundo real ”en octubre del año pasado.

También hay una gran cantidad de contenido que YouTube no elimina, y no viola las reglas de la compañía, pero elude la línea y que algunos críticos creen que no debería permitirse en la plataforma. YouTube a veces llama a este tipo de videos controvertidos «contenido límite». Es difícil estudiar qué tan frecuente es este contenido límite, dado lo enorme que es YouTube. Pero sabemos que está ahí. La compañía mantuvo videos con desinformación electoral y solo expandió sus reglas de acoso y odio para prohibir el contenido que apunta a grupos y personas con teorías de conspiración utilizadas para justificar la violencia, a saber, QAnon, en octubre del año pasado.

Un ejemplo importante de cómo YouTube no eliminó por completo el contenido ofensivo y dañino se produjo en 2019 cuando YouTube enfrentó protestas después de que la compañía decidió dejar contenido del YouTuber conservador Steven Crowder que incluía el acoso racista y homofóbico del entonces periodista de Vox Carlos Maza (bajo intensa presión, YouTube finalmente eliminó la capacidad de Crowder para ejecutar anuncios). Más tarde ese año, Wojcicki les dijo a los creadores que «[p]El contenido roblemático representa una fracción del uno por ciento del contenido de YouTube «, pero tuvo un» impacto enorme «.

YouTube elimina los anuncios para los creadores que publican contenido que viola las reglas de monetización de la plataforma, y ​​clasifica el contenido límite, pero YouTube no publica estadísticas similares sobre la prevalencia de este tipo de contenido o cuántas visitas suele recibir.

En cuanto a por qué YouTube está publicando esta estadística en particular en este momento, Flannery O’Connor dijo que la compañía había utilizado el número internamente durante varios años para estudiar el progreso de YouTube en la seguridad y los picos en las vistas de videos infractores, y para establecer objetivos para su equipo de aprendizaje automático. . «Nos sentimos como [it’s] Lo mejor es ser transparente y usar las mismas métricas interna y externamente ”, dijo.

El anuncio de YouTube es parte de un patrón más amplio de compañías de redes sociales que dicen que sus plataformas no están, de hecho, dominadas por contenido nefasto, mientras que críticos, investigadores y periodistas continúan señalando la gran cantidad de visitas y clics que ese contenido a menudo atrae. Incluso cuando YouTube elimina estos videos, a veces ya han tenido éxito en compartir ideas dañinas que se propagan fuera de la plataforma; por ejemplo, el video de Plandemic, que difundió conspiraciones falsas de Covid-19 el año pasado, capturó millones de visitas en la plataforma antes de que se tomara. abajo.

Open Sourced es posible gracias a Omidyar Network. Todo el contenido de código abierto es editorialmente independiente y producido por nuestros periodistas.

Millones recurren a Vox para comprender lo que está sucediendo en las noticias. Nuestra misión nunca ha sido más vital que en este momento: empoderar a través de la comprensión. Las contribuciones financieras de nuestros lectores son una parte fundamental para apoyar nuestro trabajo intensivo en recursos y nos ayudan a mantener nuestro periodismo gratuito para todos. Considere hacer una contribución a Vox hoy desde tan solo $ 3.