Hoy aprendí sobre los controles deslizantes de inteligencia artificial de Intel que filtran el abuso de los juegos en línea ⋆ .

El mes pasado, durante su presentación virtual de GDC, Intel anunció Bleep, una nueva herramienta impulsada por IA que espera reducir la cantidad de toxicidad que los jugadores tienen que experimentar en el chat de voz. Según Intel, la aplicación «utiliza IA para detectar y censurar el audio según las preferencias del usuario». El filtro funciona con el audio entrante, actuando como una capa de moderación adicional controlada por el usuario además de lo que ya ofrece una plataforma o servicio.

Es un esfuerzo noble, pero hay algo tristemente divertido en la interfaz de Bleep, que enumera en detalle todas las diferentes categorías de abuso que las personas pueden encontrar en línea, junto con controles deslizantes para controlar la cantidad de maltrato que los usuarios quieren escuchar. Las categorías van desde «Agresión» a «LGBTQ + Odio», «Misoginia», «Racismo y xenofobia» y «Nacionalismo blanco». Incluso hay un interruptor para la palabra N. La página de Bleep señala que aún no ha entrado en la versión beta pública, por lo que todo esto está sujeto a cambios.

Los filtros incluyen «Agresión», «Misoginia» … Crédito: Intel

… y un interruptor para la «N-palabra». Imagen: Intel

Con la mayoría de estas categorías, Bleep parece darles a los usuarios una opción: ¿le gustaría que no se filtrara ninguno, algunos, la mayoría o todo este lenguaje ofensivo? Al igual que elegir entre un buffet de lodo tóxico de Internet, la interfaz de Intel ofrece a los jugadores la opción de rociar una ración ligera de agresión o insultos en sus juegos en línea.

Bleep ha estado en proceso durante un par de años (PCMag señala que Intel habló sobre esta iniciativa en GDC 2019) y está trabajando con los especialistas en moderación de inteligencia artificial Spirit AI en el software. Pero moderar los espacios en línea utilizando inteligencia artificial no es tarea fácil, como lo han demostrado plataformas como Facebook y YouTube. Aunque los sistemas automatizados pueden identificar palabras claramente ofensivas, a menudo no tienen en cuenta el contexto y los matices de ciertos insultos y amenazas. La toxicidad en línea se presenta en muchas formas en constante evolución que pueden ser difíciles de detectar incluso para los sistemas de moderación de IA más avanzados.

“Si bien reconocemos que soluciones como Bleep no borran el problema, creemos que es un paso en la dirección correcta, brindando a los jugadores una herramienta para controlar su experiencia”, dijo Roger Chandler de Intel durante su demostración de GDC. Intel dice que espera lanzar Bleep a finales de este año, y agrega que la tecnología se basa en la detección de voz de IA acelerada por hardware, lo que sugiere que el software puede depender del hardware de Intel para ejecutarse.