Los científicos crean un juego en línea para mostrar los riesgos del reconocimiento de emociones de la IA

S

Los científicos están invitando a las personas a mostrar caras en sus cámaras web y teléfonos inteligentes para ver en acción una tecnología controvertida llamada reconocimiento de emociones de inteligencia artificial.

Investigadores de la Universidad de Cambridge y UCL han creado un sitio web llamado Emojify para ayudar a las personas a comprender cómo se pueden usar las computadoras para escanear expresiones faciales para detectar emociones.

La Dra. Alexa Hagerty, líder del proyecto e investigadora del Centro Leverhulme para el Futuro de la Inteligencia de Cambridge, dijo que la tecnología, que ya se utiliza en algunas partes del mundo, es «poderosa» pero «defectuosa».

Los visitantes del sitio web pueden jugar un juego, haciendo gestos a la cámara de su dispositivo para intentar que el sistema de reconocimiento de emociones reconozca seis emociones: felicidad, tristeza, miedo, sorpresa, disgusto e ira.

La Dra. Alexa Hagerty juega en el sitio web Emojify 2

LEE MAS

También pueden responder una serie de preguntas opcionales para ayudar en la investigación, incluso si han experimentado la tecnología antes y si creen que es útil o preocupante.

La tecnología de reconocimiento de emociones de IA se utiliza en una variedad de sectores en China, incluso para interrogatorios policiales y para monitorear el comportamiento en las escuelas.

Otros usos potenciales incluyen el control de fronteras, la evaluación de candidatos durante entrevistas de trabajo y para que las empresas recopilen información sobre los clientes.

Los investigadores dicen que esperan iniciar conversaciones sobre la tecnología y sus impactos sociales.

El Dr. Hagerty dijo: “Mucha gente se sorprende al saber que la tecnología de reconocimiento de emociones existe y ya está en uso.

“Nuestro proyecto brinda a las personas la oportunidad de experimentar estos sistemas por sí mismos y tener una mejor idea de lo poderosos que son, pero también de sus fallas”.

Los investigadores dicen que esperan iniciar conversaciones sobre la tecnología y sus impactos sociales. (Universidad de Cambridge / PA)

El Dr. Igor Rubinov, de Dovetail Labs, una consultora especializada en ética tecnológica, que dirigió el diseño del sitio web de investigación interactiva, dijo: “Queremos que las personas interactúen con un sistema de reconocimiento de emociones y vean cómo la IA escanea sus rostros y qué podría obtener equivocado.»

Juweek Adolphe, diseñador jefe, dijo: «Está destinado a ser divertido, pero también para hacerte pensar en lo que está en juego con esta tecnología».

El Dr. Hagerty dijo que la tecnología tiene un «preocupante potencial de discriminación y vigilancia».

Ella continuó: “La ciencia detrás del reconocimiento de emociones es inestable.

“Asume que nuestras expresiones faciales reflejan perfectamente nuestros sentimientos internos.

«Si alguna vez has fingido una sonrisa, sabes que no siempre es así».

La Dra. Alexandra Albert, del grupo de investigación Extreme Citizen Science (ExCiteS) en UCL, dijo que se necesita un “enfoque más democrático” para determinar cómo se utiliza la tecnología.

“No ha habido comentarios o deliberaciones públicas reales sobre estas tecnologías”, dijo.

“Le escanean la cara, pero son las empresas de tecnología las que toman las decisiones sobre cómo se utilizan”.

Los investigadores dijeron que su sitio web no recopila ni guarda imágenes o datos del sistema de emociones.

Las respuestas opcionales a las preguntas se utilizarán como parte de un artículo académico sobre enfoques de ciencia ciudadana para comprender mejor las implicaciones sociales del reconocimiento de emociones.

Para probar la tecnología de reconocimiento de emociones de inteligencia artificial, consulte https://emojify.info/