Meta también está preocupado por la seguridad en el metaverso

El actual vicepresidente de la unidad de Realidad Virtual y Aumentada de Meta reconoce que moderar a los usuarios en el metaverso podría ser una tarea prácticamente imposible.

211

Andrew Bosworth, uno de los ejecutivos con más antigüedad en Meta (Facebook), advirtió en un comunicado interno que los entornos de Realidad Virtual (VR) a menudo resultan ser “tóxicos”, especialmente para las mujeres y minorías históricamente discriminadas.

Bosworth es el hombre que ha sido elegido para liderar el proyecto del metaverso y está listo para convertirse en director de Tecnología de toda la empresa el próximo año. 

Agregó que este problema representa una “amenaza existencial” para los ambiciosos planes de Meta por construir el próximo metaverso, una plataforma que pretende convertirse en el nuevo Internet en donde las personas podrán jugar, socializar y hasta trabajar en mundos tridimensionales totalmente virtuales con avatares animados. 

Sin embargo, muchos expertos y críticos como la denunciante Frances Haugen, quien se encargó de sacar a la luz los polémicos “Facebook Papers”, se han mostrado escépticos ante la idea del reino virtual de Meta, dado el largo historial de fallas que sigue enfrentando Facebook para evitar que el contenido dañino y la toxicidad llegue a sus usuarios.

¿Cómo moderar el metaverso?

Configuración de “zona segura” en Horizon Worlds. Imagen: Oculus

En principio, el hecho de monitorear miles de millones de interacciones en tiempo real requiere de un esfuerzo monumental. Con este cambio se tendría que revisar, además de texto, millones de imágenes, audio y video para mantener vigilado el mundo virtual.

Hablando de herramientas de seguridad, en este momento Meta sólo cuenta con la función desarrollada para el juego Horizon Worlds, en que el usuario puede denunciar un mal comportamiento y enviar un pequeño video con la infracción para que un moderador humano lo revise.

También puede ingresar a una “zona segura” para proteger su espacio virtual contra usuarios indeseados o solicitar ayuda de un especialista en seguridad para monitorear una situación peligrosa.

Según el informe de The Financial Times, Bosworth considera que el proyecto debe basarse en las normas de comunidad ya existentes en Facebook. Pero también sugirió que se requiere algún tipo de advertencia directa, suspensiones más largas y, finalmente, la expulsión del usuario.

Por su parte, los expertos señalan que la empresa puede hacer uso de la Inteligencia Artificial para crear filtros especiales con ayuda del monitoreo del habla o el texto, que se encarguen de vigilar el metaverso en busca de palabras clave o el escaneo de señales y gestos anormales.