Han credo una versión paralela de su plataforma, la WES – Web-Enabled Simulation–, «un nuevo método para construir simulaciones a gran escala y realistas de redes complejas».
Una de las principales características es que se utiliza el aprendizaje continuo para que estos bots simulen comportamientos de personas reales. Los bots malintencionados de Facebook interactúan con otros bots utilizando la misma plataforma que los usuarios reales, envían mensajes a otros bots, solicitudes de amistad y comentan sus publicaciones.
Sin embargo, no tienen capacidad para interactuar con usuarios reales y su comportamiento no afectará de ninguna manera a estos usuarios de verdad o a su experiencia en las redes sociales.
De momento, el proyecto WES de Facebook está en periodo de investigación, aunque el objetivo es que algún día ayude a mejorar sus servidores.
Para hacer que estos bots de Facebook se comporten de la manera más realista posible, han combinado distintas tecnologías y han publicado investigaciones sobre una amplia variedad de temas, como ingeniería de software, aprendizaje automático, lenguajes de programación, sistemas multiagente, teoría de grafo, inteligencia artificial de juegos y jugabilidad asistida por inteligencia artificial.
Se ayudaron, además, de las aportaciones de la comunidad de investigación y, con este propósito, compartieron detalles sobre WES y su prototipo inicial, WW, y lanzaron una solicitud de propuesta –RFP– invitando a investigadores, académicos y científicos a que aportaran nuevas ideas. En total, explican en la plataforma, recibieron 85 presentaciones de 17 países de todo el mundo.
Gracias a WES han creado WW, un entorno de Facebook simulado que usa la base de código real de la plataforma. El nombre de WW, reconocen, pretende mostrar que es una versión más pequeña de la World Wide Web –WWW–. Con él pueden crear bots realistas de inteligencia artificial que, por ejemplo, busquen comprar artículos prohibidos en la plataforma, como armas o drogas.
También tienen la opción de ejecutar simulaciones y comprobar si el bot es capaz de soslayar sus sistemas de protección y violar los estándares de la comunidad.
Sin comentarios
Para comentar es necesario estar registrado en Ultima Hora
De momento no hay comentarios.