El MIT ha creado una inteligencia artificial capaz de mostrar lo que se hace detrás de una pared. Tan solo ha de buscar una fuente de datos diferente y seguir analizando patrones. Y esa nueva fuente de datos son las señales de radio en las frecuencias WiFi.
Un equipo de investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT ha indicado el modo en que dichas señales pueden ser analizadas por redes neuronales para permitirnos “ver” en ausencia de luz.
“Nuestro modelo utiliza como datos de entrada la señales de radiofrecuencia, genera esqueletos humanos en 3D a partir de las mismas y es capaz de reconocer las acciones e interacciones de varias personas a lo largo del tiempo”.
Ese paso de convertir las señales de radio en esqueletos 3D resulta clave para el éxito del sistema, al permitir que el modelo no solo aprenda a partir de los datasets basados en radiofrecuencia, sino que sea capaz de aplicar los datos recopilados basados en la captura con visión computarizada.
Datos
* Empezaron grabando simultáneamente imágenes con luz visible y basadas en ondas de radio, para sincronizarlas y que la red neuronal se entrenara: así establecería correlaciones entre los datos mostrados por una y otra.
* La introducción de los esqueletos 3D fue cuando detectaron que al sistema le costaba diferenciar a una persona de su entorno.