En un comunicado, Meta explicó que esta nueva herramienta de código abierto, ImageBind, facilitará que las máquinas puedan analizar simultáneamente esas diferentes informaciones, algo que describió como un “entendimiento holístico” que se acerca a las capacidades humanas.
Las máquinas equipadas con esta IA, según la empresa, podrán “unir” los datos sensoriales y, por ejemplo, conectar los objetos de una fotografía con su sonido, su forma en tres dimensiones o su movimiento; o bien crear imágenes basándose en ruidos.
Meta sugirió que en el futuro la herramienta podría introducir nuevas modalidades de datos sensoriales, como “tacto, discurso, olor” e imágenes por resonancia magnética cerebrales.
Lea más: Directiva de Google sobre la IA: “Vayamos rápido, pero con calma”
A medida que esas modalidades se incrementen, aventuró la empresa, ImageBind “abrirá las compuertas” de la investigación para “diseñar o experimentar mundos inmersivos y virtuales”, en una clara referencia al metaverso, que es su proyecto a largo plazo.
Hace unos meses, Meta ya presentó otra herramienta de AI para investigadores con código abierto, LLaMa (Large Language Model Meta AI), pero de momento no ha lanzado aplicaciones con potencial comercial, como los “chatbots” de sus rivales tecnológicas.
EFE