Un estudio de la Universidad de Edimburgo difundido este miércoles muestra que los sistemas de IA multimodales, diseñados para procesar imágenes y texto, solo aciertan en la posición de las agujas del reloj en menos de una de cada cuatro ocasiones, con errores superiores al 75% en varios casos.
Los investigadores probaron varios diseños de relojes, incluidos algunos con números romanos, con y sin segundero, y con diferentes colores de esfera.
Te puede interesar: La suma de IA y los “gemelos digitales” sitúan la medicina ante un nuevo escenario
Los errores fueron más frecuentes en relojes con números romanos o manecillas estilizadas.
Además, la eliminación del segundero no mejoró el desempeño de los modelos, lo que sugiere problemas en la detección de las manecillas y la interpretación de ángulos.
En cálculos relacionados con fechas en calendarios, como la identificación de días festivos o la determinación de fechas pasadas y futuras, los modelos más avanzados fallaron en un 20% de los casos.
Lea más: Elon Musk lanza Grok-3, nuevo modelo de IA, “aterradoramente inteligente”
“Nuestros hallazgos destacan una brecha significativa en la capacidad de la IA para realizar habilidades que son bastante básicas para los humanos. Estas deficiencias deben abordarse si queremos integrar la IA en aplicaciones del mundo real que dependan del tiempo, como la programación, la automatización y las tecnologías de asistencia”, dijo Rohit Saxena, líder del estudio de la Universidad de Edimburgo, en un comunicado.
El robot que prepara café
A pesar de estos fallos en tareas sencillas, la misma institución desarrolló un robot que ejecuta con éxito una tarea compleja en un entorno real: Preparar café en una cocina concurrida.
Este sistema, que combina IA avanzada con sensores de alta sensibilidad y habilidades motoras de precisión, interactúa con su entorno de manera más parecida a la humana, según los investigadores.
Te puede interesar: La IA de Google podrá acceder al historial de búsqueda para dar respuestas personalizadas
El dispositivo –un brazo robótico con siete articulaciones móviles– interpreta instrucciones verbales, analiza su entorno y puede, por ejemplo, localizar una taza en un cajón que nunca ha abierto antes, medir y mezclar café molido con agua caliente y adaptarse a cambios inesperados, como que alguien mueva la taza en plena preparación.
El estudio, publicado en la revista Nature Machine Intelligence, fue respaldado por el Consejo de Investigación en Ingeniería y Ciencias Físicas del Reino Unido (EPSRC).
“Estamos vislumbrando un futuro donde los robots con inteligencia cada vez más avanzada serán algo común. La inteligencia humana surge de la integración del razonamiento, el movimiento y la percepción, pero hasta ahora la IA y la robótica han avanzado por separado. Nuestro trabajo demuestra el potencial de combinar estos enfoques y subraya la creciente necesidad de debatir sus implicaciones en la sociedad”, señaló Ruaridh Mon-Williams, investigador de la Universidad de Edimburgo y líder del proyecto.
Fuente: EFE.