Vhista, como ha sido bautizada la aplicación, reconoce mediante inteligencia artificial los objetos enfrente de la persona que está usando el móvil cuando esta los encuadra con la cámara, los identifica en voz alta y detalla a qué distancia se encuentran del usuario.
“Me abrió los ojos”
“La aplicación me abrió los ojos literalmente porque ahora puedo identificar cosas que antes no sabía que estaban enfrente de mí”, cuenta en una entrevista con Efe Velázquez, al tiempo que añade que le gusta usarla para sorprender a la gente, especialmente a sus colegas triatletas.
La utiliza tanto en la práctica deportiva, para conocer qué tiene a su alrededor cuando monta en la bicicleta doble acompañado de un guía, como en situaciones cotidianas, por ejemplo, en el aeropuerto para caminar y no chocar con la gente o mientras espera a su esposa en la calle.
La inesperada herramienta digital llegó a su casa de Playa del Carmen, en la Riviera Maya, desde un vecino del sur, el desarrollador de software colombiano David Cruz Serrano, y con la mediación del vecino del norte, la estadounidense Apple, que proveyó a Cruz de la tecnología Core ML en que se basa Vhista.
El poder de la tecnología
El desarrollador veinteañero explica a Efe que pensó en usar “el superpoder” de la tecnología para ayudar a los demás, al darse cuenta de la falta de empatía generalizada en las sociedades actuales, mientras observaba el comportamiento de los pasajeros en el transporte público de Bogotá.
La aplicación, que está disponible en español e inglés y se puede descargar de forma gratuita para iOS a través de la App Store, reconoce desde objetos como televisores a animales y plantas, como perros y flores, y también a personas, aunque siempre de forma genérica y sin identificar por el nombre a individuos concretos.
Además de la distancia física, también se ofrece al usuario un porcentaje del nivel de confianza en que la identificación sea correcta para que este pueda sacar sus propias conclusiones.
Con o sin Internet
Vhista tiene dos modalidades: una más rápida pero algo menos de precisión, que funciona sin internet y se alimenta de la base de datos descargada en el propio teléfono; y otra que requiere estar conectado a la red, aunque que es más precisión y ofrece una descripción panorámica de todos los objetos en la fotografía.
La razón por la cual la primera modalidad es algo menos precisa es porque el banco de datos del que se alimenta es, por necesidad, limitado, puesto que se tiene que descargar en el teléfono, ya que de lo contrario el peso del archivo sería excesivo. La aplicación actual pesa 100 MB.
“Quisiéramos tener una aplicación de 20 GB que funcionase perfectamente, pero eso es inviable y para eso ya tenemos la modalidad online”, cuenta Cruz, quien detalla que para reducir el peso del archivo se priorizaron las bibliotecas de datos de objetos cotidianos, en vez de, por ejemplo, animales salvajes.
El joven emprendedor, que fue seleccionado por Apple para ir becado a la conferencia de desarrolladores WWDC en 2017, adelantó que en el futuro la aplicación tendrá también reconocimiento de texto (podrá leer una señal de tráfico, las instrucciones de una medicina, etc.) y de color.
“Las personas quieren libertad, quieren poder hacer cosas por sí mismas”, reflexiona Cruz, quien coincide con Velázquez en que el desarrollo de la inteligencia artificial ha supuesto un avance sin precedentes para la calidad de vida de las personas con discapacidad visual.