El objetivo es que el máximo de protagonistas de esta nueva revolución económica se comprometan en torno a una declaración mundial, aunque sin medidas obligatorias.
No obstante, siguen apareciendo evidencias en la evolución de la IA que preocupan a los expertos.
El primer informe internacional sobre la seguridad de la IA es fruto de una colaboración internacional de 96 expertos y apoyado por 30 países.
Si bien algunos son muy conocidos, como la creación de contenidos falsos en línea, el investigador en informática Yoshua Bengio, ganador del premio Turing 2018, afirma que “las pruebas de la existencia de riesgos adicionales, como los ataques biológicos o los ciberataques están apareciendo gradualmente”.
A largo plazo, le preocupa una “pérdida de control” de los humanos sobre sistemas de IA animados por “su propia voluntad de vivir”.
“Muchas personas pensaban que dominar el lenguaje como lo hace ChatGPT-4 (el chatbot de OpenAI) era ciencia ficción hace apenas seis años”, recuerda Max Tegmark presidente de Future of Life Institute y físico del prestigioso Massachusetts Institute of Technology (MIT).
“El problema es que muchas personas en el poder aún no han comprendido que estamos más cerca de construir una inteligencia artificial general que de saber cómo controlarla”. La inteligencia artificial general sería comparable o incluso superior a los humanos, y varios expertos del ecosistema, como el director de OpenAI, Sam Altman, creen que se logrará en los próximos años, posiblemente en 2026 o 2027.
PEOR ESCENARIO. Con el riesgo de que, en “el peor de los casos, estas empresas estadounidenses o chinas pierdan el control y que la Tierra sea dominada por máquinas”, sostiene Tegmark.
“La tecnología está cambiando realmente muy rápido”, afirma Stuart Russell, profesor de Informática en la Universidad de Berkeley, California, y codirector de la Asociación Internacional para una IA Segura y Ética (IASEAI). Lo más preocupante “sería tener sistemas de armamento donde sea la inteligencia artificial la que controla y decide a quién atacar y cuándo”, añade. Para estos expertos, los Estados deben establecer salvaguardias. “Debemos tratar a la industria de la inteligencia artificial de la misma forma que tratamos a todas las demás industrias”, subraya Tegmark.