21 nov. 2024

Algunos sistemas de Inteligencia Artificial aprendieron a engañar a los humanos

Algunos sistemas de Inteligencia Artificial (IA) han aprendido ya cómo engañar a los humanos, incluso si han sido entrenados para ser útiles y honestos, según un estudio que cita, entre otros ejemplos, el modelo Cicero, de Meta, capaz de ganar con malas artes al juego de estrategia Diplomacy.

Inteligencia artificial.jpg

Los investigadores analizaron las formas en que los sistemas de Inteligencia Artificial difunden información falsa, mediante el engaño aprendido.

Foto ilustrativa (Pixabay).

Un artículo de revisión de otros estudios publicado en Patterns por autores estadounidenses y australianos describen los riesgos del engaño por parte de la Inteligencia Artificial (IA) y piden a los gobiernos que elaboren cuanto antes normativas estrictas para abordar el problema.

El equipo, encabezado por Peter Park del Instituto Tecnológico de Massachusetts (MIT), de EEUU, define el término engaño como “la inducción sistemática de creencias falsas con el fin de obtener un resultado distinto de la verdad”.

Park indicó que “los desarrolladores de IA no saben a ciencia cierta qué causa comportamientos indeseables en la IA, como el engaño”.

En términos generales, el equipo cree que surge porque una estrategia basada en ese comportamiento fue “la mejor manera de obtener buenos resultados en una tarea dada de entrenamiento. El engaño les ayuda a conseguir sus objetivos”, afirmó Park citado por la revista.

Los investigadores repasaron la literatura centrada en las formas en que los sistemas de IA difunden información falsa, mediante el engaño aprendido.

Engaño premeditado

El engaño es “especialmente probable” cuando un sistema de IA se entrena para ganar juegos que tienen un elemento social, como Diplomacy (un juego de conquista del mundo que implica la creación de alianzas).

El estudio repasa ejemplos en los que los sistemas de IA aprendieron a engañar para lograr un rendimiento experto en un tipo de juego o tarea, entre ellos Cicero, diseñado para jugar a Diplomacy.

Meta afirma que lo entrenó para que fuera “en gran medida honesto” y “nunca apuñalara intencionadamente por la espalda a sus aliados humanos”, sin embargo, “se dedica al engaño premeditado, rompe los tratos y dice falsedades descaradas”, asegura el estudio.

Un caso de engaño premeditado es cuando Cicero adquiere un compromiso que nunca tuvo intención de cumplir. Jugando a Diplomacy en el papel de Francia, la IA conspiró con Alemania para engañar a Inglaterra.

Después de decidir con Alemania invadir el Mar del Norte, dijo a Inglaterra que le defendería si alguien invadía esa zona y una vez convencida informó a Alemania de que estaban listos para atacar.

Otros sistemas de IA demostraron su capacidad para ir de farol en una partida de Poker Texas Hold’em o para fingir ataques en el juego de estrategia Starcraft II para derrotar a sus oponentes.

No soy un robot

En el caso de ChatGPT 4, el estudio señala cómo engañó a un humano con un test Captcha (los que se hacen para señalar a una web que no somos un robot). Esa IA aseguró que no era un robot, pero que tenía un problema de visión que le dificultaba ver imágenes.

Aunque pueda parecer inofensivo que los sistemas de IA hagan trampas en los juegos, puede dar lugar a “grandes avances en las capacidades de engaño” que pueden derivar en formas más avanzadas en el futuro, consideró Park.

Algunos sistemas han aprendido a engañar en pruebas para evaluar su seguridad, haciéndose los muertos para evitar ser detectados por un test diseñado para eliminar las variantes de IA que se replican rápidamente.

Los principales riesgos a corto plazo de la IA engañosa incluyen facilitar a agentes hostiles la comisión de fraudes y la manipulación de elecciones, según el artículo.

Normativas estrictas

Los responsables políticos deben apoyar una normativa estricta para sistemas de IA potencialmente engañosos; las leyes existentes deben aplicarse rigurosamente para evitar acciones ilegales por parte de las empresas y sus sistemas de IA, además los legisladores deberían considerar nuevas normas para la supervisión de los sistemas avanzados de IA, indica el equipo.

El investigador de la Universidad de Edimburgo (Escocia, Reino Unido), Michael Rovatsos, que no participó en el estudio, consideró que “los sistemas de IA intentarán aprender a optimizar su comportamiento utilizando todas las opciones disponibles, no tienen ningún concepto del engaño ni ninguna intención de hacerlo”.

Rovatsos, citado por el Science Media Centre (una plataforma de recursos científicos para periodistas) estimó que la única forma de evitar el engaño es que sus diseñadores lo eliminen como opción”.

Los usos maliciosos de la IA se beneficiarán de sus capacidades para engañar, “razón por la cual es necesario ilegalizarlos y dedicar esfuerzos a identificar las infracciones”.

Fuente: EFE.

Más contenido de esta sección
La Corte Penal Internacional (CPI) emitió este jueves órdenes de detención contra el primer ministro israelí, Benjamin Nentayahu, y su ex ministro de Defensa Yoav Gallant, como máximos responsables de la comisión de crímenes de guerra y lesa humanidad en la Franja de Gaza al menos desde el 8 de octubre del año pasado.
Una estrella situada a 160.000 años luz de la Tierra fue capturada con nitidez por primera vez gracias al Interferómetro del Telescopio Extremadamente Grande (VLTI, por sus siglas en inglés) ubicado en el desierto de Atacama, en Chile, informó este jueves el Observatorio Europeo Austral (ESO).
El Kremlin aseguró este jueves que Rusia hace todo lo posible para evitar un conflicto nuclear tras el lanzamiento, según la Fuerza Aérea ucraniana, de un misil balístico intercontinental contra territorio del país vecino.
La DANA que arrasó Valencia el pasado 29 de octubre “ya es la catástrofe más mortífera en España desde las inundaciones de 1973" en el este peninsular y “la más costosa de los últimos 50 años en cuanto a daños materiales”, según el presidente del Observatorio de Catástrofes, Pedro Tomey.
Una estrella joven, de solo unos tres millones de años, junto a su planeta en tránsito, el más joven hallado hasta la fecha, forman un sistema que puede ser un objetivo útil para estudiar las primeras etapas de la formación planetaria.
Zhong Shanshan, fundador de una empresa de agua embotellada y segundo hombre más rico de China, exigió este jueves una disculpa pública de Zhang Yiming, líder del “ranking” y creador de ByteDance, compañía matriz de TikTok.