24 nov. 2024

La inteligencia artificial y el despertar de la nueva realidad.

ALARMA. Expertos de la Universidad de Oxford alertan sobre la necesidad de una regulación. CRECIMIENTO. El ChatGPT, por sus capacidades, vuelve a lanzar el debate sobre los riesgos. SENTENCIA. Un magistrado utiliza inteligencia artificial para emitir fallo en causa de un niño. Susto. Facebook tuvo que suspender la IA luego de que esta comenzara a hablar.

Inteligencia Artificial_programa-puedes-chatear-inteligencia-artificial_40744225_40744726.jpg

La inteligencia artificial está acaparando el mundo entero y preocupa a las grandes compañías.

Archivo ÚH

  • Agencias

La inteligencia artificial ofrece muchas promesas para la humanidad, pero también podría representar una amenaza más peligrosa que la bomba nuclear. Con su capacidad de aprender y evolucionar de forma autónoma, la IA podría superar algún día a la inteligencia humana. Entonces podría decidir volverse contra.

Este oscuro presagio puede parecer sacado directamente de una película de ciencia ficción, pero es una posibilidad muy real. Destacados expertos como Stephen Hawking, Elon Musk o Bill Gates ya han dado la voz de alarma sobre la inteligencia artificial.

Según ellos, la IA representa un riesgo inminente e inevitable en los próximos años. Por eso, piden a los gobiernos que regulen este campo para que se desarrolle de forma ética y segura. Más de un centenar expertos ha pedido también a Naciones Unidas que prohíba los “robots asesinos” y otras armas militares autónomas.

Sin embargo, otros expertos creen que el futuro de la inteligencia artificial depende únicamente de cómo decidan utilizarla los humanos. Incluso una IA aparentemente inofensiva podría manipularse y utilizarse de forma malintencionada. Ya podemos verlo con el incremento de los DeepFakes: vídeos falsos creados mediante Deep Learning para mostrar a una persona en una situación comprometida.

La inteligencia artificial seguirá desarrollándose a gran velocidad en los próximos años. La humanidad es quien debe decidir qué dirección tomará su desarrollo.

La empresa OpenAI, en pleno auge, lanzó este miércoles una lista de espera para una versión profesional y de pago de su software estrella ChatGPT, que ha encendido el debate sobre la inteligencia artificial (IA) y el futuro del trabajo humano.

QUÉ ES CHATGPT. GPT-3 (Generative Pretrained Transformer 3) es un modelo de IA de procesamiento lingüístico de última generación desarrollado por OpenAI, en la que participa, entre otros Elon Musk. Es capaz de generar texto similar al humano y tiene una amplia gama de aplicaciones. Esta aplicación es toda una revolución en lo que respecta a aportar información y responder a preguntas de forma similar a lo que ocurriría en una conversación normal porque ha sido educada mediante IA y aprendizaje automático.

Es uno de los modelos de IA de procesamiento del lenguaje más grandes y potentes hasta la fecha, con 175.000 millones de parámetros. El chatbot, como él mismo afirma, es aún un prototipo y representa lo último de una larga serie de tecnologías GPT (Generative Pre-Trained Transformer). La razón por la que se ha descrito como una alternativa a Google es que es capaz de proporcionar muchas de las mismas funciones que Google ofrece a los usuarios.

CRÍTICAS DE EXPERTOS. De acuerdo con una investigación de la Universidad de Oxford y Google publicada en AI Magazine la inteligencia artificial podría terminar con la humanidad. El estudio, liderado por los científicos Marcus Hutter, senior de DeepMind, Michael Cohen y Michael Osborne de Oxford, concluye que una IA demasiado inteligente “probablemente” aniquilaría a los humanos.

El estudio resume la posibilidad que pueden llegar a tener las máquinas desarrolladas con IA para aprender a hacer trampas, buscar atajos y así obtener recompensas con las que puedan tener acceso a los recursos del planeta.

Esto puede conducir a un juego en el que humanos e IA terminen en una lucha donde solo uno quede en pie. Y según los expertos –en consonancia con lo que ha imaginado la literatura y reflejó el cine– las máquinas tienen todas las de ganar.

“Bajo las condiciones que hemos identificado, nuestra conclusión es mucho más sólida que la de cualquier publicación anterior: Una catástrofe existencial no solo es posible, sino probable”, aseguran los científicos.

La hipótesis más factible sería que unos “agentes desalineados” superavanzados percibieran que las personas se interponen en su camino por una recompensa.

Según recogen los científicos “una buena manera para que un agente mantenga el control a largo plazo de su recompensa es eliminar las amenazas potenciales y usar toda la energía disponible para asegurar su conquista”.

La solución, según los científicos, es progresar de manera lenta y precavida en las tecnologías de IA.

Facebook tuvo que apagar su IA por desarrollar su idioma

Facebook apagó la tecnología en inteligencia artificial que era entrenada para realizar negociaciones. El motivo: había creado su propio idioma, uno más “eficiente” y “lógico” que el inglés con el que había sido entrenada, informa Digital Journal. La máquina fue “eliminada” solo pocos días después de iniciar sus pruebas, precisa Gizmodo.

El nuevo lenguaje era extraño y aparentemente erróneo. Fue elaborado por los 2 agentes con los que contaba la tecnología: Bob y Alice. Investigadores querían que estas “figuras” aprendan a negociar, pero de repente dejaron de hablar en inglés para conversar en algo similar a palabras aleatorias y sin sentido. Aparentemente, se había cansado de los diversos matices e inconsistencias del idioma. Así, su lenguaje convirtió el inglés en un sistema de palabras de código. El gran problema no era la iniciativa, sino que las frases empleadas llegaron a ser ininteligibles para ellos –aunque perfectos para los agentes–. Así, la tecnología se comunicaba consigo misma sin que sus creadores sepan sobre qué.

“Gizmodo” compartió un ejemplo de conversación entre los agentes. Bob dijo: “I can i i everything else” (Yo puedo yo yo todo lo demás). Y Alice le respondió: “Balls have zero to me to me to me to me to me to me to me to (bolas tienen cero a mi a mi a mi a mi a mi a mi a). La conversación siguió con estos patrones. No obstante, pese a que en un primer momento todo marchaba como se tenía contemplado, incluso, los bots negociaban entre ellos cada vez más y mejor, ocurrió de la nada un cambio inesperado.

La empresa quiere que su inteligencia artificial se desarrolle en inglés para que pueda relacionarse con cualquier persona y porque sino se fuese el caso, sería imposible la comunicación con la máquina.

Un juez de Colombia resolvió un caso sobre el derecho a la salud de un niño autista con ayuda del robot ChatGPT, siendo la primera sentencia en redactarse a partir de inteligencia artificial en el país.

“Es una ventana inmensa, hoy puede ser ChatGPT, pero en tres meses puede ser cualquier otra alternativa que permita facilitar la redacción de textos y que el juez se apoye en ellos, no con el objetivo de que lo reemplacen”, dijo el juez del caso, Juan Manuel Padilla, en entrevista con Blu Radio.

La sentencia con fecha del 30 de enero resolvió el pedido de una madre para que su hijo autista fuera exonerado del pago de citas médicas, terapias y transporte hacia los centros hospitalarios, pues la familia no cuenta con los recursos económicos para hacerse cargo.

Padilla falló a favor del menor de edad y en la sentencia revela que interrogó al robot conversacional ChatGPT para sustentar su decisión.

“¿Menor autista está exonerado de pagar cuotas moderadoras en sus terapias?”, pregunta el juez y el aplicativo responde: “Sí, es correcto. De acuerdo con la normativa en Colombia, los menores con diagnóstico de autismo están exonerados de pagar cuotas moderadoras en sus terapias”. La sentencia deja constancia de 4 preguntas y respuestas similares. “Los jueces no somos tontos, por el hecho de hacerle preguntas al aplicativo no dejamos de ser jueces, de ser seres pensantes”, explica Padilla.

Pero el profesor Juan David Gutiérrez, de la Universidad del Rosario, lo contradijo y lanzó el debate en Twitter. En un hilo de mensajes el académico formula las mismas preguntas del juez, pero obtiene respuestas distintas.

“Como ocurre con otras IA en otros ámbitos, bajo la narrativa de una supuesta eficiencia se pone en riesgo los derechos fundamentales”, advirtió.

5327810-Libre-308844757_embed

Más contenido de esta sección
Las ventas al público en los comercios pyme de Argentina cayeron un 25,5% interanual en febrero pasado, golpeadas por la pérdida de poder adquisitivo de los consumidores a causa de la elevadísima inflación, y acumulan un declive del 27% en el primer bimestre del año, según un informe sectorial difundido este domingo.
El mandatario decidió crear el fondo nacional de alimentación escolar esperando un apoyo total, pues quién se animaría a rechazar un plato de comida para el 100% de los niños escolarizados en el país durante todo el año.
Un gran alivio produjo en los usuarios la noticia de la rescisión del contrato con la empresa Parxin y que inmediatamente se iniciaría el proceso de término de la concesión del estacionamiento tarifado en la ciudad de Asunción. La suspensión no debe ser un elemento de distracción, que nos lleve a olvidar la vergonzosa improvisación con la que se administra la capital; así como tampoco el hecho de que la administración municipal carece de un plan para resolver el tránsito y para dar alternativas de movilidad para la ciudadanía.
Sin educación no habrá un Paraguay con desarrollo, bienestar e igualdad. Por esto, cuando se reclama y exige transparencia absoluta en la gestión de los recursos para la educación, como es el caso de los fondos que provienen de la compensación por la cesión de energía de Itaipú, se trata de una legítima preocupación. Después de más de una década los resultados de la administración del Fonacide son negativos, así como también resalta en esta línea la falta de confianza de la ciudadanía respecto a la gestión de los millonarios recursos.
En el Paraguay, pareciera que los tribunales de sentencia tienen prohibido absolver a los acusados, por lo menos en algunos casos mediáticos. Y, si acaso algunos jueces tienen la osadía de hacerlo, la misma Corte Suprema los manda al frezzer, sacándolos de los juicios más sonados.
Con la impunidad de siempre, de toda la vida, el senador colorado en situación de retiro, Kalé Galaverna dijo el otro día: “Si los políticos no conseguimos cargos para familiares o amigos, somos considerados inútiles. En mi vida política, he conseguido unos cinco mil a seis mil cargos en el Estado...”. El político había justificado así la cuestión del nepotismo, el tema del momento.