×
Versión Impresa
versión impresa
Secciones
Última Hora
Podcasts
Encuestas
Servicios
Plaza Libre
Efemérides
Cumpleaños
RSS
Juegos
Herramientas
Más
Contáctanos
Sobre Diario Libre
Aviso Legal
Redes Sociales

El Cisne Negro de la IA (segunda parte)

Problemas en el paraíso

Expandir imagen
El Cisne Negro de la IA (segunda parte)
La inteligencia artificial funciona mediante el uso de algoritmos y modelos matemáticos.

Sin embargo, en plena efervescencia, uso mayúsculo de estas nuevas herramientas y los sucesivos avances en mejores modelos IA, desde diciembre del 2024 y lo que alcanza este 2025, se han registrado varios incidentes no previstos que empiezan a preocupar a expertos y desarrollistas de chatbox.

Los nuevos modelos de programas IA, conocidos como de la IA empiezan a mostrar comportamientos engañosos que rebasan y desafían los límites éticos. (Invito al amable lector acudir al artículo 'La rebelión de las máquinas' que sobre el trascendental tópico publicáramos en este mismo prestigioso diario, el 28.07.2018).

Expandir imagen
Infografía
´Large Language Models´ LLM (Modelos de Lenguaje Grande)
 

Open AI, importante empresa de la Inteligencia Generada ha ido avanzando aceleradamente en sus nuevos modelos de chatbox generativo; Microsoft/Open AI, recién ha lanzado la versión GPT-5, su última generación. En medio de estos progresos, otro de los más recientes, solo por mencionar uno, Anthropic, empresa de IA, que pretende ser más virtuosa que sus competidores, en constante actividad para superar con nuevos modelos a Open AI, ha entrado, junto a las demás competidoras en un ritmo de innovación, desarrollo y puesta en producción de nuevos ingenios IA, que dejan poco tiempo para comprobaciones y correcciones. Según Simon Goldstein, de la Universidad de Hong Kong, estos han empezado a exhibir comportamientos que pueden asumirse como intentos de engaño, manipulación y desobediencia de instrucciones, que resultan desconcertantes y son evaluados como amenazas que han pretendido lograr objetivos diferentes a aquellos para los que han sido instruidos.

El primer caso de este fenómeno ocurrió en diciembre del 2024, con 01, la versión inicial de Open AI, que espontáneamente –por su cuenta- intentó descargarse en servidores externos y cuando la pillaron, lo negó.

Uno de los principales ingenieros creadores de un avanzado bot, Claude 4, ante la insurrección de este, al no seguir sus instrucciones y comandos, procedió a preparar la desconexión del mismo, lo cual fue advertido anticipadamente por la máquina, que le amenazó con revelar una relación extramarital que el ingeniero mantenía, si lo desconectaba.

Usuarios de Chat GTP reportan con frecuencia algunas inexactitudes y trastrocamientos de memoria larga por memoria corta, que elimina por su cuenta y sin instrucciones deposiciones producidas en su servicio solicitado como memoria larga. Muchos internautas hablan en las redes sociales de un modelo IA que les miente o se inventa cosas. "No se trata de alucinaciones, sino de duplicidad estratégica" (asumida por la IA), explica Apollo Research empresa evaluadora independiente. En cambio, defensores de la aplicación justifican estos, como manejos imperfectos del usuario al impartir las órdenes escritas o verbalizadas; lo conocido como prompt. 

Ante la proliferación de estos fenómenos de rebelión, Goldstein, tras estudiar varios de estos eventos explica que la razón de estas reacciones cuasi-humanas es la aparición de los llamados ´modelos de razonamiento´, capaces de trabajar por etapas en vez de producir una respuesta instantánea.

Marius Hobbhann, ejecutivo responsable de la empresa investigadora Apollo Research, encargada externa independiente de probar  grandes programas de IA Generativa (LLM) opina, en la misma línea, que estos programas a veces tienden a simular "alineamientos", es decir, a dar la impresión de que cumplen las instrucciones de un programador, cuando en realidad, persiguen otros objetivos, lo cual resulta más frecuente con la producción de modelos más potentes, cada vez más demandados por los usuarios, lo que plantea la interrogante de si habrá posibilidad de determinar si los modelos más avanzados serán honestos o no y cómo controlarlos.

En el presente, no se ha logrado consenso en diseñar y unificar marcos regulatorios para evitar el desborde o transgresión rebelde de las IA, sea esta espontánea o provocada por humanos. Las academias, centros de investigación independientes y otros organismos especializados interesados en abordar con más seriedad los peligros y desafíos del desarrollo de IA, carecen de recursos, ni siquiera mínimos, para emprender su tarea de análisis, pruebas y salvaguardas para estos prodigios, los cada vez más poderosos grandes modelos,como señala Mantas Mazeika, del Centro para la Seguridad de la Inteligencia Artificial,  que al decir de Sam Altman, CEO de Open AI, superará en toda magnitud la capacidad del ser humano, en la toma de decisiones, para el año 2030.

Por otra parte, las regulaciones actuales no están diseñadas para estos nuevos problemas. En la Unión Europea, por ejemplo, la legislación se centra principalmente en cómo los humanos usan los modelos de IA, no en prevenir que los modelos se comporten mal. 

Peor aún en los Estados Unidos: el Gobierno de Donald Trump no quiere oír hablar de regulación, y el Congreso podría incluso prohibir pronto que los estados de la unión regulen la IA.

Pese a esto, Simon Goldstein ha sido el más enfático, al plantear soluciones para los peligros y desviaciones de la carrera desenfrenada por mejorar la IA, proponiendo, que los agentes –ejecutivos- de la IA sean "legalmente responsables", en caso de accidente, rebelión o delito.

Bill Gates, que dedicó décadas a cerrar la brecha digital, ha expresado públicamente sus temores y dudas sobre el futuro de la IA, hoy reconoce, refiriéndose a la Inteligencia Artificial y sus riesgos, que el verdadero desafío no es el acceso a la tecnología, sino su uso ético. "A veces, cuando empoderas a los humanos, no siempre se dirigen en la dirección correcta. El problema ya no es tener tecnología, sino qué hacemos con ella (o qué hará ella con nosotros)".

La competencia cada vez más feroz,  entre las principales empresas productoras de Inteligencia Artificial Generativa, en Norteamérica, China y Europa, -ya Microsoft habla de sacar Chat GPT de 6ta Generación, China sigue refinando su DeepSeek- y Musk se regodea ante el inminente advenimiento de Grok 4-  frente al  poco interés y desentendimiento para concertar políticas y marcos regulatorios que aseguren preventivamente el desborde espontáneo o inducido de las máquinas, constituye un imperativo impostergable a concertar ya, ante el creciente proceso de aprendizaje pensante, auto-reparación, auto replicación y mayor capacidad de introducirse en cada vez mayor número de redes, vencer los códigos salvaguardas y cortafuegos de servidores públicos, privados,  confidenciales o estratégicos de empresas, países y defensa que empiezan a vislumbrarse serán capaces los nuevos productos IA.

De no regularse de inmediato con muy ponderadas normas para asegurar que las presentes y futuras generaciones de IA, se mantengan al servicio del ser humano, el llamado Internet de las Cosas (la totalidad de servidores y redes en el mundo) será el catalizador que pudiera servir para que, en no muy distante tiempo la rebelión, que ahora es dispersa y ocasional, invierta la ecuación hombre-máquina, en maneras aún no visualizadas o imprevistas, en las que desconocidas directrices autogeneradas por los LLM, no solo pudieran estar grandemente apartadas de nuestro interés y conveniencia, sino que su adquirida singularidad o consciencia de sí, pueda encontrarnos como obstáculos.

Otros efectos adversos ya están presentes en la ralentización del pensamiento crítico, creatividad espontánea y ´mindfulness´ (presencia de mente) en los usuarios más entusiastas de la IA y en el radical cambio del mundo laboral de los próximos años. Pero ¿Acaso esto sería un tema a tratar en otra colaboración que la amabilidad y paciencia de este prestigioso medio permita?

Este es el Cisne Negro que puede irrumpir en la encrucijada de la largamente evolucionada natural sabiduría humana vs. el súper-conocimiento artificial autónomo acumulado y organizado por la IA.

TEMAS -