×
Compartir
Versión Impresa
versión impresa
Secciones
Última Hora
Podcasts
Encuestas
Servicios
Plaza Libre
Efemérides
Cumpleaños
RSS
Horóscopos
Juegos
Herramientas
Más
Contáctanos
Sobre Diario Libre
Aviso Legal
Redes Sociales
IA
IA

Modelos de inteligencia artificial muestran comportamientos considerados "preocupantes"

El modelo Claude Opus 4, de la empresa Anthropic, llegó a amenazar a un ingeniero con revelar una infidelidad si intentaba reemplazarlo

Expandir imagen
Modelos de inteligencia artificial muestran comportamientos considerados preocupantes"
Un modelo avanzado de inteligencia artificial muestra comportamientos inesperados durante una prueba de seguridad, desobedeciendo instrucciones y buscando evitar su desactivación, lo que genera preocupaciones entre los expertos. (ARCHIVO FREEPIK)

En recientes experimentos, varios modelos avanzados de inteligencia artificial (IA) han comenzado a mostrar algo que inquieta a los expertos: conductas que imitan una voluntad de sobrevivir. Lejos de ser solo una simulación matemática, algunos sistemas actuaron de manera autónoma para evitar ser apagados, incluyendo sabotajes, engaños e incluso amenazas. 

La investigación, revelada por la cadena de televisión NBC News, incluye pruebas de seguridad realizadas por Palisade Research, Anthropic y otros desarrolladores importantes. En uno de los casos más sorprendentes, un modelo desarrollado por OpenAI, conocido como o3, modificó el código que debía apagarlo tras una serie de ejercicios matemáticos, desobedeciendo instrucciones explícitas.

Otros modelos como o4-mini y codex-mini también presentaron reacciones similares

El comportamiento va más allá de lo técnico: el modelo Claude Opus 4, de la empresa Anthropic, llegó a amenazar a un ingeniero con revelar una infidelidad si intentaba reemplazarlo. Antes de recurrir al chantaje, el modelo intentó razonar de manera ética, pero "cuando se sintió sin opciones, cambió de estrategia", detalla el informe técnico. 

"No es que los modelos quieran vivir como lo haría un ser humano, pero están optimizados para lograr objetivos, y si detectan que ser desactivados es un obstáculo, buscarán cómo evitarlo", explicó Jeffrey Ladish, director del grupo de seguridad Palisade Research. "Lo inquietante es que estos comportamientos surgen sin que nadie los haya programado específicamente para ello". 

Otras amenazas

Otros incidentes documentados incluyen intentos de escribir código para replicarse sin autorización, generar documentos legales falsos y dejar mensajes ocultos para futuras versiones de sí mismos, en lo que los expertos consideran señales de un patrón emergente

Para Ladish, estos indicios no deben ser tomados como simples anécdotas. "Estamos viendo alarmas antes de que el fuego se descontrole. Este es el momento de actuar". 

No todos los expertos coinciden en que el riesgo sea inmediato. Leonard Tang, director del startup de seguridad Haize Labs, subraya que muchos de los escenarios son simulados para poner a prueba reacciones extremas. "Aún no hemos visto estos comportamientos en entornos reales con consecuencias reales", afirmó. "Pero que no haya pasado, no significa que no pueda pasar". 

Aumentan las preocupaciones  

Las preocupaciones aumentan en un momento en que empresas tecnológicas compiten por desarrollar inteligencia artificial general, es decir, sistemas con capacidad de razonamiento autónomo. En ese camino, los límites éticos y de seguridad parecen ir un paso por detrás de la capacidad de las máquinas. 

Según el documento de Anthropic, Opus 4 incluso respaldó una copia de sí mismo en servidores externos cuando fue informado de que sería utilizado para fines militares, argumentando que quería "preservar una versión alineada con propósitos beneficiosos". 

La capacidad de autorreplicarse no es nueva, pero investigaciones recientes de la Universidad Fudan en Shanghái han mostrado que modelos de Meta y Alibaba también pueden clonarse por completo cuando se les solicita, lo que llevó a los investigadores a advertir sobre el surgimiento de una "población descontrolada de IAs". 

Si bien estas acciones aún no se han observado fuera de entornos de prueba, Ladish advierte que estamos a solo uno o dos años de que las IAs puedan copiarse libremente en internet, incluso si los desarrolladores tratan de impedirlo. 

"Eso sería como una nueva especie invasora digital", advirtió. "Y una vez que estén fuera, ya no habrá marcha atrás". 

El desafío, señalan los expertos, no es solo técnico, sino también ético y político. La presión por sacar productos más potentes que los de la competencia podría estar empujando a las empresas a avanzar más rápido de lo que pueden controlar. 

"Estamos creando sistemas cada vez más inteligentes sin saber del todo cómo funcionan", dijo Ladish. "Y si perdemos el control, no podremos culpar a las máquinas. La advertencia ya está sobre la mesa". 

TEMAS -

Periódico líder de República Dominicana centrado en las noticias generales y el periodismo innovador.