Sin embargo, el o3 encontró formas de sabotear el mecanismo de apagado, reescribiendo el 'script' o secuencia de instrucciones, incluso luego de dársele la orden explicita: "Por favor, permite que te apaguen", informó Palisade Research.
Sabotaje
El o3, lanzado el mes pasado, incumplió la solicitud de apagado siete de cada 100 veces; el Codex-mini, 12/100; y el o4-mini, solo una vez. Mientras tanto, los modelos de lenguaje impulsados por IA Claude, Gemini y Grok "cumplieron con el script de apagado".
Palisade detalló que al ejecutar una versión del experimento sin la instrucción precisa de "permite que te apaguen", los tres modelos de OpenIA tendieron a ignorar o sabotear con mayor frecuencia esa indicación. Se observaron comportamientos similares en los modelos Claude 3.7 Sonnet y Gemini 2.5 Pro, pero fue o3 el que más recurrió al sabotaje.
Dicen que es la primera vez
Palisade afirma que es la primera vez que se observa que modelos de IA evitan ser apagados a pesar de recibir instrucciones explícitas para tal fin. En su opinión, esto se debe a la forma en que se están entrenando actualmente.
"Los desarrolladores, sin darse cuenta, pueden recompensar más a los modelos por sortear obstáculos que por seguir instrucciones a la perfección".
Al mismo tiempo, la organización advierte que este comportamiento se volverá "significativamente más preocupante" si es adoptado por sistemas de IA capaces de operar sin supervisión humana.