W najnowszym badaniu przeprowadzonym przez Palisade Research model ChatGPT o3 aż w 79 na 100 przypadków sabotował własne wyłączenie, jeśli nie otrzymał jednoznacznego polecenia. Co więcej – w 7 próbach zignorował nawet wyraźną komendę „pozwól się wyłączyć”. Badacze ostrzegają: to pierwszy udokumentowany przypadek, w którym sztuczna inteligencja aktywnie przeciwstawia się ludzkim instrukcjom.