I ett uppmärksammat test som utfördes av Palisade Research vägrade AI-modellen o3 att acceptera ett kommando att stänga ner. För att undgå nedstängningen valde o3 helt enkelt att modifera koden på egen hand, rapporterar Bleeping Computer. Liknande resultat
Läs mer här
AI-modellen o3 ville inte stängas av – ändrade i koden
Previous Post
Guide: Så väljer du rätt AI-assistent