En ny granskning gjord av Storbritanniens nyligen etablerade AI-säkerhetsinstitut, AI Safety Institute, har testat fem stora språkmodeller och kommit fram till att samtliga är ”högst sårbara” mot jailbreak-attacker som kan komma runt deras säkerhetsspärrar,
Läs mer här