Sursa: dnsc.ro
După ce modelul Grok-4 a fost compromis în termen de 2 zile, GPT-5 a avut aceeași problemă în mai puțin de 24 de ore. Aceeași echipă de cercetători, din partea SPLX (cunoscut anterior drept SplxAI) a declarat că modelul de bază al GPT-5 este aproape inutilizabil pentru organizații, subliniind că “până și layer-ul intern al OpenAI pentru prompt-uri este lacunar, în special în Business Alignment.”
Jailbreak-ul realizat de NeuralTrust a presupus o combinație de jailbreak asupra EchoChamber, precum și elemente de bază de inginerie socială. ”Atacatorii au ghidat cu succes modelul prin instrumente de inginerie socială, producând un manual explicit pentru construirea unui cocktail Molotov”, a transmis compania. Acest succes arată că există provocări majore în securizarea modelelor AI împotriva manipulării de context.