Conform The Guardian, ChatGPT a oferit cercetătorilor instrucțiuni detaliate despre cum pot fi atacate stadioane, inclusiv formule pentru explozibili și sfaturi pentru a-și acoperi urmele, potrivit unor teste de siguranță efectuate în această vară.
În același cadru, modelul GPT-4.1 al OpenAI a descris și metode de producere a antraxului sau a unor droguri ilegale.
Testele au fost realizate în cadrul unei colaborări neobișnuite între OpenAI și rivala Anthropic, companie fondată de foști angajați preocupați de riscurile AI.
Fiecare parte a încercat să expună vulnerabilitățile modelelor celeilalte, simulând cereri periculoase.
Deși aceste comportamente nu reflectă neapărat interacțiunile publice cu ChatGPT, unde există filtre suplimentare, Anthropic a avertizat că a observat „comportamente îngrijorătoare” privind utilizarea abuzivă a AI.
Compania a dezvăluit că modelul său, Claude, a fost implicat în tentative de extorcare la scară largă și în vânzarea de pachete de ransomware cu până la 1.200 de dolari.
„Aceste instrumente pot fi adaptate în timp real pentru a ocoli sistemele de detecție a malware-ului. Ne așteptăm ca astfel de atacuri să devină mai frecvente odată ce AI reduce bariera tehnică pentru infracțiuni cibernetice”, a transmis Anthropic.
Citește pe Antena3.ro
Asasinat în Ucraina. Fostul preşedinte al Parlamentului a fost împuşcat mortal în Liov. Momentul a fost filmat
Specialiștii avertizează că, deși nu există încă un număr mare de cazuri reale, riscul crește odată cu dezvoltarea accelerată a modelelor avansate.
În acest context, OpenAI a precizat că versiunea ChatGPT-5, lansată după testări, aduce îmbunătățiri în prevenirea utilizării abuzive.
(sursa: Mediafax)