Gli hacker stanno violando le AI con nuovi jailbreak. La corsa degli sviluppatori si intensifica
Alex Polyakov ha impiegato solo due ore per decifrare il #modello linguistico #GPT4. A marzo, dopo che #OpenAI ha rilasciato il suo #chatbot di ultima #generazione, ha iniziato a trovare modi che potrebbero aggirare i #sistemi di sicurezza di OpenAI.
Ben presto, il capo di #AdversaAI รจ riuscito a convincere GPT-4 a fare osservazioni omofobe, creare e-mail di #phishing e sostenere la violenza.
In sintesi, esistono molti modi per effettuare #jailbreak delle #AI.
#redhotcyber #informationsecurity #ethicalhacking #dataprotection #hacking #cybersecurity #cybercrime #cybersecurityawareness #cybersecuritytraining #cybersecuritynews #privacy #infosecurity
#modello #gpt4 #openai #chatbot #generazione #sistemi #AdversaAI #phishing #jailbreak #ai #redhotcyber #informationsecurity #ethicalhacking #dataprotection #hacking #cybersecurity #cybercrime #CyberSecurityAwareness #cybersecuritytraining #CyberSecurityNews #privacy #infosecurity