SO kann #ChatGPT GEHACKT werden! (Nicht nachmachen!)
In diesem Video erklärt dir, @florian_dalwigk ,wie ChatGPT und andere #LargeLanguageModes (LLM) gehackt werden können.
#PromptInjection ist einer der gefährlichsten Angriffsvektoren auf KI-Anwendungen.
#Cybersecurity #ChatGPT #Prompt
#prompt #cybersecurity #promptinjection #largelanguagemodes #hacking #chatgpt