A proposito di Vall-E, l'#IntelligenzaArtificiale di #Microsoft che promette di replicare qualunque voce dopo soli 3 secondi di ascolto di quella originale (di cui vi parlavo qualche giorno fa).
In particolare, pare che gli stessi ricercatori di Microsoft (nel loro paper, che riporto nel link) si siano accorti dei potenziali rischi a cui già facevamo cenno...
Continua: https://www.linkedin.com/posts/marco-mambrini_vall-e-paper-activity-7022835248795168768-cJZv
#AI #spoofing #IA #etica #DataProtection #fake #Vall_E #VallE #deepfake
#intelligenzaartificiale #microsoft #ai #spoofing #ia #etica #dataprotection #fake #vall_e #valle #deepfake
Due articoli di approfondimento per comprendere meglio e riflettere su quella che sembra essere diventata la nuova frontiera del #fake: l'impiego dell'#IntelligenzaArtificiale per creare audio con la voce di chiunque vogliate, dal vostro amico al noto politico o, perché no, al Direttore Generale della vostra azienda.
#AI #Microsoft #etica #DataProtection #phishing #sociologia #IA #deepfake #fakenews #VallE #Vall_E
#fake #intelligenzaartificiale #ai #microsoft #etica #dataprotection #phishing #sociologia #ia #deepfake #fakenews #valle #vall_e
An interesting paper from Microsoft:
Neural Codec Language Models are Zero-Shot Text to Speech Synthesizers
https://valle-demo.github.io/
ABS: Specifically, we train a neural codec language model (called VALL-E) using discrete codes derived from an off-the-shelf neural audio codec model, and regard TTS as a conditional language modeling task rather than continuous signal regression as in previous work.
#ai #language_model #speech_synthesis #vall_e #tts #neural_networks
#ai #language_model #speech_synthesis #vall_e #tts #neural_networks