➡️ Generative AI Goes 'MAD' When Trained on AI-Created Data Over Five Times https://www.tomshardware.com/news/generative-ai-goes-mad-when-trained-on-artificial-data-over-five-times
Relacionado:
➡️ The Curse of Recursion: Training on Generated Data Makes Models Forget https://arxiv.org/abs/2305.17493 (via https://masto.ai/@zoomar/110548591762067907)
Se puede detectar si algo está generado por «inteligencia» artificial. Para el ser humano puede ser imperceptible pero no para la estadística. Y la prueba está en que si entrenas un modelo con sus propias salidas acaba generando una «señal» periódica mucho más evidente. Es un poco como el tapón clonador de GIMP/Photoshop. Si utilizas la brocha gorda se nota mucho las áreas de imagen clonadas ya que utilizas pocas muestras de imagen. Si utilizas brocha fina pillas más muestras de imagen, hay más aleatoriedad (entropía) y el resultado es que no se nota tanto. Ahora bien, aún con brocha fina si las muestras no paras de cogerlas del mismo área la entropía se reduce y al final acabas repitiendo lo mismo una y otra vez.
➡️ Entropía (información) https://es.wikipedia.org/wiki/Entrop%C3%ADa_(informaci%C3%B3n)
#MAD #Generative #AI #IA #inteligenciaartificial #artificialintelligence #ModelAutophagyDisorder #Autophagy
#ai #ia #inteligenciaartificial #artificialintelligence #ModelAutophagyDisorder #mad #generative #autophagy