Los modelos de IA han logrado crear imágenes que parecen ya indistinguibles de la realidad
Los sistemas de detección de imágenes generadas por IA no ayudan, sino que agravan el problema
Y eso puede hacer que dejemos de creer incluso en imágenes y vídeos legítimos
¿Real o artificial? Lo demostraba hace poco al republicar una imagen singular. Un sitio web que teóricamente detecta imágenes generadas por IA afirmaba que esa foto del periodista asediado por decenas de personas estaba probablemente generada por inteligencia artificial. Pero el problema es que la imagen era real (hay otras de ese suceso), así que ese servicio de detección fallaba.
El peligro de las máquinas identificando fotos. Estos sistemas de detección de fotos nos condicionan porque nos podemos fiar de sus conclusiones. Es lo que denunciaba recientemente una fotógrafa que manda sus fotos a Instagram y que está viendo como fotos convencionales que envía al servicio son detectadas como generadas por IA.
Pero también nosotros podemos equivocarnos. No parece que los sistemas automáticos de detección funcionen en estos casos, pero nuestros ojos también pueden engañarnos: la evolución de plataformas como Midjourney ha demostrado que el fotorrealismo que pueden conseguir estos modelos de IA generativa es asombroso, y cada vez es más difícil distinguir realidad de ficción.
Y espera, que nos queda el vídeo. En realidad las imágenes son solo parte del problema: la generación de deepfakes de personas que dicen cosas coherentes, mueven los labios de forma coherente cuando los dicen y que parecen ciertamente legítimos están perfeccionándose. Si el vídeo es falso pero razonable, podremos creerlo. Y eso hará que incluso cuando el vídeo sea real, quizás no nos lo creamos.
Font, article de Javier Pastor per a "Xakata"
No hay comentarios:
Publicar un comentario