En la era del crecimiento en Internet, así como en las plataformas de redes sociales con miles de millones de usuarios en la actualidad, las noticias falsas se están convirtiendo realmente en un problema en todo el mundo. Deepfake es parte de ese lío.
Deepfake es una tecnología que sintetiza imágenes humanas basadas en inteligencia artificial (IA) utilizando una técnica de aprendizaje automático llamada Generative Adversarial Network. Con esta función, a menudo se usa para crear noticias falsas y estafas maliciosas. Los videos falsos comenzaron a inundar Internet unos años antes de que los malhechores se dieran cuenta de que podían usarse para difamar la reputación personal, obtener ganancias ilegales y difundir información política falsa. Con la mejora continua de los algoritmos de IA, Deepfake es cada vez más difícil de detectar.
En respuesta al problema de Deepfake, los expertos en seguridad han desarrollado herramientas de inteligencia artificial que pueden descifrar la composición del código, así como los detalles más pequeños de una imagen y video a nivel de píxel para detectar el phishing. . Pero cuando esta tecnología de seguridad se vuelve efectiva gradualmente, siguen surgiendo dificultades.
Un equipo de investigadores de la Universidad de San Diego descubrió recientemente un método relativamente simple para eludir los últimos sistemas falsos de detección de video basados en IA.
Por lo tanto, el equipo realizó algunos ajustes de código en los videos falsos sintetizados utilizando los métodos de creación de Deepfake existentes. Específicamente, para códecs que comprimen imágenes y videos, creando así perturbaciones contradictorias complejas que la herramienta de detección de Deepfake no pudo descifrar y dejar contenido falso.
La primera imagen a continuación muestra que la herramienta de detección Deepfake funciona correctamente, mientras que el segundo video muestra lo que sucede cuando los investigadores realizan algunos ajustes diseñados para engañar a la herramienta de detección. Deepfake, aunque la diferencia es casi imperceptible a simple vista.
Básicamente, las herramientas de detección de video falso examinan cada fotograma del video para identificar cambios anormales. El equipo de investigación de la Universidad de San Diego ha desarrollado un proceso para colocar información de interferencia en cada cuadro, lo que hace que la herramienta de detección de Deepfake asuma que el video es normal.
Este estudio mostró que los sistemas modernos de detección de video falsificados todavía tienen serias limitaciones. En esencia, se puede concluir que los agentes malintencionados “altamente capacitados” pueden encontrar una manera de eludir todas las herramientas de identificación de Deepfake existentes.
Noticias de inteligencia artificial falsas profundas
En la era del crecimiento en Internet, así como en las plataformas de redes sociales con miles de millones de usuarios en la actualidad, las noticias falsas se están convirtiendo realmente en un problema en todo el mundo. Deepfake es parte de ese lío.
Deepfake es una tecnología que sintetiza imágenes humanas basadas en inteligencia artificial (IA) utilizando una técnica de aprendizaje automático llamada Generative Adversarial Network. Con esta función, a menudo se usa para crear noticias falsas y estafas maliciosas. Los videos falsos comenzaron a inundar Internet unos años antes de que los malhechores se dieran cuenta de que podían usarse para difamar la reputación personal, obtener ganancias ilegales y difundir información política falsa. Con la mejora continua de los algoritmos de IA, Deepfake es cada vez más difícil de detectar.
En respuesta al problema de Deepfake, los expertos en seguridad han desarrollado herramientas de inteligencia artificial que pueden descifrar la composición del código, así como los detalles más pequeños de una imagen y video a nivel de píxel para detectar el phishing. . Pero cuando esta tecnología de seguridad se vuelve efectiva gradualmente, siguen surgiendo dificultades.
Un equipo de investigadores de la Universidad de San Diego descubrió recientemente un método relativamente simple para eludir los últimos sistemas falsos de detección de video basados en IA.
Por lo tanto, el equipo realizó algunos ajustes de código en los videos falsos sintetizados utilizando los métodos de creación de Deepfake existentes. Específicamente, para códecs que comprimen imágenes y videos, creando así perturbaciones contradictorias complejas que la herramienta de detección de Deepfake no pudo descifrar y dejar contenido falso.
La primera imagen a continuación muestra que la herramienta de detección Deepfake funciona correctamente, mientras que el segundo video muestra lo que sucede cuando los investigadores realizan algunos ajustes diseñados para engañar a la herramienta de detección. Deepfake, aunque la diferencia es casi imperceptible a simple vista.
Básicamente, las herramientas de detección de video falso examinan cada fotograma del video para identificar cambios anormales. El equipo de investigación de la Universidad de San Diego ha desarrollado un proceso para colocar información de interferencia en cada cuadro, lo que hace que la herramienta de detección de Deepfake asuma que el video es normal.
Este estudio mostró que los sistemas modernos de detección de video falsificados todavía tienen serias limitaciones. En esencia, se puede concluir que los agentes malintencionados “altamente capacitados” pueden encontrar una manera de eludir todas las herramientas de identificación de Deepfake existentes.