Los expertos de todo el mundo están cada vez más preocupados de que el uso de herramientas de inteligencia artificial hará que la edición de fotos y videos sea cada vez más fácil, especialmente las redes sociales con un enorme poder con capacidades internas para compartir. Es muy rápido y no se ha verificado su autenticidad.
Adobe está desarrollando una serie de herramientas, y entre ellas se encuentra una herramienta para ayudar a prevenir esta situación mediante el uso del aprendizaje automático para detectar automáticamente las imágenes editadas.
Su último producto presentado en la conferencia CVPR de este mes muestra que el análisis forense digital creado por humanos se puede automatizar. La investigación no es un gran avance en esta área y no se ha convertido en un producto comercial, pero también es interesante ver a Adobe, un nombre bien conocido por software de edición de fotografías, crear dicho producto.
El representante de la compañía dijo que “el proyecto de investigación aún se encuentra en las primeras etapas”, pero que en el futuro quieren contribuir en “el desarrollo de tecnología para monitorear y autenticar la autenticidad de los productos de medios”.
La famosa foto del lanzamiento de un cohete fue lanzada en 2008 por el gobierno iraní.
Específicamente, no todo está claro porque Adobe nunca ha lanzado un software para detectar imágenes falsas. Pero también mencionaron la cooperación con las unidades de aplicación de la ley (como el uso de análisis forense digital para encontrar niños perdidos) como evidencia de su actitud responsable hacia la tecnología.
Una nueva investigación muestra que el aprendizaje automático se puede utilizar para detectar tres estilos comunes de edición de fotos: collage: dos imágenes diferentes se fusionan en una, se copian: los objetos de la imagen se copian y pegan en otra imagen y se eliminan: el objeto se edita desde otras partes de la imagen.
Para hacer esto, los expertos forenses digitales buscan pistas en las capas de la imagen, a menudo debido al color desproporcionado o al brillo tomado del sensor de imagen.
La ilustración del nuevo estudio de Adobe muestra la capacidad de detectar imágenes editadas.
Como muchos otros sistemas de aprendizaje automático, Adobe también usa conjuntos de datos de imágenes editados. A partir de aquí, la IA aprende a encontrar características comunes para detectar lo que se edita. En algunas pruebas, tiene una calificación más alta que otros sistemas, pero no demasiado, ni es capaz de detectar deepfake.
De todos modos, existe una tecnología que detecta cosas que están falsificadas en el mundo digital. La IA puede causar muchas preocupaciones, pero también puede ser útil.
Ver más:
- Al ver cuadros pintados por inteligencia artificial, todos piensan que es obra de un verdadero artista
- 6 pasos para comenzar a aprender programación de inteligencia artificial (IA)
- ¿Cómo funciona Forense?
Inteligencia artificial de Adobe AI
Los expertos de todo el mundo están cada vez más preocupados de que el uso de herramientas de inteligencia artificial hará que la edición de fotos y videos sea cada vez más fácil, especialmente las redes sociales con un enorme poder con capacidades internas para compartir. Es muy rápido y no se ha verificado su autenticidad.
Adobe está desarrollando una serie de herramientas, y entre ellas se encuentra una herramienta para ayudar a prevenir esta situación mediante el uso del aprendizaje automático para detectar automáticamente las imágenes editadas.
Su último producto presentado en la conferencia CVPR de este mes muestra que la ciencia forense digital creada por humanos puede automatizarse. La investigación no es un gran avance en esta área y no se ha convertido en un producto comercial, pero también es interesante ver a Adobe, un nombre bien conocido por software de edición de fotografías, crear dicho producto.
El representante de la compañía dijo que “el proyecto de investigación aún se encuentra en las primeras etapas”, pero que en el futuro quieren contribuir en “el desarrollo de tecnología para monitorear y autenticar la autenticidad de los productos de medios”.
La famosa foto del lanzamiento de un cohete fue lanzada en 2008 por el gobierno iraní.
Específicamente, no todo está claro porque Adobe nunca ha lanzado un software para detectar imágenes falsas. Pero también mencionaron la cooperación con las unidades de aplicación de la ley (como el uso de análisis forense digital para encontrar niños perdidos) como evidencia de su actitud responsable hacia la tecnología.
Una nueva investigación muestra que el aprendizaje automático se puede utilizar para detectar tres estilos comunes de edición de fotos: collage: dos imágenes diferentes se fusionan en una, se copian: los objetos de la imagen se copian y pegan en otra imagen y se eliminan: el objeto se edita desde otras partes de la imagen.
Para hacer esto, los expertos forenses digitales buscan pistas en las capas de la imagen, a menudo debido a un color desproporcionado o al brillo tomado del sensor de imagen.
La ilustración del nuevo estudio de Adobe muestra la capacidad de detectar imágenes editadas.
Como muchos otros sistemas de aprendizaje automático, Adobe también usa conjuntos de datos de imágenes editados. A partir de aquí, la IA aprende a encontrar características comunes para detectar lo que se edita. En algunas pruebas, tiene una calificación más alta que otros sistemas, pero no demasiado, ni es capaz de detectar deepfake.
De todos modos, existe una tecnología que detecta cosas que están falsificadas en el mundo digital. La IA puede causar muchas preocupaciones, pero también puede ser útil.
Ver más:
- Al ver cuadros pintados por inteligencia artificial, todos piensan que es obra de un verdadero artista
- 6 pasos para comenzar a aprender programación de inteligencia artificial (IA)
- ¿Cómo funciona Forense?