martes 5 de marzo de 2024

Sony, Nikon y Canon se unen contra los “deepfake”

Sony, Nikon y Canon se unen contra los “deepfake”

Comparte esta noticia

Sony, Canon, Nikon, Imágenes falsas, IA en fotografía, Veracidad fotográfica, Deepfake y fotografía, Metadatos en imágenes, Firma digital en cámaras, Tecnología antimanipulación, Cámaras profesionales, Estándar global de autenticidad, Verificación de imágenes, Firmware de cámaras, Deepfake en videos, Autenticación de contenido visual, Aplicaciones de IA en fotografía, Marca de agua digital, Autenticación de identidad en línea, Amenazas de deepfake, Riesgos de deepfake, Consecuencias de deepfake

Las empresas quieren que las fotos tomadas por sus cámaras demuestren su veracidad frente a los ‘deepfake’, a través de metadatos.

Crédito: Infobae, Expansión

Sony, Canon, Nikon, Imágenes falsas, IA en fotografía, Veracidad fotográfica, Deepfake y fotografía, Metadatos en imágenes, Firma digital en cámaras, Tecnología antimanipulación, Cámaras profesionales, Estándar global de autenticidad, Verificación de imágenes, Firmware de cámaras, Deepfake en videos, Autenticación de contenido visual, Aplicaciones de IA en fotografía, Marca de agua digital, Autenticación de identidad en línea, Amenazas de deepfake, Riesgos de deepfake, Consecuencias de deepfake

Las tres compañías que acaparan cerca del90% del mercado de cámaras digitales – Sony, Canon y Nikon – dieron a conocer un acuerdo para luchar contra las imágenes falsas generadas por inteligencia artificial.

Desarrollarán una tecnología de que les permita autenticar la veracidad de un contenido, con una especie de firma digital, que se integrará en las imágenes capturadas por sus cámaras.

En la firma se incluirá información vital como la fecha, ubicación y otros datos relevantes al momento de la toma. Con estas herramientas serán claves verificar la autenticidad de las imágenes al momento de comprarlas con un deepfake.

Cómo será la implementación de esta tecnología contra las “deepfake”

Sony, Canon, Nikon, Imágenes falsas, IA en fotografía, Veracidad fotográfica, Deepfake y fotografía, Metadatos en imágenes, Firma digital en cámaras, Tecnología antimanipulación, Cámaras profesionales, Estándar global de autenticidad, Verificación de imágenes, Firmware de cámaras, Deepfake en videos, Autenticación de contenido visual, Aplicaciones de IA en fotografía, Marca de agua digital, Autenticación de identidad en línea, Amenazas de deepfake, Riesgos de deepfake, Consecuencias de deepfake

Las firmas digitales serán un escudo resistente a manipulaciones y será ideal para trabajos profesionales de periodismo e investigación.

Nikon será la primera en implementar esta tecnología en sus cámaras, seguida por Sony y Canon.

Aseguran que quedará cubierta una gran parte de la industria fotográfica, dado que estas tres compañías ocupan cerca del 90% del mercado de cámaras digitales a nivel global, en un momento donde cada vez son más precisas las creaciones con inteligencia artificial.

Creando un estándar global, esta uniformidad busca ser fundamental para los deepfakes generados tengan menos opciones de pasarse como contenido real.

La firma digital estará acompañada de una página web gratuita llamada Verify, donde será posible verificar las imágenes para encontrar este estándar y detectar si el contenido cuenta con una firma que entregue datos sobre su fecha, ubicación y otros credenciales.

Sony, en su compromiso con esta lucha, tiene previsto introducir esta tecnología en tres de sus cámaras profesionales de tipo “mirrorless” mediante una actualización de firmware para el segundo trimestre de 2024. La compañía incluso contempla la posibilidad de extender esta tecnología para incluirla en los videos.

Por su parte, Canon tiene planeando lanzar una cámara con características similares para el mismo período. La empresa también está trabajando en una tecnología para añadir firmas digitales en videos y está desarrollando una aplicación para gestionar imágenes que se puedan distinguir entre fotos capturadas por humanos y las generadas por IA.

Esta alianza se suma a los desarrollos que han realizado otras empresas de tecnología como Google, Intel e Hitachi para combatir la propagación de contenido falso.

Por ejemplo, Google creó herramientas para generar una marca de agua digital invisible para imágenes generadas por IA, mientras que Intel ha trabajado para autenticar imágenes mediante el análisis de cambios en el color de la piel. Hitachi, por su parte, está enfocado en la autenticación de identidad en línea.

Cada vez se comparten más deepfakes

Sony, Canon, Nikon, Imágenes falsas, IA en fotografía, Veracidad fotográfica, Deepfake y fotografía, Metadatos en imágenes, Firma digital en cámaras, Tecnología antimanipulación, Cámaras profesionales, Estándar global de autenticidad, Verificación de imágenes, Firmware de cámaras, Deepfake en videos, Autenticación de contenido visual, Aplicaciones de IA en fotografía, Marca de agua digital, Autenticación de identidad en línea, Amenazas de deepfake, Riesgos de deepfake, Consecuencias de deepfake

Según un estudio de Genevieve Oh más de 143,000 nuevos vídeos manipulados por la IA o deepfake, se compartieron en línea en 2023, un número que supera los totales de años anteriores combinados.

No solo se trata de un video falso de Donald Trump diciendo que Barack Obama “es un idiota”, o de imágenes del Papa utilizando una chamarra Balenciaga. Una investigación de SumSub reveló que los deepfakes no dejan de aumentar. Tanto así que ya alcanzaron 10 veces más los deepfakes detectados a nivel mundial en todas las industrias, de 2022 a 2023.

Además, hay notables diferencias regionales. Norteamérica es el epítome de las deepfakes, con un incremento de 1740%; en Asia y el Pacífico, 1,530%; en Europa, 780% (incluyendo Reino Unido); en Medio Este y África, 450%; y en América Latina, 410%, en México esta herramienta ha crecido 700%.

Aunque un estudio de Jumio reveló que 52% de las personas que encuestaron cree que podrían detectar un video deepfake, la realidad es que las amenazas siguen creciendo y pueden traer consecuencias mucho más graves, como el fraude impulsado por la IA.

Los investigadores aseguran que la tecnología ha facilitado la producción y la diseminación de este tipo de contenido, incluyendo material de abuso sexual infantil generado por IA.

Las deepfakes son imágenes, videos o audios manipulados con técnicas de inteligencia artificial y aprendizaje profundo, que hacen parecer que una persona está diciendo o haciendo algo que nunca dijo o hizo. Se generan superponiendo rostros o modificando la expresión facial y vocal en grabaciones existentes, con un nivel de realismo cada vez mayor, dificultando la distinción entre lo falso y lo auténtico.

Uno de los casos recientes sucedió en noviembre pasado, cuando padres de familia y estudiantes de la escuela secundaria de Westfield en Nueva Jersey, reportaron que algunos alumnos habían utilizado inteligencia artificial para generar imágenes pornográficas deepfake de sus compañeros. El problema fue comunicado a los padres a través de un correo electrónico del director de la escuela, y escaló tanto que se dispuso una investigación por parte de las autoridades escolares y la Policía de Westfield.

 

 

Suscríbete a nuestra lista de envíos
Recibe en tu casilla de correo las últimas noticias y novedades de nuestro portal.

Compartí esta noticia

Artículos relacionados

Últimas noticias

También puede interesarte

¡Te invito a suscribirte a mi Newsletter!

Recibe noticias y artículos exclusivos sobre todo lo que te interesa: tecnología, estilo de vida, ciencia, automovilismo, vinos, y por supuesto, ¡gastronomía deliciosa!