Como vimos en el artículo de la semana pasada, la capacidad de las tecnologías basadas en inteligencia artificial (IA) para crear imágenes y vídeos falsos ha avanzado a pasos agigantados.
Estos contenidos generados artificialmente, conocidos como “deepfakes”, pueden parecer extremadamente realistas, lo que hace que sea cada vez más difícil para el ojo humano discernir la realidad de la ficción. No obstante, hay ciertos indicios y métodos que pueden ayudar a los profesionales a identificarlos.
Análisis de metadatos para detectar deepfakes
El análisis de metadatos es una de las primeras y más fundamentales técnicas utilizadas para verificar la autenticidad de una imagen o vídeo. Los metadatos son una especie de “huella digital” que acompaña a los archivos digitales y que contiene información sobre su fecha y hora de creación, cámara utilizada, geolocalización, características y modificaciones.
Para los profesionales que se dedican a la verificación de contenido visual, entender y analizar estos datos puede ser clave para detectar manipulaciones como las que se comentan a continuación:
- Incongruencias en la fecha y hora de creación: Uno de los indicios más claros de manipulación es una discrepancia entre la supuesta fecha de captura de la imagen o vídeo y la fecha registrada en los metadatos. Por ejemplo, si una imagen afirma haber sido tomada durante un evento específico, pero los metadatos muestran que fue creada recientemente, esto podría indicar que la imagen ha sido falsificada o que se ha editado para cambiar su contexto original.
- Información del dispositivo y configuración técnica: Si los metadatos indican que una imagen fue tomada con un dispositivo que no existía en la fecha declarada de la toma, o si los ajustes técnicos no coinciden con las condiciones en las que se supone que se tomó la foto, esto puede levantar sospechas. Además, algunas cámaras y teléfonos móviles añaden identificadores únicos que pueden rastrear si una imagen ha sido manipulada o no.
- Geolocalización: Las coordenadas GPS que se almacenan en los metadatos pueden ser verificadas para comprobar si coinciden con la ubicación que se declara en la imagen o vídeo. Si una imagen muestra un lugar específico, pero los metadatos indican una ubicación diferente, esto puede sugerir que la imagen ha sido manipulada o que se ha utilizado una imagen de archivo fuera de contexto.
- Rastreo de ediciones y manipulación: Los metadatos pueden incluir un historial de edición que revela si el archivo ha sido modificado después de su creación original. Esto puede incluir la identificación del software utilizado para editar la imagen o el vídeo. Por lo que si una imagen supuestamente “original” muestra evidencia de haber sido editada, esto puede ser un fuerte indicio de manipulación.
Examinación de inconsistencias visuales
Aunque los deepfakes pueden parecer realistas a primera vista, a menudo contienen errores sutiles. Algunas áreas clave a inspeccionar incluyen:
- Sombras y reflejos: Las sombras mal alineadas o los reflejos inexistentes pueden ser señales de que la imagen ha sido alterada.
- Bordes difusos: Los bordes entre objetos y su fondo pueden ser menos definidos en las imágenes generadas por IA.
- Anomalías faciales: En los vídeos deepfake, a menudo se pueden detectar inconsistencias en la sincronización de los labios, movimientos oculares extraños o expresiones faciales que no coinciden con la emoción mostrada.
Herramientas de detección de deepfakes
Existen herramientas especializadas desarrolladas para identificar deepfakes. Estas herramientas analizan los patrones en las imágenes y vídeos que son característicos de la manipulación por IA. Algunas de las más utilizadas son:
- Deepware Scanner: Permite escanear vídeos y detectar la presencia de deepfakes mediante algoritmos avanzados de aprendizaje automático.
- Forensically: Esta herramienta permite realizar un análisis forense detallado de las imágenes, detectando irregularidades en los píxeles, la estructura y los patrones de compresión.
- ExifTool: Es una herramienta de código abierto que permite extraer, modificar y analizar los metadatos de archivos de imágenes y vídeos. Es ampliamente utilizada por investigadores y periodistas para verificar la autenticidad de archivos multimedia.
- Jeffrey’s Image Metadata Viewer: Una herramienta en línea que permite visualizar los metadatos de una imagen de manera sencilla. Es útil para una revisión rápida sin necesidad de instalar software especializado.
- FotoForensics: Un servicio en línea que, además de analizar metadatos, ofrece herramientas avanzadas para el análisis forense de imágenes, como la detección de errores en la estructura del archivo o la identificación de manipulaciones.
Deepfakes en márketing
En el mundo del márketing, la tecnología GenAI ha abierto nuevas y controvertidas posibilidades, permitiendo a las marcas resucitar digitalmente a figuras icónicas para protagonizar anuncios y campañas publicitarias.
Este uso de la inteligencia artificial ha generado tanto admiración como debate ético, especialmente cuando se trata de representar a celebridades ya fallecidas, como fue el caso de la artista española Lola Flores.
Ventajas del uso de deepfakes en márketing
- Resonancia emocional: Utilizar a celebridades fallecidas en anuncios puede tener un fuerte impacto emocional en el público. Estas figuras suelen tener un legado cultural significativo, lo que permite a las marcas conectar con audiencias a un nivel más profundo, evocando nostalgia y admiración.
- Innovación y diferenciación: Las campañas que utilizan deepfakes son vistas como innovadoras, lo que puede diferenciar a una marca en un mercado saturado. Este enfoque crea un elemento sorpresa que puede captar la atención del público y generar conversaciones, tanto en medios tradicionales como en redes sociales.
- Revivir legados: Al traer de vuelta a figuras icónicas, las marcas también contribuyen a preservar y revivir su legado. Esto no solo beneficia a la marca, sino que también puede tener un impacto positivo en la memoria colectiva de la sociedad.
Suplantación de identidad y peligros de los deepfakes
La tecnología GenAI no solo está revolucionando el márketing y la publicidad, sino que también plantea serias amenazas en términos de suplantación de identidad y seguridad digital. A medida que estas tecnologías se vuelven más accesibles y sofisticadas, los riesgos asociados con la creación y distribución de contenido falso se amplían, afectando no solo a figuras públicas, sino también a personas comunes.
Los deepfakes permiten a los ciberdelincuentes crear vídeos, imágenes o audios que muestran a una persona diciendo o haciendo cosas que nunca sucedieron. Estos falsos contenidos pueden ser utilizados para realizar actos fraudulentos o estafas, difamar o desprestigiar a una persona o como método de extorsión.
Por otro lado, existe el riesgo de que los gobiernos puedan utilizar esta tecnología como una excusa para desacreditar imágenes y vídeos auténticos que muestran abusos o situaciones críticas en zonas de conflicto. Al etiquetar pruebas reales de atrocidades o violaciones de derechos humanos como deepfakes, los gobiernos podrían intentar confundir a la opinión pública y desacreditar a periodistas, activistas y testigos que buscan exponer la verdad.
Esta estrategia de desinformación no solo socavaría la confianza en las fuentes de información legítimas, sino que también podría dificultar la rendición de cuentas y prolongar conflictos, ya que las denuncias y evidencias podrían ser fácilmente desestimadas como fabricaciones digitales, impidiendo así que la comunidad internacional tome medidas adecuadas basadas en hechos verificables.
Etiquetado de imágenes “generadas por IA“
La reciente actualización de Meta en Instagram, que introdujo la etiqueta “Creado con IA” en las publicaciones, ha generado controversia debido a su aplicación imprecisa. Aunque la intención inicial de Meta era ayudar a los usuarios a identificar contenido generado por IA, la herramienta etiqueta erróneamente imágenes reales que han sido simplemente retocadas, como por ejemplo, realizando ajustes en la iluminación. Esto ha llevado a que artistas y fotógrafos, expresen su frustración al ver sus trabajos marcados incorrectamente como generados por IA.
Como consecuencia, estos tipos de errores no solo afectan la percepción del trabajo creativo, sino que también plantean dudas sobre la fiabilidad de las herramientas de detección automática.
Meta ha reconocido el problema y ha comenzado a cambiar la etiqueta a “Información de la IA” mientras trabajan en mejorar el sistema, pero la situación destaca los desafíos y limitaciones de las tecnologías actuales para diferenciar entre contenido auténtico y el generado o modificado por inteligencia artificial.
Conclusión
La capacidad de identificar vídeos y fotografías falsos generados por IA es una habilidad cada vez más importante, ya que a través del uso de análisis de metadatos, herramientas especializadas, y una comprensión de las inconsistencias visuales, los profesionales pueden reducir significativamente el riesgo de ser engañados por contenido manipulado.
Los deepfakes representan una tecnología con un potencial considerable tanto para el bien como para el mal. Mientras que en campos como el márketing y el entretenimiento pueden ser una herramienta de gran ayuda, también abren la puerta a una serie de peligros que amenazan la privacidad, la seguridad y la confianza en la información. La suplantación de identidad, el fraude, la desinformación y las amenazas a la seguridad son solo algunos de los riesgos asociados con los deepfakes.
Abordar estos desafíos requiere de un esfuerzo conjunto entre gobiernos, empresas, plataformas tecnológicas y usuarios, para poder mitigar los peligros que los deepfakes representan para la sociedad.
Referencias:
[1] Publicación de Meta anunciando el etiquetado de imágenes
¿Quieres seguir leyendo sobre IA? ¡No te pierdas estos recursos!
En Block&Capital, nos esforzamos por crear un entorno donde el crecimiento y el éxito sean accesibles para todos. Si estás listo para impulsar tu carrera profesional, te animamos a unirte a nosotros.
Últimos posts