Les tecnologies basades en intel·ligència artificial (IA) han avançat notablement en la capacitat de generar imatges i vídeos falsos amb un alt grau de realisme. Aquest tipus de contingut, conegut com a deepfakes, pot arribar a ser tan convincent que resulta cada vegada més difícil distingir-lo a simple vista.
Tot i això, hi ha determinats indicis i tècniques que poden ajudar els professionals a detectar aquests enganys visuals.
Anàlisi de metadades per detectar deepfakes
L’anàlisi de metadades és una de les primeres i més útils eines per verificar si una imatge o vídeo és autèntic. Les metadades actuen com una mena d’“empremta digital” que acompanya els fitxers digitals, amb informació sobre la data i hora de creació, el dispositiu utilitzat, la geolocalització, les característiques tècniques i possibles modificacions.
Per als professionals dedicats a la verificació de contingut visual, saber interpretar aquestes dades pot ser determinant a l’hora de descobrir manipulacions, com les següents:
- Incongruències en la data i hora de creació: Una discrepància entre la data declarada i la que figura als metadades és un dels indicadors més evidents de manipulació. Per exemple, si una imatge diu haver estat presa durant un esdeveniment específic però les metadades indiquen que va ser creada recentment, això pot suggerir que ha estat alterada o fora de context.
- Informació del dispositiu i configuració tècnica: Si els metadades mostren que la imatge es va fer amb un dispositiu que no existia en el moment declarat, o si els paràmetres tècnics no coincideixen amb les condicions esperades (lluminositat, resolució, etc.), això pot aixecar sospites. A més, alguns dispositius afegeixen identificadors únics que poden ser útils per detectar
- Geolocalització Les coordenades GPS incloses en els metadades poden comprovar-se per veure si coincideixen amb la ubicació declarada. Si, per exemple, una imatge mostra un lloc concret però els metadades indiquen una altra ubicació, això pot ser un senyal que s’ha fet servir una imatge d’arxiu fora de context o que ha estat modificada.
- Rastreig d’edicions i manipulacions: Els metadades poden incloure un historial d’edicions que revela si el fitxer ha estat modificat després de la seva creació. També poden mostrar quin software s’ha utilitzat per fer aquestes edicions. Si una imatge que es presenta com a “original” mostra evidència d’haver estat retocada, és molt probable que hagi estat manipulada.
Examen d’inconsistències visuals
Tot i que els deepfakes poden semblar realistes a primera vista, sovint contenen errors subtils. Algunes àrees clau a inspeccionar són:
- Ombres i reflexos: Ombres mal alineades o reflexos inexistents poden indicar que la imatge ha estat manipulada.
- Bordes difusos: Les vores entre els objectes i el fons poden aparèixer menys definides en imatges generades per IA.
- Anomalies facials: En vídeos deepfake, és freqüent trobar desajustos en la sincronització labial, moviments oculars estranys o expressions facials que no coincideixen amb l’emoció aparent.
Eines per detectar deepfakes
Hi ha eines especialitzades desenvolupades per identificar deepfakes. Aquestes utilitzen patrons visuals i algorismes d’aprenentatge automàtic per detectar signes de manipulació. Algunes de les més utilitzades són:
- Deepware Scanner: Permet analitzar vídeos i detectar deepfakes mitjançant algoritmes avançats d’aprenentatge automàtic.
- Forensically: Ofereix una anàlisi forense detallada d’imatges, identificant irregularitats en els píxels, estructures i patrons de compressió.
- ExifTool: Eina de codi obert per extreure, modificar i analitzar metadades d’arxius d’imatge i vídeo. Molt utilitzada per investigadors i periodistes per verificar l’autenticitat del contingut.
- Jeffrey’s Image Metadata Viewer: Eina en línia que mostra de manera senzilla els metadades d’una imatge. Ideal per a una revisió ràpida sense necessitat d’instal·lar res.
- FotoForensics: Servei en línia que, a més d’analitzar les metadades, ofereix eines avançades per al diagnòstic forense d’imatges, com la detecció d’errors en l’estructura del fitxer o decmanipulacions visuals.
Deepfakes en màrqueting
En el món del màrqueting, la tecnologia GenAI ha obert noves i controvertides possibilitats, permetent a les marques “recrear” digitalment figures icòniques per protagonitzar anuncis i campanyes publicitàries.
Aquest ús de la intel·ligència artificial ha generat tant admiració com debat ètic, especialment quan es tracta de representar celebritats ja difuntes, com va ser el cas de l’artista espanyola Lola Flores.
Avantatges de l’ús de deepfakes en màrqueting
- Ressonància emocional: Fer servir figures difuntes pot generar un fort impacte emocional en el públic. Aquestes personalitats sovint tenen un llegat cultural profund, cosa que permet a les marques connectar amb l’audiència evocant nostàlgia i admiració.
- Innovació i diferenciació: Les campanyes basades en deepfakes es perceben com innovadores, i poden diferenciar una marca en un mercat saturat. A més, l’efecte sorpresa pot atraure l’atenció i generar conversa tant en mitjans tradicionals com digitals.
- Reviure llegats: Donant nova vida a figures icòniques, les marques no només generen notorietat, sinó que també poden contribuir a preservar el seu llegat cultural, amb un impacte positiu en la memòria col·lectiva.
Suplantació d’identitat i riscos dels deepfakes
La tecnologia GenAI no només transforma el màrqueting i la publicitat, sinó que també planteja riscos greus en termes de suplantació d’identitat i seguretat digital. A mesura que aquestes eines es tornen més accessibles i sofisticades, augmenta el risc associat a la creació i difusió de contingut fals, afectant tant figures públiques com persones anònimes.
Els deepfakes permeten als ciberdelinqüents crear vídeos, imatges o àudios que mostren una persona fent o dient coses que mai han passat. Aquests continguts poden utilitzar-se per cometre estafes, difamar, extorsionar o desprestigiar algú deliberadament.
A més, hi ha el perill que governs utilitzin aquesta tecnologia com a pretext per desacreditar imatges o vídeos reals que exposen abusos o situacions crítiques en zones de conflicte. Etiquetant proves autèntiques com a deepfakes, podrien intentar confondre l’opinió pública i desacreditar periodistes, activistes o testimonis que intenten fer sortir la veritat a la llum.
Aquesta estratègia de desinformació podria erosionar la confiança en les fonts legítimes, dificultar la rendició de comptes i prolongar conflictes, ja que les denúncies podrien ser fàcilment descartades com a fabricacions digitals, impedint a la comunitat internacional actuar basant-se en fets verificables.
Etiquetatge d’imatges “generades per IA“
La recent actualització de Meta a Instagram, que va introduir l’etiqueta «Creat amb IA» en les publicacions, ha generat polèmica per la seva aplicació imprecisa. Tot i que la intenció inicial era ajudar els usuaris a identificar contingut generat per intel·ligència artificial, la funcionalitat ha acabat etiquetant erròniament imatges reals que només han estat retocades, com ara amb ajustos de llum o contrast.
Aquesta situació ha provocat frustració entre artistes i fotògrafs, que han vist com les seves obres es marcaven incorrectament com a generades per IA.
Aquests errors no només afecten la percepció del treball creatiu, sinó que també posen en dubte la fiabilitat de les eines de detecció automàtica.
Meta ha reconegut el problema i ha començat a substituir l’etiqueta per “Informació de la IA”, mentre treballa per millorar el sistema. Tot plegat posa de manifest els reptes i les limitacions actuals a l’hora de distingir entre contingut original i el que ha estat generat o modificat mitjançant intel·ligència artificial.
Conclusions
La capacitat per identificar imatges i vídeos falsos generats amb IA s’està convertint en una habilitat essencial. Mitjançant l’anàlisi de metadades, eines especialitzades i la detecció d’inconsistències visuals, és possible reduir considerablement el risc de ser enganyat per contingut manipulat.
Els deepfakes representen una tecnologia amb un gran potencial, tant per a aplicacions positives com per a riscos importants. En àmbits com el màrqueting o l’entreteniment poden oferir noves oportunitats creatives, però també obren la porta a problemes com la suplantació d’identitat, el frau, la desinformació i amenaces a la seguretat i la confiança en la informació.
Fer front a aquests desafiaments requereix una col·laboració activa entre governs, empreses, plataformes tecnològiques i usuaris. Només així es podrà mitigar l’impacte negatiu dels deepfakes i aprofitar aquesta tecnologia de manera responsable i beneficiosa per a la societat.
Recursos:
[1] Publicació de Meta anunciant l’etiquetatge d’imatges
Vols continuar llegint sobre intel·ligència artificial? No et perdis aquests recursos!
A Block&Capital, especialistes en selecció de personal, treballem per crear oportunitats on el creixement i l’èxit siguin a l’abast de tothom. Si estàs preparat per fer un pas endavant en la teva carrera professional, no dubtis a contactar amb nosaltres.
Últims posts