I en verden, hvor digitale billeder kan manipuleres med en lethed, der for få årtier siden ville have været utænkelig, bliver spørgsmålet om ægthed og tillid stadigt mere presserende. Hvordan kan vi vide, om et billede er ægte, eller om det er blevet ændret? Og hvordan kan skabere beskytte deres arbejde og sikre, at de får anerkendelse for det i det uendelige online-rum? To nylige udviklinger, begge med rod i avanceret teknologi og kunstig intelligens (AI), tilbyder potentielle svar på disse udfordringer. Den ene handler om at opdage manipulation, specifikt i ansigter redigeret med Photoshop, mens den anden fokuserer på at bevise et billedes oprindelse og ægthed gennem sikre digitale "næringsdeklarationer".
AI, der Afslører Photoshop-Ansigtet
Et af de mest almindelige værktøjer til at redigere portrætter i Adobe Photoshop er "Liquify"-værktøjet, især dets Face-Aware Liquify-funktion. Dette værktøj gør det utroligt nemt at justere ansigtstræk – øjne kan forstørres, næser gøres smallere, kæbelinjer skarpere, og smil justeres. Mens dette kan bruges til kreative formål eller mindre retouchering, åbner det også døren for betydelig manipulation, som kan ændre en persons udseende drastisk og potentielt vildlede beskueren.
Forskere fra Adobe og UC Berkeley har taget denne udfordring op ved at udvikle en AI-metode, der specifikt kan detektionere, om ansigter i fotos er blevet manipuleret ved hjælp af netop Adobes Photoshop Liquify-værktøj. Dette er et vigtigt skridt, da det retter sig mod et af de mest anvendte redskaber til ansigtsændring.
For at træne denne AI udviklede forskerteamet et Convolutional Neural Network (CNN) – en type AI, der er særligt god til at analysere billeder. De fodrede netværket med tusindvis af portrætbilleder, hvorpå Face Aware Liquify var blevet anvendt automatisk ved hjælp af et Photoshop-script. Ved at vise AI'en både originale og manipulerede billeder lærte den at genkende de subtile mønstre og artefakter, som Liquify-værktøjet efterlader, selv når ændringerne er små.
Resultaterne af deres eksperimenter var slående. AI'en var i stand til korrekt at detektere 99,4% af de manipulerede billeder. Sammenlignet med mennesker, der kun var i stand til at detektere 53,5% af manipulationerne i den samme test, er AI'ens præcision markant højere. Dette understreger, hvor svært det er for det menneskelige øje at opdage selv relativt åbenlyse digitale ændringer, især når de er udført dygtigt.
Men AI'en stopper ikke ved blot at sige "ja" eller "nej" til manipulation. Den var også i stand til at identificere præcist, hvilke dele af ansigtet der var blevet redigeret – for eksempel om det var øjnene, munden eller kæbelinjen. I nogle tilfælde kunne AI'en endda gå et skridt videre og "fortryde" manipulationen for at rekonstruere det originale, uredigerede billede. Denne evne til at identificere og potentielt reversere ændringer er utrolig værdifuld, da den ikke kun afslører manipulationen, men også viser os, hvordan billedet oprindeligt så ud.
Denne forskning har potentielle anvendelser langt ud over blot at verificere skønhedsredigeringer på sociale medier. Journalister, der modtager billeder, kan bruge sådanne værktøjer til at verificere ægtheden af portrætter. Domstole kunne potentielt bruge det i retsmedicinske analyser. Og i en tid med stigende bekymring over "fake news" og dybt forfalskede billeder ("deepfakes"), der kan skabes med stadigt mere sofistikerede AI-værktøjer, er evnen til at detektere specifikke typer af manipulation en vigtig brik i puslespillet om at bevare troværdigheden af visuelt indhold.
Det er vigtigt at bemærke, at denne specifikke AI er trænet til at detektere manipulationer udført med Photoshop's Liquify-værktøj på ansigter. Den vil sandsynligvis ikke være effektiv til at detektere andre typer af manipulationer (som f.eks. at klone objekter, ændre farver drastisk eller sammensætte elementer fra forskellige billeder) eller manipulationer udført med andre redigeringsprogrammer. Ikke desto mindre viser det potentialet i at bruge AI til at bekæmpe digital forfalskning.
Adobe Content Authenticity: Skabernødder og Ægthed
Parallelt med udviklingen af værktøjer til at detektere manipulation arbejder Adobe også på en anden front for at styrke ægthed og tillid i den digitale verden: Content Authenticity-initiativet og introduktionen af Content Credentials.
I en digital tidsalder, hvor billeder og andre kreative værker hurtigt kan kopieres, deles og modificeres, står skabere over for betydelige udfordringer. Hvordan sikrer man, at man får anerkendelse for sit arbejde? Hvordan forhindrer man uautoriseret brug? Og i den nye æra af generativ AI, hvordan forhindrer man, at ens arbejde bruges til at træne AI-modeller uden samtykke? Adobes Content Authenticity-initiativ (CAI), lanceret i 2019 og nu med over 3.700 medlemmer, adresserer disse spørgsmål.
Kernestykket i dette initiativ er Content Credentials. Adobe beskriver dem som en form for "næringsdeklaration" for digitalt indhold. Forestil dig, at hvert digitalt billede bærer en sikker pakke af metadata – data om dataene – der giver information om billedets oprindelse og dets historie.
Disse sikre metadata gør det muligt for skabere at dele information om sig selv og deres arbejde. Dette kan omfatte navnet på skaberen, datoen for oprettelse, information om de værktøjer, der blev brugt til at skabe eller redigere indholdet (f.eks. Photoshop, Lightroom), og endda en historie over de ændringer, der er foretaget. Når disse oplysninger er knyttet til indholdet, hjælper det med at sikre, at arbejdet kan spores tilbage til dets kilde, selv efter det er blevet delt online på forskellige platforme.
Adobe udtaler, at formålet med Content Credentials er at beskytte skaberes arbejde og øge transparensen. Når folk støder på indhold online, der bærer Content Credentials, kan de få adgang til disse oplysninger og lære mere om, hvem der skabte det, og hvordan det er blevet til. Dette skaber et klarere spor og øger tilliden til det indhold, vi ser.
For at gøre det nemt for skabere at tilføje disse Content Credentials til deres arbejde, introducerer Adobe en gratis web-app. En offentlig beta af denne web-app vil blive tilgængelig i Q1 2025. Planen er at integrere Content Credentials dybere i Adobes Creative Cloud-apps, såsom Photoshop og Adobe Lightroom, og skabe et centraliseret sted, hvor skabere kan administrere deres præferencer for Content Credentials på tværs af platforme.
Et vigtigt aspekt, som Content Credentials adresserer, er skabernes bekymring for, at deres indhold bruges til at træne generative AI-modeller uden deres samtykke. En Adobe-undersøgelse viste, at hele 91% af skabere søger en pålidelig metode til at knytte attribution til deres arbejde, og 56% udtrykker bekymring for, at deres indhold bruges til AI-træning uden tilladelse.
Med Content Credentials web-appen får skabere mulighed for at angive en "Generative AI Training and Usage Preference". Dette signalerer, at de ikke ønsker, at deres indhold skal bruges til at træne andre generative AI-modeller på markedet. Selvom dette er en præference, der skal anerkendes af tredjeparter, har virksomheder som Spawning (en aggregator for AI opt-out) forpligtet sig til at respektere denne præference. Arbejdet med at drive branchebred adoption af denne funktion er i gang.
En stor udfordring for bevarelsen af metadata, herunder Content Credentials, er, at mange sociale medieplatforme og websites fjerner eller ændrer metadata, når billeder uploades, ændres størrelse eller komprimeres til visning online. For at modvirke dette frigiver Adobe en Content Authenticity-udvidelse til Google Chrome-browseren. Ved at installere denne udvidelse kan brugerne se og interagere med Content Credentials, når de støder på dem online, selv hvis den originale platform har strippet metadataene.
Scott Belsky, Chief Strategy Officer og Executive Vice President for Design & Emerging Products hos Adobe, udtaler, at Adobe med lanceringen af Content Credentials sigter mod at hjælpe skabere med at bevare integriteten af deres arbejde, samtidig med at de muliggør en ny æra med transparens og tillid online. Dette initiativ repræsenterer et proaktivt skridt fra Adobes side for at tackle de voksende udfordringer med digital ægthed og attribution.
Sammenligning: AI-detektion vs. Content Credentials
Det er værd at bemærke, at disse to udviklinger, selvom de begge adresserer ægthed i digitale billeder, gør det på forskellige måder:
| Funktion | AI-detektion (Adobe/UC Berkeley Liquify) | Content Credentials (Adobe CAI) |
|---|---|---|
| Formål | At detektere specifikke typer af manipulation (ansigts-Liquify). | At bevise billedets oprindelse og historie, sikre attribution. |
| Hovedmetode | AI (CNN) analyse af billeddata. | Sikker metadata knyttet til billedfilen. |
| Hvad det afslører | Om billedet er manipuleret med Liquify, hvor, og potentielt hvordan det så ud før. | Hvem der skabte/redigerede billedet, hvornår, med hvilke værktøjer, og en historie over ændringer (hvis registreret). |
| Kræver | Analyse af billedfilen med AI-værktøjet. | At skaberen tilføjer credentials, og at platforme/browsere understøtter visning. |
| Beskytter mod | Sværere at skjule Liquify-manipulation. | Tyveri af anerkendelse, misbrug (ved at vise oprindelse), potentiel brug i AI-træning (via præference). |
Mens AI-detektionen er et retsmedicinsk værktøj til at afsløre, hvad der *er sket* med et billede, er Content Credentials et proaktivt værktøj, der beviser *hvem* der skabte billedet, og giver en transparent historie om dets livscyklus. Begge er vigtige brikker i kampen for at genoprette tillid til digitale billeder.
Ofte Stillede Spørgsmål
Kan AI'en detektere alle typer Photoshop-redigeringer?
Nej, den specifikke AI-metode, der er udviklet af Adobe og UC Berkeley, er trænet til at detektere manipulationer udført med Photoshop's Liquify-værktøj på ansigter. Den er ikke designet til at detektere andre redigeringer som farvejusteringer, kloning, lagdeling osv.
Hvornår bliver disse værktøjer tilgængelige for almindelige brugere?
AI-detektionen af Liquify er forskning, og det er ikke angivet, hvornår eller om den vil blive integreret i kommercielle produkter. Content Credentials web-appen vil være tilgængelig i offentlig beta i Q1 2025, og integrationen i Creative Cloud-apps som Photoshop og Lightroom er planlagt herefter.
Beskytter Content Credentials mit arbejde mod at blive stjålet eller kopieret?
Content Credentials forhindrer ikke fysisk kopiering eller download af dit billede. Deres formål er at give et sikkert bevis for billedets oprindelse og skaberens identitet via metadata. Dette gør det sværere for andre at påstå, at de har skabt arbejdet, og hjælper med at sikre, at du får anerkendelse (attribution), når dit arbejde deles.
Hvis jeg bruger AI opt-out-præferencen i Content Credentials, garanterer det så, at mit indhold ikke bruges til AI-træning?
Præferencen signalerer dit ønske til andre om ikke at bruge dit indhold til træning af generative AI-modeller. Effektiviteten afhænger af, at andre parter (som AI-virksomheder og platforme) vælger at anerkende og respektere dette signal. Adobe arbejder på at drive branchebred adoption for denne funktion, og partnere som Spawning har forpligtet sig til at respektere præferencen. Det er et vigtigt skridt, men ikke en absolut garanti uden universel adoption.
Er Content Credentials kun for Photoshop-brugere?
Content Credentials er et bredere initiativ. Selvom de vil blive integreret i apps som Photoshop og Lightroom, vil den gratis web-app gøre det muligt for skabere at tilføje credentials til indhold skabt med andre værktøjer. Målet er et økosystem, hvor metadata kan tilføjes og læses på tværs af forskellige platforme og værktøjer.
Fremtiden for Billed-Ægthed
Disse udviklinger fra Adobe og deres forskningspartnere understreger den voksende betydning af ægthed og tillid i den digitale billedverden. Efterhånden som redigeringsværktøjer bliver mere kraftfulde og lette at bruge, og generativ AI gør det muligt at skabe realistisk indhold fra bunden, bliver evnen til at verificere indholdets oprindelse og historie afgørende.
AI til detektion af specifikke manipulationer, som Liquify-detektoren, giver nye retsmedicinske muligheder for at afsløre forfalskninger. Content Credentials tilbyder en ramme for proaktivt at mærke indhold med dets "fødselsattest" og livshistorie, hvilket styrker skaberens rettigheder og giver beskueren mulighed for at træffe informerede beslutninger om det indhold, de ser. Sammen repræsenterer disse teknologier et vigtigt skridt mod en mere transparent og troværdig fremtid for digitalt fotografi.
Hvis du vil læse andre artikler, der ligner AI vs. Manipulation: Adobe's Nye Værktøjer, kan du besøge kategorien Fotografi.
