Hvem opdager deepfakes bedre: mand eller maskine?

Nøgle takeaways

  • Deepfakes udgør betydelige trusler mod samfundet, herunder spredning af desinformation, ødelæggelse af omdømme gennem efterligning og anstiftelse af konflikter for den nationale sikkerhed.
  • Selvom AI-teknologi tilbyder værktøjer til deepfake-detektion, er de ikke perfekte, og menneskelig skøn er fortsat afgørende for at identificere deepfakes.
  • Mennesker og AI-detektionsværktøjer har forskellige styrker og svagheder med hensyn til at identificere deepfakes, og en kombination af deres evner kan forbedre succesraterne med at opdage og afbøde farerne ved deepfake-teknologi.

Deepfakes truer alle aspekter af samfundet. Vores evne til at identificere falsk indhold er afgørende for at annullere desinformation, men efterhånden som AI-teknologien forbedres, hvem kan vi stole på til at opdage deepfakes: mand eller maskine?

Farerne ved Deepfakes

Efterhånden som AI-teknologien udvikler sig, udgør farerne ved deepfakes en stigende trussel mod os alle. Her er en hurtig oversigt over nogle af de mest presserende problemer, som deepfakes rejser:

  • Desinformation: Deepfakede videoer og stemmeoptagelser kan sprede desinformation, såsom falske nyheder.
  • Efterligning: Ved at efterligne personer kan deepfakes skade folks omdømme eller bedrage nogen, de er kendt af.
  • National sikkerhed: Det åbenlyse dommedagsscenarie med deepfakes er opdigtede optagelser eller lyd af en global leder, der anstifter konflikt.
  • Borgerlige uroligheder: Vildledende optagelser og lyd kan også blive brugt af parter til at fremkalde vrede og civil uro blandt specifikke grupper.
  • Cybersikkerhed: Cyberkriminelle bruger allerede AI-stemmekloningsværktøjer til at målrette mod enkeltpersoner med overbevisende beskeder fra folk, de kender.
  • Privatliv og samtykke: Den ondsindede brug af deepfakes ligner personer uden deres samtykke.
  • Tillid og tillid: Hvis du ikke kan skelne mellem sandhed og bedrag, bliver nøjagtig information lige så utroværdig.

Deepfakes bliver kun mere overbevisende, så vi har brug for robuste værktøjer og processer til at opdage dem. AI leverer et sådant værktøj i form af deepfake-detektionsmodeller. Men ligesom algoritmer designet til at identificere AI-genereret skrivning, er deepfake-detektionsværktøjer ikke perfekte.

  Hvorfor er mit ping så højt? Sådan får du den bedste ping-rate

På nuværende tidspunkt er menneskelig skøn det eneste andet værktøj, vi kan stole på. Så er vi bedre end algoritmer til at identificere deepfakes?

Kan algoritmer detektere deepfakes bedre end mennesker?

Deepfakes er en alvorlig nok trussel til, at teknologigiganter og forskningsgrupper dedikerer enorme ressourcer til forskning og udvikling. I 2019 tilbød folk som Meta, Microsoft og Amazon $1.000.000 i præmier under en Deepfake Detection Challenge for den mest nøjagtige detektionsmodel.

Den bedste model var 82,56 % nøjagtig i forhold til et datasæt af offentligt tilgængelige videoer. Men da de samme modeller blev testet mod et “black box-datasæt” på 10.000 usete videoer, var den bedst præsterende model kun 65,18 % nøjagtig.

Vi har også masser af undersøgelser, der analyserer ydeevnen af ​​AI deepfake-detektionsværktøjer mod mennesker. Selvfølgelig varierer resultaterne fra den ene undersøgelse til den næste, men generelt er mennesker enten lig med eller bedre end succesraten for deepfake-detektionsværktøjer.

En undersøgelse fra 2021 offentliggjort på PNAS fandt, at “almindelige menneskelige observatører” opnåede en lidt højere nøjagtighed end de førende deepfake-detektionsværktøjer. Undersøgelsen fandt dog også, at de menneskelige deltagere og AI-modeller var modtagelige for forskellige typer fejl.

Interessant nok forskning udført af Universitetet i Sydney har fundet ud af, at den menneskelige hjerne, ubevidst, er mere effektiv til at spotte deepfakes end vores bevidste indsats.

Registrering af visuelle spor i Deepfakes

Videnskaben om deepfake-detektion er kompleks, og den nødvendige analyse varierer afhængigt af optagelsernes art. For eksempel er den berygtede deepfake-video af Nordkoreas leder Kim Jong-un fra 2020 dybest set en talking head-video. I dette tilfælde kan den mest effektive metode til deepfake-detektion være at analysere visemer (mundbevægelser) og fonemer (fonetiske lyde) for uoverensstemmelser.

Menneskelige eksperter, tilfældige seere og algoritmer kan alle udføre denne form for analyse, selvom resultaterne varierer. Det MIT definerer otte spørgsmål for at hjælpe med at identificere deepfake videoer:

  • Vær opmærksom på ansigtet. Avancerede DeepFake-manipulationer er næsten altid ansigtstransformationer.
  • Vær opmærksom på kinder og pande. Fremstår huden for glat eller for rynket? Er hudens ældning svarende til ældningen af ​​hår og øjne? DeepFakes kan være inkongruente på nogle dimensioner.
  • Vær opmærksom på øjne og øjenbryn. Opstår der skygger på steder, som du ville forvente? DeepFakes kan muligvis ikke repræsentere den naturlige fysik i en scene fuldt ud.
  • Vær opmærksom på brillerne. Er der blænding? Er der for meget blænding? Ændres genskærets vinkel, når personen bevæger sig? Endnu en gang kan DeepFakes ikke fuldt ud repræsentere belysningens naturlige fysik.
  • Vær opmærksom på ansigtshår eller mangel på samme. Ser dette ansigtshår ægte ud? DeepFakes kan tilføje eller fjerne et overskæg, bakkenbarter eller skæg. Dog kan DeepFakes måske undlade at gøre ansigtshårtransformationer helt naturlige.
  • Vær opmærksom på muldvarpe i ansigtet. Ser muldvarpen ægte ud?
  • Vær opmærksom på at blinke. Blinker personen nok eller for meget?
  • Vær opmærksom på læbebevægelserne. Nogle deepfakes er baseret på læbesynkronisering. Ser læbebevægelserne naturlige ud?
  Sådan undgår du Infinity War-spoilere, indtil du ser filmen

De nyeste AI deepfake-detektionsværktøjer kan analysere de samme faktorer, igen, med varierende grader af succes. Dataforskere udvikler også konstant nye metoder, såsom at opdage naturlig blodgennemstrømning i ansigterne på højttalere på skærmen. Nye tilgange og forbedringer af eksisterende kan resultere i, at AI deepfake-detektionsværktøjer konsekvent klarer sig bedre end mennesker i fremtiden.

Registrering af lydspor i Deepfakes

Det er en helt anden udfordring at opdage deepfake lyd. Uden de visuelle signaler fra video og muligheden for at identificere audiovisuelle uoverensstemmelser er deepfake-detektion stærkt afhængig af lydanalyse (andre metoder som metadataverifikation kan også hjælpe i nogle tilfælde).

En undersøgelse udgivet af University College London i 2023 fandt man, at mennesker kan opdage dyb falsk tale 73 % af tiden (engelsk og mandarin). Som med deepfake-videoer, opdager menneskelige lyttere ofte intuitivt unaturlige talemønstre i AI-genereret tale, selvom de ikke kan specificere, hvad der virker dårligt.

Almindelige tegn inkluderer:

  • Slurring
  • Mangel på udtryk
  • Baggrunds- eller interferensstøj
  • Stemme- eller taleuoverensstemmelser
  • Mangel på “fylde” i stemmer
  • Overdrevent scriptet levering
  • Mangel på ufuldkommenheder (falske starter, rettelser, halsrensning osv.)

Endnu en gang kan algoritmer også analysere tale for de samme deepfake-signaler, men nye metoder gør værktøjer mere effektive. Forskning af USENIX identificerede mønstre i rekonstruktion af AI-vokalkanal, der ikke efterligner naturlig tale. Den opsummerer, at AI-stemmegeneratorer producerer lyd, der matcher smalle stemmekanaler (omtrent på størrelse med et sugerør) uden de naturlige bevægelser af menneskelig tale.

Tidligere forskning fra Horst Görtz Instituttet analyseret ægte og deepfake lyd på engelsk og japansk, og afslørede subtile forskelle i de højere frekvenser af ægte tale og deepfakes.

  APFS vs. Mac OS Extended: Hvilken skal du vælge?

Både vokalkanalen og højfrekvente uoverensstemmelser er mærkbare for menneskelige lyttere og AI-detektionsmodeller. I tilfælde af højfrekvente forskelle kunne AI-modeller teoretisk set blive mere og mere nøjagtige – selvom det samme også kunne siges om AI-deepfakes.

Mennesker og algoritmer bliver begge narre af Deepfakes, men på forskellige måder

Undersøgelser tyder på, at mennesker og de nyeste AI-detektionsværktøjer på samme måde er i stand til at identificere deepfakes. Succesraterne kan variere mellem 50 % og 90+ %, afhængigt af testparametrene.

I forlængelse heraf bliver mennesker og maskiner også snydt af deepfakes i lignende omfang. Det er dog afgørende, at vi er modtagelige på forskellige måder, og dette kan være vores største aktiv til at tackle farerne ved deepfake-teknologi. Kombinationen af ​​menneskers styrker og deepfake-detektionsværktøjer vil afbøde svaghederne ved hver enkelt og forbedre succesraterne.

For eksempel, MIT forskning viste, at mennesker var bedre til at identificere deepfakes af verdens ledere og berømte mennesker end AI-modeller. Det afslørede også, at AI-modellerne kæmpede med optagelser med flere personer, selvom det antydede, at dette kunne skyldes, at algoritmer blev trænet på optagelser med enkelte højttalere.

Omvendt fandt den samme undersøgelse, at AI-modeller klarede sig bedre end mennesker med optagelser af lav kvalitet (sløret, kornet, mørkt osv.), som med vilje kunne bruges til at bedrage menneskelige seere. På samme måde inkorporerer nyere AI-detektionsmetoder som overvågning af blodgennemstrømning i særlige ansigtsområder analyser, som mennesker ikke er i stand til.

Efterhånden som flere metoder udvikles, vil AI’s evne til at opdage tegn, vi ikke kan, kun forbedres, men det samme vil dens evne til at bedrage. Det store spørgsmål er, om teknologien til deepfake-detektion vil fortsætte med at overgå deepfakes selv.

At se tingene anderledes i Deepfakes tidsalder

AI deepfake-detektionsværktøjer vil fortsætte med at forbedre, og det samme vil kvaliteten af ​​selve deepfake-indholdet. Hvis AI’s evne til at bedrage overgår dens evne til at opdage (som den har med AI-genereret tekst), kan menneskelig skøn være det eneste værktøj, vi har tilbage til at bekæmpe deepfakes.

Alle har et ansvar for at lære tegnene på deepfakes at kende, og hvordan man får øje på dem. Udover at beskytte os selv mod svindel og sikkerhedstrusler, er alt, hvad vi diskuterer og deler online, sårbart over for desinformation, hvis vi mister forståelsen af ​​virkeligheden.