Dieses Dokuwiki verwendet ein von Anymorphic Webdesign erstelltes Thema.
Prijevodi ove stranice:

Deepfake i provjera autentičnosti digitalnih slika

Sažetak

Porastom deepfake tehnologije i njezine sve češće upotrebe u digitalnim prijevarama, dezinformacijama i napadima na digitalni identitet, postalo je ključno biti informiran o načinima zaštite protiv mogućih prijevara. Razvoj generativne umjetne inteligencije omogućio je stvaranje izuzetno realističnih slika i videozapisa uz minimalan tehnički napor, čime se značajno povećao rizik od zloupotreba u različitim industrijama.

Različite vrste deepfake sadržaja, uključujući djelomično i potpuno generirana lica, zamjenu identiteta te rekonstrukciju lica i govora, danas se aktivno koriste u stvarnim prijevarnim scenarijima. Takvi sadržaji omogućuju stvaranje sintetičkih identiteta, zaobilaženje sustava za provjeru identiteta, provođenje socijalnog inženjeringa te manipulaciju javnim mnijenjem i tržištima. Posebno su rizični u kontekstima gdje se odluke donose brzo i na temelju vizualnog povjerenja.

Iako postoje forenzički alati koji mogu otkriti tragove manipulacije ili AI generiranja, njihovi rezultati nisu apsolutni i često ovise o kvaliteti materijala i korištenoj tehnologiji. Kao najsigurniji pristup ističe se osiguravanje autentičnosti digitalnog sadržaja već u trenutku njegova nastanka, kroz kriptografski potpisane zapise o porijeklu i povijesti izmjena. Takvi mehanizmi omogućuju pouzdaniju zaštitu digitalnog identiteta i smanjuju prostor za zloupotrebu deepfake tehnologije.

Uvod

Ako koristite Internet u zadnje vrijeme vjerojatno ste primijetili porast Deepfake sadržaja poput AI generiranih videa ili slika. Iako je u većini slučajeva takav sadržaj šaljivog ili bezazlenog karaktera, u nekim slučajevima on se može koristiti za negativne svrhe poput širenja propagande ili pokušaja prijevare pojedinaca.

Prijevare potaknute umjetnom inteligencijom brzo rastu i sve ih je lakše provesti. Novi alati omogućuju stvaranje izuzetno realističnih lica, videozapisa i dokumenata uz minimalan trud. Ono što je nekada zahtijevalo napredno tehničko znanje danas je dostupno gotovo svima, što dovodi do porasta pokušaja prijevara u gotov svim industrijama.

U ovom wiki članku bit će objašnjene iduće stvari:

  • Različite vrste deepfakeova
  • Načini na koje ih prevaranti koriste u stvarnim napadima
  • Miskoncepcije u vezi deepfakeova
  • Kako možemo otkriti autentičnost slika

Vrste deepfakeova i načini njihove primjene

Deepfakeovi su AI generirane ili manipulirane slike i videozapisi osmišljeni kako bi osoba izgledala stvarno ili kako bi se promijenio njezin izgled. Spadaju u širu kategoriju sintetičkih medija i predstvaljaju sve veći izazov za ljude koji se bave njihovom detekcijom.

Prevaranti koriste deepfakeove na različite načine:

  • Stvaranje sintetičkih identiteta
  • Lažiranje video prijenosa i slika tijekom KYC (know-your-customer) provjere
  • Dostavljanje lažnih dokaza za sporove, povrate sredstava ili osiguravateljske zahtjeve

Razumijevanje različitih metoda napada ključan je prvi korak u izradnji učikovitih obrambenih mehanizama.

Djelomično morfiranje lica

Djelomično morfiranje lica omogućuje promjenu pojedinih dijelova lica bez potpunog skrivanja stvarnog izgleda. Umjesto potpune zamjene identiteta, mijenjaju se samo odabrane značajke.

Neke od tehnika koje prevladavaju u ovoj metodi su:

  • Kombiniranje crta lica drugih osoba
  • Korištenje modela koji omogućuje promjenu boje očiju
  • Prilagodba veličine nosa
  • Sužavanje ili proširivanje lica

Budući da ovi modeli zahtijevaju vrlo malo računalne snage, prevaranti ih mogu koristiti tijekom prijenosa uživo bez ikakvog kašnjenja ili uočljivih anomalija. Zbog toga su posebno pogodni za zloupotrebu u video provjerama identiteta, gdje promjene izgledaju prirodno i teško ih je uočiti.

Potpuno AI generirana lica

Potpuno AI generirana lica stvaraju se u cijelosti od nule pomoću generativnih AI modela poput DALL-E, SDXL, Midjourneyja ili Stable Diffusiona. Napadači mogu vrlo jednostavno zadati promptove koji definiraju izgled osobe na temelju spola, rase ili nacionalnosti.

Osim javno dostupnih AI alata, na dark webu se prodaju specijalizirani alati koji omogućuju izradu izuzetno realističnih slika i videozapisa, posebno dizajniranih za potrebe prijevare. Ovi alati dodatno snižavaju razinu znanja koja je potrebna za izvesti efektivnu prijevaru te povećavaju efikasnost i sofisticiranost deepfake napada.

Zamjena lica

Zamjena lica podrazumijeva tehniku u kojoj se lice jedne osobe zamjenjuju licem druge osobe. Riječ je o najčešćem obliku deepfake sadržaja koji se danas može vidjeti na internetu.

Postoji velik broj alata koji omogućuju izradu ovakvih deepfakeova jednostavnim učitavanjem fotografije ili videozapisa. Proces je brz i ne zahtijeva napredno tehničko znanje.

Na donjem primjeru možemo vidjeti zamjenu lica Roberta Downeya Jr. s Elonom Muskom.

Rekonstrukcija lica / sinkronizacija usana

Rekonstrukcija lica i sinkronizacija usana omogućuju animiranje fotografije stvarne osobe tako da njezini izrazi lica i pokreti usana prate govor, mimiku ili pokrete druge osobe. Na interentu su danas česti primjeri ovakvih deepfakeova koji se mogu koristiti u razne svrhe, uključujući i one negativne.

Na donjem primjeru možemo vidjeti kako se ova metoda koristi kako bi proizveli deepfake poznatih glumaca kako drže govor od Baracka Obame.

Kako se deepfakeovi koriste u prijevarama

Deepfake tehnologija koristi se u širokom spektru prijevarnih scenarija. Oni se mogu pojaviti tijekom onboardinga, prijave u sustav, autorizacije plaćanja i rješavanja sporova - odnosno svugdje gdje se provjeravaju identitet i povjerenje.

U nastavku su neka od područja u kojima prevaranti aktivno koriste deepfake tehnologiju.

Sintetički identitet

Napadači generiraju potpuno nova lica ili koriste morfiranje fotografija kako bi stvorili sintetičke identitete koji se koriste za prolaz vizualnih provjera i popunjavanja obrazaca. Ove se slike kombiniraju s lažnim osobnim podacima te se koriste za otvaranje računa, prijavu na usluge ili povezivanje više lažnih profila u organizirane mreže koje se koriste za prijevare.

Zaobilaženje KYC provjera

Prevaranti koriste virtualne kamere, unaprijed snimljene videozapise ili rekonstrukciju lica u stvarnom vremenu kako bi ih ubacili u selfie i KYC provjeru. Na taj način sustav pogrešno zaključuje da je korisnik stvarna osoba.

Prijevare putem socijalnog inženjeringa

Deepfakeovi pružaju brzo vizualno “dokazivanje” identiteta kojim se potkrepljuje lažni pozivi ili poruke te se smanjuje oprez žrtava. Napadači često koriste kratke videoisječke, namjerno dodaju šum u pozadini ili kašnjenje slike kako bi prikrili nepravilnosti, a zatim vrše pritisak na žrtvu da izvan uobičajenih kanala odobri plaćanja ili prebaci novac.

Prijevare s prijavama za posao

U posljednje vrijeme bilježi se porast korištenja sintetičkih videozapisa i generiranih fotografija profila za prolazak online intervjua za remote posao. Ako se prevarant zaposli, može krasti podatke i intelektualno vlasništvo, varati tvrtku i njezine korisnike ili provoditi “salary arbitrage” tj. fenom gdje zaposlenik tvrdi da živi u skupim regijama dok se zapravo nalazi u područjima s puno nižim troškovima života te traži uvjete zaposlenja koji inače ne bi bili mogući.

Dezinformacije i napadi na reputaciju

Lažne izjave podrške ili govori javnih osoba često se izrađuju kako bi se promovirale prijevare poput pump-and-dump kripto shema ili lažnih investicijskih programa (pyramid scheme). Deepfakeovi se također koriste za lažno predstavljanje rukovoditelja ili poznatih osoba s ciljem manipulacije tržištima, širenja dezinformacija ili narušavanja ugleda brenda.

Krivotovorenje dokaza za zahtjeve i sporove

Napadači koriste deepfake tehnologiju za izradu uvjerljivih “dokaza” u slučajevima povrata sredstava, chargebackova i osiguravateljskih zahtjeva. Uređuju snimke dostave kako bi prikazali nestali ili ukradeni paket, režisirali lažne videozapise nesreća ili mijenjaju račune i fakture kako bi potkrijepili zahtjev za povrat.

U nekim slučajevima generiraju lažne snimke s kućnih kamera koje prikazuju krađu paketa ili slike “pogrešno isporučene” robe, čime se potiču automatske isplate bez ljudske provjere.

Ucjene s deepfakeom

Ove prijevare najčešće ciljaju mlađe osobe i obično započinju na društvenim mrežama. Napadači koriste deepfake alate za stvaranje lažnih eksplicitnih slika ili videozapisa žrtava, a zatim prijete njihovim javnim objavljivanjem ako ne dobiju novac ili pristup financijskim računima.

Ova vrsta zloupotrebe postala je ozbiljan globalni problem, zbog čega su društvene platforme počele uvoditi nove zakone usmjerene na zaštitu digitalnog identiteta i zabranu eksplicitnih deepfake sadržaja.

Mitovi o otkrivanju deepfakeova

Postoji nekoliko upornih mitova o tome kako prepoznati deepfake sadržaj, a u nastavku su navedeni oni najpopularniji koji bi nas mogli prevariti u detekciji deepfakea.

Mit #1: Većina deepfakeova ima kašnjenje (lag)

Danas postoje modeli koji mogu stvarati deepfakeove praktički bez ikakvog kašnjenja. U pravilu, što je preciznije podudaranje piksela pri zamjeni lica, to je veće opterećenje CPU/GPU resursa i veća vjerojatnost kašnjenja. Međutim, prevaranti sve češće koriste lakše modele koji omogućuju izradu visokorezolucijskih deepfakeova bez vidljivog kašnjenja ili pikselizacije.

Mit #2: Ako postoji kašnjenje, ljudi neće povjerovati deepfakeu

Kašnjenje u videu često izgleda kao loša internetska veza. Zapravo, u nekim slučajevima to može čak povećati uvjerljivost deepfakea tijekom prijevare. Prevaranti često unaprijed pripremaju priču, npr. “Nalazim se u lošem području i signal je slab. Treba mi novac za gorivo.”. Napravit će kratak video poziv kako bi “dokazali” da su prava osoba, a zatim će komunikaciju prebaciti natrag na tekstualne poruke, gdje imaju veću kontrolu nad prijevarom.

Mit #3: Metapodaci dokazuju da je slika/videozapis stvarna ili lažna

Metapodaci se mogu urediti ili ukloniti pomoću alata poput ExifTool-a. Većina društvenih mreža ionako automatski prepisuje ili uklanja EXIF podatke prilikom učitavanja. Iako metapodaci ponekad mogu pružiti korisnu naznaku kod otkrivanja lažnih slika, oni nisu pouzdan dokaz autentičnosti.

Provjera autentičnosti digitalnih slika

Iako postoje programi i tehnologije koji pomažu u utvrđivanju autentičnosti digitalnih slika, važno je napomenuti da ne postoji alat koji može sa 100 % sigurnošću dokazati da je neka slika “stvarna” ako nije od početka stvorena i pohranjena uz mehanizme za dokazivanje autentičnosti.

Zbog toga se danas koriste tri različita pristupa:

  1. Naknadna detekcija manipulacije (forenzika)
  2. Ugrađena autentičnost od trenutka nastanka slike (provenance)
  3. Digitalni žigovi (watermarking)

Forenzička analiza digitalnih slika

Forenzička analiza digitalnih slika predstavlja skup metoda čiji je cilj procijeniti je li određeni vizualni sadržaj vjerojatno izmijenjen ili generiran umjetnom inteligencijom. Ovakav pristup temelji se na naknadnoj analizi već postojećih slika, pri čemu se ne polazi od pretpostavke da postoji pouzdan zapis o njihovom nastanku. Umjesto toga, forenzički alati pokušavaju identificirati tragove manipulacije ili generativnih procesa koji mogu upućivati na neautentičnost sadržaja.

Te metode uključuju analizu neprirodnih pikselnih uzoraka, nesklada u osvjetljenju i sjenama, tragova višestruke kompresije te vizualnih artefakata karakterističnih za generativne modele. Posebna se pozornost posvećuje nekonzistentnostima između pojedinih dijelova slike, primjerice u teksturi kože, rubovima objekata ili odnosu subjekta i pozadine. Ovakvi obrasci često nisu uočljivi ljudskom oku, ali se mogu otkriti algoritamskom analizom.

U praksi se koriste alati poput FotoForensicsa, koji primjenjuje Error Level Analysis (ELA) za otkrivanje područja s neuobičajenim razinama kompresije, te Forensicallyja, koji omogućuje analizu kloniranja, šuma i kontrasta.

Unatoč korisnosti ovih alata, forenzička analiza ima značajna ograničenja. Rezultati često imaju visoku stopu lažnih pozitivnih i lažnih negativnih procjena, osobito kod sadržaja visoke kvalitete ili onoga koji je prošao kroz više faza obrade i ponovne kompresije.

Autentičnost slike kroz provjeru porijekla

Za razliku od forenzičke detekcije, koja pokušava identificirati lažni sadržaj nakon njegova nastanka, koncept provenance by design usmjeren je na osiguravanje autentičnosti digitalne slike od samog trenutka njezina stvaranja. U ovom pristupu ključno pitanje nije je li slika lažna, već može li se pouzdano dokazati gdje, kada i na koji je način nastala.

Najznačajniji standard u tom području danas je C2PA (Coalition for Content Provenance and Authenticity), koji definira mehanizme kriptografske provjere izvora digitalnog sadržaja. Prema ovom modelu, kamera ili softver digitalno potpisuje sliku u trenutku njezina nastanka, pri čemu se u datoteku ugrađuju podaci o uređaju, vremenu i mjestu snimanja te zapisi o svim naknadnim izmjenama. Svaka autorizirana izmjena dodaje novi kriptografski potpis, čime se stvara neprekinuti lanac povjerenja.

Ako se slika izmijeni izvan tog kontroliranog lanca, kriptografski potpis postaje nevažeći, što jasno ukazuje na gubitak autentičnosti. Pojedini proizvođači profesionalnih kamera, poput Leice i Canona, uvode podršku za C2PA standard u novije uređaje. Za provjeru takvih zapisa dostupni su alati poput Adobe Content Authenticity Toola i javnih verifikacijskih servisa temeljenih na C2PA specifikaciji.

Digitalni žigovi kao pomoćni mehanizam

Digitalni žigovi predstavljaju dodatni mehanizam za identifikaciju AI generiranog sadržaja. Neki generativni modeli, poput DALL-E, ugrađuju nevidljive žigove u slike koje proizvode. Ovi žigovi ne utječu na vizualnu kvalitetu slike, ali omogućuju naknadno prepoznavanje da je sadržaj nastao uz pomoć umjetne inteligencije.

Međutim, žigovi imaju ograničenu primjenu. Mogu se degradirati ponovnom kompresijom, izmjenama slike ili namjernim uklanjanjem, a njihova učinkovitost ovisi o tome dolazi li sadržaj iz sustava koji takvo označavanje uopće primjenjuje. Zbog toga se ne mogu smatrati univerzalnim rješenjem za provjeru autentičnosti.

Na donjoj slici se nalazi digitalni žig koji DALL-E ostavlja u donjem desnom kutu svake generirane slike.

Zaključak

Deepfake tehnologija predstavlja jedan od najvećih izazova suvremene digitalne sigurnosti jer briše granicu između stvarnog i sintetičkog sadržaja. Kako alati za generiranje postaju sve dostupniji i sofisticiraniji, tradicionalni načini provjere identiteta i vizualne autentičnosti postaju nedostatni, osobito u kontekstima financijskih transakcija, medija i online komunikacije.

Analiza pokazuje da forenzička detekcija, iako korisna, ne može pružiti konačan dokaz o autentičnosti digitalne slike ili videozapisa. Takvi alati mogu samo ukazati na potencijalne anomalije i sumnje, ali su podložni pogreškama i brzo zastarijevaju u odnosu na napredak generativnih modela.

Najpouzdaniji pristup borbi protiv deepfake sadržaja jest uvođenje sustava koji osiguravaju provjerljivo porijeklo digitalnog sadržaja od samog trenutka njegova nastanka. Standardi poput C2PA omogućuju kriptografski dokaz autentičnosti i transparentan lanac izmjena, čime se po prvi put stvara mogućnost pouzdanog razlikovanja originalnog i izmijenjenog sadržaja.

Učinkovita obrana od deepfake prijevara zahtijeva kombinaciju tehničkih rješenja, regulatornih okvira i podizanja svijesti korisnika. Umjesto oslanjanja isključivo na detekciju lažnog sadržaja, budući sustavi trebaju biti dizajnirani tako da autentičnost postane ugrađeno svojstvo digitalnih medija, a ne naknadna pretpostavka.

Literatura

racfor_wiki/seminari2025/lz54251.txt · Zadnja izmjena: 2026/01/21 23:19 od Luka Žaja
Dieses Dokuwiki verwendet ein von Anymorphic Webdesign erstelltes Thema.
CC Attribution-Share Alike 4.0 International
www.chimeric.de Valid CSS Driven by DokuWiki do yourself a favour and use a real browser - get firefox!! Recent changes RSS feed Valid XHTML 1.0