Slijede razlike između dviju inačica stranice.
| Novija izmjena | Starija izmjena | ||
|
racfor_wiki:seminari2025:ls016508246 [2025/12/23 10:41] Lukas Schönberger stvoreno |
racfor_wiki:seminari2025:ls016508246 [2026/02/01 23:22] (trenutno) Lukas Schönberger |
||
|---|---|---|---|
| Redak 1: | Redak 1: | ||
| - | Forenzika u vremenu AI-deepfake dokaza | + | ====== |
| + | ===== Sažetak ===== | ||
| + | Eksponencijalni razvoj generativne umjetne inteligencije (GenAI) doveo je do stvaranja sofisticiranih sintetičkih medija poznatih kao " | ||
| + | ---- | ||
| + | |||
| + | ===== 1. Uvod: Nova era digitalne obmane ===== | ||
| + | |||
| + | U modernom informacijskom društvu, digitalni video i audio zapisi predstavljaju zlatni standard materijalnih dokaza. Od snimaka nadzornih kamera (CCTV) do audio zapisa presretnutih razgovora, pravosudni sustav snažno se oslanja na pretpostavku da je digitalni zapis vjeran prikaz stvarnosti. Međutim, ulaskom u treće desetljeće 21. stoljeća, suočavamo se s fenomenom koji neki autori opisuju kao " | ||
| + | |||
| + | Pojam **Deepfake** (kovanica od riječi "Deep Learning" | ||
| + | - **Demokratizacija: | ||
| + | - **Realizam: | ||
| + | - **Skalabilnost: | ||
| + | |||
| + | Glavni cilj ovog seminarskog rada nije samo opisati prijetnju, već definirati jasne metodološke korake koje forenzičar mora poduzeti kako bi razlikovao autentični zapis od sintetičkog. Postavlja se pitanje pouzdanosti ljudske percepcije i algoritamskih metoda u analizi digitalnih dokaza. | ||
| + | |||
| + | ===== 2. Tehnološka arhitektura generiranja ===== | ||
| + | |||
| + | Da bismo razumjeli kako detektirati manipulaciju, | ||
| + | |||
| + | ==== 2.1. Varijacijski autoenkoderi (VAE) ==== | ||
| + | Prvi val Deepfake aplikacija (poput one koja se pojavila na Redditu 2017. godine) koristio je autoenkodere. Riječ je o vrsti neuronske mreže koja uči " | ||
| + | |||
| + | Proces se sastoji od dva dijela: | ||
| + | * **Encoder (Koder):** Uzima sliku lica (npr. lica osobe A) i pretvara je u latentni vektor tj. u niz brojeva koji predstavljaju ključne značajke tog lica (razmak očiju, oblik nosa, položaj usana). | ||
| + | * **Decoder (Dekoder): | ||
| + | |||
| + | Ključni mehanizam kod zamjene lica je u korištenju **dijeljenog enkodera** i **dva različita dekodera**. Mreža nauči " | ||
| + | |||
| + | {{ : | ||
| + | **Slika 1:** Arhitektura autoenkodera. | ||
| + | Gore: Proces treniranja gdje se uče značajke oba lica. | ||
| + | Dolje: Proces generiranja gdje se latentne značajke lica A rekonstruiraju pomoću Decodera B. | ||
| + | |||
| + | ==== 2.2. Generativne suparničke mreže (GAN) ==== | ||
| + | Naprednija metoda, koju je 2014. predstavio Ian Goodfellow, omogućila je znatno višu razinu realizma. GAN arhitektura temelji se na **teoriji igara** (Game Theory), točnije na igri nulte sume između dva suprotstavljena modela: | ||
| + | |||
| + | - **Generator (G):** Njegov cilj je stvoriti lažni uzorak (sliku) koji je toliko dobar da će prevariti diskriminator. On na ulazu ne vidi stvarne slike, već nasumični šum (random noise vector). | ||
| + | - **Diskriminator (D):** Njegov zadatak je klasifikacija. On dobiva miks pravih slika iz baze podataka i lažnih slika od generatora te mora pogoditi koja je koja. | ||
| + | |||
| + | {{ : | ||
| + | **Slika 2:** Shematski prikaz GAN mreže. Generator i diskriminator su u konstantnom sukobu, pri čemu generator uči na povratnoj informaciji od diskriminatora. | ||
| + | |||
| + | Kroz tisuće ciklusa učenja, generator uči na svojim greškama. Ako diskriminator lako prepozna lažnu sliku, generator prilagođava svoje parametre (weights and biases) putem procesa zvanog **povratna propagacija pogreške (Backpropagation)**. Na kraju procesa, generator stvara slike koje su statistički nerazlučive od stvarnih. | ||
| + | |||
| + | ==== 2.3. Difuzijski modeli (Stable Diffusion) ==== | ||
| + | Najnovija generacija alata (od 2023. nadalje) koristi difuzijske modele. Oni funkcioniraju dodavanjem Gaussovog šuma slici dok ona ne postane neprepoznatljiva, | ||
| + | |||
| + | ===== 3. Forenzički artefakti i metode detekcije ===== | ||
| + | |||
| + | Unatoč napretku AI modela, oni nisu savršeni. Ostavljaju tragove, tzv. **artefakte**, | ||
| + | |||
| + | ==== 3.1. Vizualni i biološki artefakti (semantička razina) ==== | ||
| + | AI modeli uče na temelju 2D slika s interneta, zbog čega često nemaju razumijevanje 3D fizike ili ljudske biologije. | ||
| + | |||
| + | * **Problem treptanja: | ||
| + | * **Fotopletizmografija (PPG):** Ovo je napredna metoda detekcije. Ljudsko srce pumpa krv, što uzrokuje mikroskopske promjene u boji kože i refleksiji svjetla na licu koje su nevidljive golom oku, ali vidljive kameri. Deepfake algoritmi generiraju samo teksturu kože, ali ne repliciraju ovaj suptilni biološki signal pulsa. Analizom videozapisa moguće je utvrditi " | ||
| + | * **Zubi i oči:** Generativni modeli često imaju problema s detaljima visoke frekvencije. Zubi se u lažnim videima često pojavljuju kao jedna bijela masa bez jasnih razmaka između zuba. Zjenice mogu biti nepravilnog oblika (ne-kružne) ili imati različite refleksije, što je fizički nemoguće ako je izvor svjetla isti. | ||
| + | |||
| + | ==== 3.2. Frekvencijska analiza (digitalna razina) ==== | ||
| + | U situacijama kada vizualna procjena nije dovoljna, forenzička analiza oslanja se na matematičke metode. Digitalna slika nije ništa drugo nego matrica brojeva. | ||
| + | Primjenom **diskretne Fourierove transformacije (DFT)** ili **kosinusne transformacije (DCT)**, sliku prebacujemo iz prostorne domene u frekvencijsku domenu. | ||
| + | |||
| + | {{ : | ||
| + | **Slika 3:** Multimodalna analiza. Gore: Vidljivi artefakti na uhu (zamućenje i stapanje tekstura). Dolje: Fourierov spektar koji otkriva mrežaste anomalije nastale procesom up-samplinga u GAN mreži. | ||
| + | |||
| + | Deepfake slike, posebno one nastale GAN-ovima, često pokazuju abnormalnosti u visokim frekvencijama. To je posljedica operacije **Up-samplinga** (povećanja rezolucije) unutar generatora, koja ostavlja karakteristične uzorke nalik šahovnici u spektru frekvencija, | ||
| + | |||
| + | ===== 4. Praktična primjena: automatizirana analiza koda ===== | ||
| + | |||
| + | U sklopu ovog rada prikazana je konceptualna Python skripta koja koristi biblioteku **OpenCV** za analizu distribucije boja na licu, što može biti prvi indikator tzv. " | ||
| + | |||
| + | <code python> | ||
| + | import cv2 | ||
| + | import numpy as np | ||
| + | from matplotlib import pyplot as plt | ||
| + | |||
| + | def forensic_histogram_analysis(video_path, | ||
| + | """ | ||
| + | Funkcija za ekstrakciju okvira i analizu histograma boja. | ||
| + | Nagla odstupanja u histogramu mogu indicirati manipulaciju. | ||
| + | """ | ||
| + | cap = cv2.VideoCapture(video_path) | ||
| + | cap.set(cv2.CAP_PROP_POS_FRAMES, | ||
| + | ret, frame = cap.read() | ||
| + | |||
| + | if not ret: | ||
| + | print(" | ||
| + | return | ||
| + | |||
| + | # Konverzija u YCrCb prostor boja (često se koristi u forenzici kože) | ||
| + | # Y = luma (svjetlina), | ||
| + | ycrcb_image = cv2.cvtColor(frame, | ||
| + | |||
| + | # Razdvajanje kanala | ||
| + | y, cr, cb = cv2.split(ycrcb_image) | ||
| + | |||
| + | # Prikaz statistike za Chrominance kanale | ||
| + | print(f" | ||
| + | print(f" | ||
| + | |||
| + | # Detekcija anomalija: sintetička lica često imaju manju varijancu boja | ||
| + | if np.var(cr) < 150: # Arbitrarni prag za primjer | ||
| + | print(" | ||
| + | else: | ||
| + | print(" | ||
| + | |||
| + | cap.release() | ||
| + | |||
| + | # Pokretanje analize na sumnjivom dokazu | ||
| + | forensic_histogram_analysis(' | ||
| + | </ | ||
| + | |||
| + | **Objašnjenje koda:** | ||
| + | Gornji kod učitava videozapis i izolira specifičan kadar. Ključni korak je konverzija iz standardnog RGB modela u **YCrCb** model boja. Zašto? Zato što RGB miješa informaciju o svjetlini i boji. U forenzici ljudske kože, YCrCb je preferiran jer odvaja osvjetljenje (Y) od informacije o boji (Cr i Cb). Ljudska koža ima vrlo specifičan potpis u Cr/Cb kanalima. | ||
| + | Deepfake algoritmi često " | ||
| + | |||
| + | ===== 5. Audio forenzika: kloniranje glasa ===== | ||
| + | |||
| + | Dok je video manipulacija vizualno atraktivna, audio manipulacija predstavlja možda i veću neposrednu sigurnosnu prijetnju, posebno u korporativnom sektoru. Moderni **Text-to-Speech (TTS)** sustavi poput modela **Tacotron 2** ili **VALL-E** mogu klonirati nečiji glas na temelju samo tri sekunde originalnog audio zapisa. | ||
| + | |||
| + | {{ : | ||
| + | **Slika 4:** Usporedba autentičnog i sintetičkog zvuka. Prvi red: Originalni valni oblik i puni spektrogram. Drugi i treći red: Deepfake zapisi (Wav2Lip, SV2TTS) pokazuju gubitak podataka u visokim frekvencijama i ' | ||
| + | |||
| + | Forenzička analiza audija fokusira se na: | ||
| + | * **Analizu spektrograma: | ||
| + | * **Analizu disanja:** Ljudi moraju uzeti dah dok govore. Sintetički glasovi često govore duge rečenice bez pauze za udah ili su ti udasi ubačeni na neprirodna mjesta. | ||
| + | * **Mikro-tremore: | ||
| + | |||
| + | ===== 6. Studije slučaja ===== | ||
| + | |||
| + | Teoriju je najbolje potkrijepiti primjerima iz stvarne prakse koji demonstriraju modus operandi počinitelja. | ||
| + | |||
| + | === Slučaj 1: Prijevara direktora u Velikoj Britaniji (2019) === | ||
| + | Ovo je bio prvi zabilježeni slučaj velike krađe korištenjem AI-a. Izvršni direktor energetske tvrtke primio je poziv od svog nadređenog iz matične tvrtke u Njemačkoj. Glas je bio identičan – imao je isti njemački naglasak i melodiju govora. | ||
| + | **Napad:** Glas je zatražio hitan transfer 220.000 eura na račun dobavljača u Mađarskoj. | ||
| + | **Ishod:** Direktor je izvršio uplatu. Prijevara je otkrivena tek kada je " | ||
| + | **Forenzički zaključak: | ||
| + | |||
| + | === Slučaj 2: Deepfake video Volodimira Zelenskog (2022) === | ||
| + | Tijekom sukoba u Ukrajini, hakeri su kompromitirali ukrajinsku informativnu web stranicu i uploadali video u kojem predsjednik Zelensky poziva vojnike na polaganje oružja. | ||
| + | **Detekcija: | ||
| + | **Važnost: | ||
| + | |||
| + | ===== 7. Pravni okvir i dokazna snaga ===== | ||
| + | |||
| + | Tehnologija se razvija eksponencijalno, | ||
| + | |||
| + | ==== 7.1. EU AI Act (Akt o umjetnoj inteligenciji) ==== | ||
| + | Ovaj pionirski zakon klasificira AI sustave prema razini rizika. Sustavi koji generiraju Deepfake sadržaj (uključujući ChatGPT, Midjourney, itd.) podliježu **obvezama transparentnosti**. To znači da sintetički sadržaj mora biti jasno označen (npr. vodenim žigom ili metapodacima) kako bi korisnik znao da komunicira s strojem. Kršenje ovih odredbi povlači drakonske novčane kazne. | ||
| + | |||
| + | ==== 7.2. Izazov "The Liar's Dividend" | ||
| + | Najveći pravni izazov koji Deepfake donosi nije samo to što lažni dokazi mogu proći kao pravi, već obrnuto. Fenomen **" | ||
| + | Zbog postojanja ove tehnologije, | ||
| + | |||
| + | ==== 7.3. Lanac skrbništva ==== | ||
| + | Kako bi se digitalni dokaz priznao na sudu u RH, ključan je integritet lanca skrbništva: | ||
| + | - **Akvizicija: | ||
| + | - **Dokumentacija: | ||
| + | - **Ponovljivost: | ||
| + | |||
| + | ===== 8. Zaključak ===== | ||
| + | |||
| + | Forenzika se u doba generativne umjetne inteligencije suočava s kontinuiranom dinamikom nadmetanja između napada i obrane. Svaki put kad istraživači objave novu metodu detekcije (npr. nepravilnost u zjenicama), kreatori Deepfake modela tu informaciju koriste kako bi trenirali nove modele koji ispravljaju tu specifičnu grešku. | ||
| + | |||
| + | Zaključno, potpuna automatizirana detekcija vjerojatno nikada neće biti 100% pouzdana zbog prirode adverzarijskih napada. Budućnost forenzike leži u **kriptografskoj provjeri izvora** (npr. C2PA standard gdje kamere digitalno potpisuju snimku u trenutku nastanka) i **hibridnom pristupu** koji kombinira AI alate s ljudskom ekspertizom i kontekstualnom analizom. Forenzičari budućnosti moraju biti podjednako vješti u pravnim procedurama kao i u Python programiranju te analizi podataka. | ||
| + | |||
| + | ===== 9. Literatura ===== | ||
| + | |||
| + | * Goodfellow, I., Pouget-Abadie, | ||
| + | * Mirsky, Y., & Lee, W. (2021). //The Creation and Detection of Deepfakes: A Survey//. ACM Computing Surveys (CSUR), 2020 | ||
| + | * Farid, H. (2019). //Image Forensics// | ||
| + | * Europol (2022). //Facing Reality? Law enforcement and the challenge of deepfakes// | ||
| + | * Dokumentacija biblioteke OpenCV: [[https:// | ||