Slijede razlike između dviju inačica stranice.
Starije izmjene na obje strane Starija izmjena Novija izmjena | Starija izmjena | ||
racfor_wiki:seminari:tehnike_detekcije_deep_fake_videa [2023/01/12 19:17] ss49505 [Sažetak] |
racfor_wiki:seminari:tehnike_detekcije_deep_fake_videa [2023/06/19 18:17] (trenutno) |
||
---|---|---|---|
Redak 1: | Redak 1: | ||
+ | ===== Tehnike detekcije deep fake videa===== | ||
===== Sažetak ===== | ===== Sažetak ===== | ||
+ | Deep fake videi su videi u kojima se lice osobe zamijeni sa licem neke druge osobe, ili se lice osobe iskrivi tak da izgleda kao da govori nešto što nije izgovarala. | ||
+ | Razvitkom tehnologije sve je teže otkriti da li je video fake ili stvaran. Ovdje dolaze metode detekcije deep fake videa. Postoje razne metode a u ovom seminaru opisane su 2 metode koje su zasnovane na biološkim obilježjima, | ||
+ | Također obrađena je i metoda povezana s PRNU-om koji je na neki način otisak kamere te se pomoću njega otkriva da li je video deep fake ili stvaran. | ||
+ | |||
+ | Obrađena je i metoda koja je zasnovana na vremenskoj konzistenciji okvira u kojoj se pomoću neuronskih mreža izdvaja lice iz videa te zatim provjerava vremenska konzistencija okvira iz videa. | ||
+ | |||
+ | Ključne riječi: deep fake video, detekcija, metode | ||
===== Uvod ===== | ===== Uvod ===== | ||
- | Budući da tehnologija deep fake videa postaje dostupna sve većoj količini korisnik, društvenim medijima proširilo se mnoštvo lažnih videozapisa. Deepfake se odnosi na manipulirane digitalne medije kao što su slike ili videozapisi gdje se slika ili video osobe zamjenjuju likom druge osobe. Zapravo, deepfake je jedan od sve ozbiljnijih problema u modernom društvu. | + | Budući da tehnologija deep fake videa postaje dostupna sve većoj količini korisnik, društvenim medijima proširilo se mnoštvo lažnih videozapisa. Deepfake se odnosi na manipulirane digitalne medije kao što su slike ili videozapisi gdje se slika ili video osobe zamjenjuju likom druge osobe. Zapravo, deepfake je jedan od sve ozbiljnijih problema u modernom društvu. |
+ | |||
+ | Deepfake se koristi za proizvodnju lažnih informacija i glasina najčešće o političarima, | ||
Redak 13: | Redak 23: | ||
- | Nama je više zanimljivo štetno korištenje kojem se pokušava stati na kraj raznim tehnikama za detekciju deep fake videa. U nastavku ovog seminara | + | Nama je više zanimljivo štetno korištenje kojem se pokušava stati na kraj raznim tehnikama za detekciju deep fake videa. U nastavku ovog seminara |
===== O deep fake videima | ===== O deep fake videima | ||
- | Kako bi objasnili kako detektirati deep fake video moramo opisati kako on nastaje. Samo ime dolazi od pojma duboko učenje (deep learning). U deep fakeu algoritmi dubokog učenja koji se sami nauče kako riješiti problem na velikom skupu podataka, koriste se za izmjenu lica u videima, slikama i ostalim digitalnim sadržajima u cilju stvaranja što realnijeg sadržaja. Izrada deep fake sadržaja sastoji se od 2 algoritma koji se međusobno natječu, jedan se zove generator, a drugi diskriminator. Generator stvara lažni digitalni sadržaj i traži od diskriminatora da otkrije je li sadržaj stvaran ili umjetan. I tako diskriminator obilježi da li je sadržaj fake ili stvaran te pošalje generatoru rezultate kako bi on mogao poboljšati sljedeći deepfake. | + | Kako bi objasnili kako detektirati deep fake video moramo opisati kako on nastaje. Samo ime dolazi od pojma duboko učenje (deep learning). U deep fakeu algoritmi dubokog učenja koji se sami nauče kako riješiti problem na velikom skupu podataka, koriste se za izmjenu lica u videima, slikama i ostalim digitalnim sadržajima u cilju stvaranja što realnijeg sadržaja. |
+ | |||
+ | Izrada deep fake sadržaja sastoji se od 2 algoritma koji se međusobno natječu, jedan se zove generator, a drugi diskriminator. Generator stvara lažni digitalni sadržaj i traži od diskriminatora da otkrije je li sadržaj stvaran ili umjetan. I tako diskriminator obilježi da li je sadržaj fake ili stvaran te pošalje generatoru rezultate kako bi on mogao poboljšati sljedeći deepfake. | ||
===== O metodama detekcije ===== | ===== O metodama detekcije ===== | ||
- | Deep fake videi kreirani su pomoću umjetne inteligencije, | + | Deep fake videi kreirani su pomoću umjetne inteligencije, |
- | Budući da se trenutne metode uglavnom temeljene na dubokom učenju one uvelike ovise o količini podataka, te o izgradnji skupova podataka visoke kvalitete. Kako se deepfake algoritmi razvijaju, novi skupovi podataka | + | Budući da se trenutne metode uglavnom temeljene na dubokom učenju one uvelike ovise o količini podataka, te o izgradnji skupova podataka visoke kvalitete. Kako se deepfake algoritmi razvijaju, novi skupovi podataka |
Redak 36: | Redak 48: | ||
===== Metode zasnovane na vremenskoj konzistenciji===== | ===== Metode zasnovane na vremenskoj konzistenciji===== | ||
- | Ova metoda se provodi u dvije faze. Prva faza uključuje korištenje CNN-a (convolutional neural network) za izdvajanje lica iz svakog okvira videa. Lice se izreže te se poravna/ | + | Ova metoda se provodi u dvije faze. Prva faza uključuje korištenje CNN-a (convolutional neural network) za izdvajanje lica iz svakog okvira videa. Lice se izreže te se poravna/ |
- | Naime radi zamjene lica može doći do narušavanja sličnosti okvira a to je točno ono što i tražimo i zato slijedi druga faza u kojoj CNN sa LSTM(Long short-term memory) pokušava otkriti vremenske nepravilnosti proizvedene tijekom postupka zamjene lica. Ako su uočene nepravilnosti video se označuje kao fake. | + | Naime radi zamjene lica može doći do narušavanja sličnosti okvira a to je točno ono što i tražimo i zato slijedi druga faza u kojoj CNN sa LSTM(Long short-term memory) pokušava otkriti vremenske nepravilnosti proizvedene tijekom postupka zamjene lica uspoređujući izrezano lice sa svojim skupom podataka. Ako su uočene nepravilnosti video se označuje kao fake. |
{{: | {{: | ||
- | U članku [3] je provedena studija koja je koristeči skup podataka od 600 videozapisa, | + | U članku [3] je provedena studija koja je koristeći skup podataka od 600 videozapisa, |
- | slučajni odabiri iz skupa podataka HOHA. Rezultati su pokazali da se ovim pristupom | + | slučajni odabiri iz skupa podataka HOHA. Rezultati su pokazali da se ovim pristupom |
===== Metode zasnovane na treptanju===== | ===== Metode zasnovane na treptanju===== | ||
- | Treptanje je poznato kao temeljna biološka funkcija koju je iznimno teško oponašati u deepfake video zapisima. S prosječnom stopom od 4,5 treptaja u sekundi i trajanjem treptaja | + | Treptanje je poznato kao temeljna biološka funkcija koju je iznimno teško oponašati u deepfake video zapisima. S prosječnom stopom od 4,5 treptaja u sekundi i trajanjem treptaja |
{{: | {{: | ||
Redak 72: | Redak 84: | ||
Deep fake videi postaju sve veći problem jer se ljudskim okom teško prepozna razlika između stvarnog i fake videa te time videi gube na vjerodostojnosti jer ne znamo da li su stvarni ili ne. | Deep fake videi postaju sve veći problem jer se ljudskim okom teško prepozna razlika između stvarnog i fake videa te time videi gube na vjerodostojnosti jer ne znamo da li su stvarni ili ne. | ||
- | Razvitkom tehnologije poboljšava se izrada deep fake videa, te se taj razvoj mora pratiti | + | Razvitkom tehnologije poboljšava se izrada deep fake videa, te se taj razvoj mora pratiti |
===== Literatura ===== | ===== Literatura ===== | ||
Redak 81: | Redak 93: | ||
for Face Manipulation Detection in Videos]] | for Face Manipulation Detection in Videos]] | ||
- | [3] [[https://www.mdpi.com/ | + | [3] [[https://pubmed.ncbi.nlm.nih.gov/35746333/|Hina Fatima Shahzad, |
[4][[https:// | [4][[https:// |