Slijede razlike između dviju inačica stranice.
Starije izmjene na obje strane Starija izmjena Novija izmjena | Starija izmjena | ||
racfor_wiki:seminari:tehnike_detekcije_deep_fake_videa [2023/01/12 18:26] ss49505 [Uvod] |
racfor_wiki:seminari:tehnike_detekcije_deep_fake_videa [2024/12/05 12:24] (trenutno) |
||
---|---|---|---|
Redak 9: | Redak 9: | ||
Također obrađena je i metoda povezana s PRNU-om koji je na neki način otisak kamere te se pomoću njega otkriva da li je video deep fake ili stvaran. | Također obrađena je i metoda povezana s PRNU-om koji je na neki način otisak kamere te se pomoću njega otkriva da li je video deep fake ili stvaran. | ||
- | Obrađena je i metoda koja je zasnovana na vremenskoj | + | Obrađena je i metoda koja je zasnovana na vremenskoj |
Ključne riječi: deep fake video, detekcija, metode | Ključne riječi: deep fake video, detekcija, metode | ||
Redak 23: | Redak 23: | ||
- | Nama je više zanimljivo štetno korištenje kojem se pokušava stati na kraj raznim tehnikama za detekciju deep fake videa. U nastavku ovog seminara | + | Nama je više zanimljivo štetno korištenje kojem se pokušava stati na kraj raznim tehnikama za detekciju deep fake videa. U nastavku ovog seminara |
===== O deep fake videima | ===== O deep fake videima | ||
- | Kako bi objasnili kako detektirati deep fake video moramo opisati kako on nastaje. Samo ime dolazi od pojma duboko učenje (deep learning). U deep fakeu algoritmi dubokog učenja koji se sami nauče kako riješiti problem na velikom skupu podataka, koriste se za izmjenu lica u videima, slikama i ostalim digitalnim sadržajima u cilju stvaranja što realnijeg sadržaja. Izrada deep fake sadržaja sastoji se od 2 algoritma koji se međusobno natječu, jedan se zove generator, a drugi diskriminator. Generator stvara lažni digitalni sadržaj i traži od diskriminatora da otkrije je li sadržaj stvaran ili umjetan. I tako diskriminator obilježi da li je sadržaj fake ili stvaran te pošalje generatoru rezultate kako bi on mogao poboljšati sljedeći deepfake. | + | Kako bi objasnili kako detektirati deep fake video moramo opisati kako on nastaje. Samo ime dolazi od pojma duboko učenje (deep learning). U deep fakeu algoritmi dubokog učenja koji se sami nauče kako riješiti problem na velikom skupu podataka, koriste se za izmjenu lica u videima, slikama i ostalim digitalnim sadržajima u cilju stvaranja što realnijeg sadržaja. |
+ | |||
+ | Izrada deep fake sadržaja sastoji se od 2 algoritma koji se međusobno natječu, jedan se zove generator, a drugi diskriminator. Generator stvara lažni digitalni sadržaj i traži od diskriminatora da otkrije je li sadržaj stvaran ili umjetan. I tako diskriminator obilježi da li je sadržaj fake ili stvaran te pošalje generatoru rezultate kako bi on mogao poboljšati sljedeći deepfake. | ||
===== O metodama detekcije ===== | ===== O metodama detekcije ===== | ||
- | Deep fake videi kreirani su pomoću umjetne inteligencije, | + | Deep fake videi kreirani su pomoću umjetne inteligencije, |
- | Budući da se trenutne metode uglavnom temeljene na dubokom učenju one uvelike ovise o količini podataka, te o izgradnji skupova podataka visoke kvalitete. Kako se deepfake algoritmi razvijaju, novi skupovi podataka | + | Budući da se trenutne metode uglavnom temeljene na dubokom učenju one uvelike ovise o količini podataka, te o izgradnji skupova podataka visoke kvalitete. Kako se deepfake algoritmi razvijaju, novi skupovi podataka |
Redak 46: | Redak 48: | ||
===== Metode zasnovane na vremenskoj konzistenciji===== | ===== Metode zasnovane na vremenskoj konzistenciji===== | ||
- | Ova metoda se provodi u dvije faze. Prva faza uključuje korištenje CNN-a (convolutional neural network) za izdvajanje lica iz svakog okvira videa. Lice se izreže te se poravna/ | + | Ova metoda se provodi u dvije faze. Prva faza uključuje korištenje CNN-a (convolutional neural network) za izdvajanje lica iz svakog okvira videa. Lice se izreže te se poravna/ |
- | Naime radi zamjene lica može doći do narušavanja sličnosti okvira a to je točno ono što i tražimo i zato slijedi druga faza u kojoj CNN sa LSTM(Long short-term memory) pokušava otkriti vremenske nepravilnosti proizvedene tijekom postupka zamjene lica. Ako su uočene nepravilnosti video se označuje kao fake. | + | Naime radi zamjene lica može doći do narušavanja sličnosti okvira a to je točno ono što i tražimo i zato slijedi druga faza u kojoj CNN sa LSTM(Long short-term memory) pokušava otkriti vremenske nepravilnosti proizvedene tijekom postupka zamjene lica uspoređujući izrezano lice sa svojim skupom podataka. Ako su uočene nepravilnosti video se označuje kao fake. |
{{: | {{: | ||
- | U članku [3] je provedena studija koja je koristeči skup podataka od 600 videozapisa, | + | U članku [3] je provedena studija koja je koristeći skup podataka od 600 videozapisa, |
- | slučajni odabiri iz skupa podataka HOHA. Rezultati su pokazali da se ovim pristupom | + | slučajni odabiri iz skupa podataka HOHA. Rezultati su pokazali da se ovim pristupom |
===== Metode zasnovane na treptanju===== | ===== Metode zasnovane na treptanju===== | ||
- | Treptanje je poznato kao temeljna biološka funkcija koju je iznimno teško oponašati u deepfake video zapisima. S prosječnom stopom od 4,5 treptaja u sekundi i trajanjem treptaja | + | Treptanje je poznato kao temeljna biološka funkcija koju je iznimno teško oponašati u deepfake video zapisima. S prosječnom stopom od 4,5 treptaja u sekundi i trajanjem treptaja |
{{: | {{: | ||
Redak 82: | Redak 84: | ||
Deep fake videi postaju sve veći problem jer se ljudskim okom teško prepozna razlika između stvarnog i fake videa te time videi gube na vjerodostojnosti jer ne znamo da li su stvarni ili ne. | Deep fake videi postaju sve veći problem jer se ljudskim okom teško prepozna razlika između stvarnog i fake videa te time videi gube na vjerodostojnosti jer ne znamo da li su stvarni ili ne. | ||
- | Razvitkom tehnologije poboljšava se izrada deep fake videa, te se taj razvoj mora pratiti | + | Razvitkom tehnologije poboljšava se izrada deep fake videa, te se taj razvoj mora pratiti |
===== Literatura ===== | ===== Literatura ===== | ||
Redak 91: | Redak 93: | ||
for Face Manipulation Detection in Videos]] | for Face Manipulation Detection in Videos]] | ||
- | [3] [[https://www.mdpi.com/ | + | [3] [[https://pubmed.ncbi.nlm.nih.gov/35746333/|Hina Fatima Shahzad, |
[4][[https:// | [4][[https:// |