Dieses Dokuwiki verwendet ein von Anymorphic Webdesign erstelltes Thema.

Razlike

Slijede razlike između dviju inačica stranice.

Poveznica na ovu usporedbu

Starije izmjene na obje strane Starija izmjena
Novija izmjena
Starija izmjena
racfor_wiki:video:deepfake_video_-_tehnike_detekcije [2022/01/09 19:25]
tcuma [Uvod]
racfor_wiki:video:deepfake_video_-_tehnike_detekcije [2024/12/05 12:24] (trenutno)
Redak 25: Redak 25:
 U ovoj kategoriji videosadržaj se analizira okvir po okvir. Za treniranje neuronske mreže koriste se otprije detektirani deepfake sadržaji kako bi mreža naučila raspoznavati nove uređene sadržaje. Učenje transferom bio je jedan od prvih pristupa detekcije gdje su se koristili već postojeći algoritmi za klasifikaciju slika. Negativna strana tih algoritama je sklonost preveliko prilagođavanje modelu te nemogućnost detekcije nekonzistencija između uzastopnih okvira. [5] U ovoj kategoriji videosadržaj se analizira okvir po okvir. Za treniranje neuronske mreže koriste se otprije detektirani deepfake sadržaji kako bi mreža naučila raspoznavati nove uređene sadržaje. Učenje transferom bio je jedan od prvih pristupa detekcije gdje su se koristili već postojeći algoritmi za klasifikaciju slika. Negativna strana tih algoritama je sklonost preveliko prilagođavanje modelu te nemogućnost detekcije nekonzistencija između uzastopnih okvira. [5]
 Neuronska mreža može se postaviti i tako da raspodijeli okvir u kapsule koje analiziraju pojedinačne aspekte lica. Ovaj pristup ima bolje rezultate što je neuronska mreža dublja i razvijenija.  Neuronska mreža može se postaviti i tako da raspodijeli okvir u kapsule koje analiziraju pojedinačne aspekte lica. Ovaj pristup ima bolje rezultate što je neuronska mreža dublja i razvijenija. 
-slika+ 
 +{{ racfor_wiki:video:2.jpg?400 }} 
 Ova vrsta metoda predstavlja prvi korak u detekciji deepfake video zapisa. Ova vrsta metoda predstavlja prvi korak u detekciji deepfake video zapisa.
  
Redak 32: Redak 34:
  
 Vremenska konzistentnost je aspekt koji imaju okviri kod videozapisa. Susjedni okviri u videozapisima su uvijek vrlo slični te će se uređivanjem videozapisa uništeno ta sličnost okvira ili dijela okvira (u području lica). Neuronske mreže za ovu vrstu detekcije prvo izvode postupak sličan prethodnoj kategoriji te rezultate pohranjuju. Nakon obrade svih okvira drugi dio mreže uspoređuje sličnosti izlaza prvog dijela te ih stavlja u vremenski kontekst te se na kraju donosi zaključak o autentičnosti videa. Vremenska konzistentnost je aspekt koji imaju okviri kod videozapisa. Susjedni okviri u videozapisima su uvijek vrlo slični te će se uređivanjem videozapisa uništeno ta sličnost okvira ili dijela okvira (u području lica). Neuronske mreže za ovu vrstu detekcije prvo izvode postupak sličan prethodnoj kategoriji te rezultate pohranjuju. Nakon obrade svih okvira drugi dio mreže uspoređuje sličnosti izlaza prvog dijela te ih stavlja u vremenski kontekst te se na kraju donosi zaključak o autentičnosti videa.
-slika+ 
 +{{ racfor_wiki:video:3.jpg?400 }} 
 Iako puno napredniji od općeg pristupa, nedostaci ovog pristupa su nemogućnost detekcije prostornih anomalija, videozapisi u kojima se događaju nagle promjene okvira (npr. izmjene kadra) i kao sa svakom neuronskom mrežom novi pristupi izradi deepfake videa. Iako puno napredniji od općeg pristupa, nedostaci ovog pristupa su nemogućnost detekcije prostornih anomalija, videozapisi u kojima se događaju nagle promjene okvira (npr. izmjene kadra) i kao sa svakom neuronskom mrežom novi pristupi izradi deepfake videa.
  
Redak 39: Redak 43:
  
 Mnoge metode stvaranja deepfake videa pokušavaju na originalno lice umiješati odnosno preslikati novo lice. Ovaj proces je gotovo nemoguće savršeno provesti zato što je svako ljudsko lice unikatno. Tako se na rubovima uređivanja često nalazi granica koju se može uočiti.  Mnoge metode stvaranja deepfake videa pokušavaju na originalno lice umiješati odnosno preslikati novo lice. Ovaj proces je gotovo nemoguće savršeno provesti zato što je svako ljudsko lice unikatno. Tako se na rubovima uređivanja često nalazi granica koju se može uočiti. 
-slika+ 
 +{{ racfor_wiki:video:4.jpg?400 }} 
 U ovoj kategoriji detekcije može se tražiti više nekonzistentnosti. Algoritmi se često fokusiraju na samo jedno područje, a neka od tih područja su: granica miješanja slika, nekonzistentnost u položaju aspekta lica s položajem glave te razlika u boji i rezoluciji područja glave i ostatka slike. Najizraženiji nedostatak ovih metoda je zapravo njihovo pomaganje u razvoju boljih deepfake algoritama. Kako se deepfake algoritmi poboljšavaju učeći od prethodnih detekcija tako ovi pristupi detekciji postaju neuporabivi. U ovoj kategoriji detekcije može se tražiti više nekonzistentnosti. Algoritmi se često fokusiraju na samo jedno područje, a neka od tih područja su: granica miješanja slika, nekonzistentnost u položaju aspekta lica s položajem glave te razlika u boji i rezoluciji područja glave i ostatka slike. Najizraženiji nedostatak ovih metoda je zapravo njihovo pomaganje u razvoju boljih deepfake algoritama. Kako se deepfake algoritmi poboljšavaju učeći od prethodnih detekcija tako ovi pristupi detekciji postaju neuporabivi.
  
Redak 49: Redak 55:
  
  
-==== Metode zasnovane na otisku kamere ====+==== Metode zasnovane na biološkim signalima ====
  
 Kao što je spomenuto u članu [3] najteži dio stvaranja deepfake video sadržaja je ostaviti dojam da se radi o pravoj osobi. Naime jednu sliku je urediti da izgleda uvjerljivo, ali u videu deepfake treba pokazati i ljudsko ponašanje. Analizu ponašanja najbolje mogu prosuditi sami ljudi, ali analize se mogu učiniti i iz pomoć umjetne inteligencije. U procesu stvaranja deepfakea se koriste brojne slike ljudi, a na tim slikama ljudi najčešće imaju otvorene oči i zbog toga je algoritmu teško generirati uvjerljiv treptaj. Neuronske mreže za detekciju se tako mogu samo fokusirati na oči lica te proučavati treptaje i patente treptaja. Kao što je spomenuto u članu [3] najteži dio stvaranja deepfake video sadržaja je ostaviti dojam da se radi o pravoj osobi. Naime jednu sliku je urediti da izgleda uvjerljivo, ali u videu deepfake treba pokazati i ljudsko ponašanje. Analizu ponašanja najbolje mogu prosuditi sami ljudi, ali analize se mogu učiniti i iz pomoć umjetne inteligencije. U procesu stvaranja deepfakea se koriste brojne slike ljudi, a na tim slikama ljudi najčešće imaju otvorene oči i zbog toga je algoritmu teško generirati uvjerljiv treptaj. Neuronske mreže za detekciju se tako mogu samo fokusirati na oči lica te proučavati treptaje i patente treptaja.
-slika+ 
 +{{ racfor_wiki:video:5.jpg?650 }} 
 Međutim kao i kod prethodnih metoda učestalim korištenjem ove metode poboljšat će se izrada deepfake algoritama. Najjednostavnije rješenje kako prevariti ovu metodu detekcije je dodavanje dovoljnog broja lica sa zatvorenim očima u skup slika za treniranje deepfake algoritma. Međutim kao i kod prethodnih metoda učestalim korištenjem ove metode poboljšat će se izrada deepfake algoritama. Najjednostavnije rješenje kako prevariti ovu metodu detekcije je dodavanje dovoljnog broja lica sa zatvorenim očima u skup slika za treniranje deepfake algoritma.
  
Redak 63: Redak 71:
 ===== Literatura ===== ===== Literatura =====
  
-[1] [[http://books.google.hr/books?id=mFJe8ZnAb3EC&printsec=frontcover#v=onepage&q&f=false|PlassJan L., Roxana Moreno, and Roland BrünkenCognitive Load TheoryCambridge University Press2010.]]+[1] [[https://www.researchgate.net/profile/Zeno-Geradts/publication/329814168_Detection_of_Deepfake_Video_Manipulation/links/5c1bdf7da6fdccfc705da03e/Detection-of-Deepfake-Video-Manipulation.pdf|Rodriguez A.M and Geradts Z. Detection of Deepfake Video Manipulation.     Netherlands Forensic Institute, 2018.]] 
 + 
 +[2] [[https://www.vecernji.hr/vijesti/specijalist-za-obradu-fotografija-prokomentirao-nam-je-montazu-ministra-tolusica-i-prostituke-1296628|Jurišić R. Članak. Večernji list24siječnja 2019.]] 
 + 
 +[3] [[https://www.theverge.com/2021/3/5/22314980/tom-cruise-deepfake-tiktok-videos-ai-impersonator-chris-ume-miles-fisher|Vincent J. Tom Cruise deepfake creator says public shouldn’t be worried about ‘one-click fakes’. The Verge5ožujka 2021.]] 
 + 
 +[4] [[https://newatlas.com/computers/deepfake-nostalgia-myheritage-animate-deceased-relatives/|Haridy R. Deepfake tech used to bring dead relatives back to life.  New Atlas28. veljače 2021.]] 
  
-[2] [[http://www.google.com/books?id=duWx8fxkkk0C&printsec=frontcover#v=onepage&q&f=false|Mayer, Richard EThe Cambridge handbook of multimedia learningCambridge University Press2005.]]+[5] [[https://ietresearch.onlinelibrary.wiley.com/doi/10.1049/bme2.12031|Peipeng YuZhihua Xia, Jianwei Fei, Yujiang Lu; A Survey on Deepfake Video Detection. 2021.]]
  
-[3] [[http://www.cogtech.usc.edu/publications/kirschner_Sweller_Clark.pdf|Kirschner, P. A, Sweller, J. and Clark, R. E. Why minimal guidance during instruction does not work: An analysis of the failure of constructivist, discovery, problem-based, experiential, and inquiry-based teaching. Educational psychologist 41, no. 2, pp 75-86, 2006]] 
  
 +[6] [[https://www.photometrics.com/learn/advanced-imaging/pattern-noise-dsnu-and-prnu| Pattern Noise: DSNU and PRNU]]
  
racfor_wiki/video/deepfake_video_-_tehnike_detekcije.1641756308.txt.gz · Zadnja izmjena: 2024/12/05 12:23 (vanjsko uređivanje)
Dieses Dokuwiki verwendet ein von Anymorphic Webdesign erstelltes Thema.
CC Attribution-Share Alike 4.0 International
www.chimeric.de Valid CSS Driven by DokuWiki do yourself a favour and use a real browser - get firefox!! Recent changes RSS feed Valid XHTML 1.0