Tech

Mostantól bárkit berakhatsz egy pornóba, hála az új technológiának

  • Szerző:nuus
  • 2018.02.06 | 16:24

Eljutottunk oda, hogy hétköznapi eszközökkel lehet valakinek az arcát más emberek testére illeszteni. Persze még nem tökéletes, néha a ráillesztett arc nem követi rendesen a mozgást, szóval nem lehet vele átverni senkit, aki odafigyel. Viszont ha csak egy pillantást vetünk rá, teljesen hihető.

Deepfake az a reddit felasználó, aki pornót posztol a redditre hírességek arcával. Áldozatául esett már Maisie Williams, Taylor Swift, Scarlet Johansson, na meg Gal Gadot is, aki a fenti mozgóképen is szerepel.

Deepfake szabadon felhasználható mesterséges intelligenciákból rakta össze az algoritmusát. Ebből az algoritmusból gyúrta össze a FakeApp nevű programot, amit bárki szabadon letölthet a redditről, ugyanis a hamis híresség pornók mellé ezt is feltette.

Ez többé már nem agysebészet.

Kicsit azért ijesztő, hogy elég egy szelfi, és bárki, aki ártani akar neked, simán elhelyezhet egy olyan felvételen, ami kellemetlen helyzetbe hozhat. Egy szelfihez meg nem túl nehéz hozzájutni az Instagram meg a Facebook világában. Persze vicces dolgokat is ki lehet hozni belőle, könnyen berakhatod bármelyik haverodat egy fail videóba, vagy egy szerencsétlenkedő filmkarakter szerepébe. Képzeld csak el, hogy az Amerikai Pitében Jim helyett a legjobb haverod közösül egy pitével, és ez még csak egy a rengeteg kínos helyzet közül, ahova behelyezheted valamelyik ismerősödet.

Az interneten a pornót egyből a mémek követik

A híres hölgyek pornója után Nicholas Cage-re vetette rá magát az internet népe, akit ugyan nem láthatunk pornóban, viszont mindenhol máshol igen. Cage már amúgy is egy meme volt, nem csoda, hogy a FakeApp-nak is ő az egyik fő célpontja. Az alábbi videóban láthatod Indiana Jones-ként, ami viszont még viccesebb, hogy sok nő is megkapta Nicholas Cage arcát, ráadásul egészen valósághűen.

Mostantól a videók hitelessége is kérdéses

Fotókat eddig is könnyen lehetett hamisítani, de a videókat nehéz volt manipulálni, különösen házilag. Ez az alkalmazás lehetővé teszi, hogy bárki rossz helyzetbe hozzon bárkit, az eredmény pedig egész hihető, főleg ha nincs sok mozgás a felvételen. Habár az intenzívebb mozgásokat még nehezen kezeli az algoritmus, Deepfake folyamatosan fejleszti a programot, szóval idővel egyre hihetőbben lehet majd hamisítani a videókat. Amint tökélyre fejlesztik, komoly problémákat okozhat a valóság megítélésében. Sima ügy lesz politikusok arcát használni, ezt pedig könnyen össze lehet kombózni a hang manipulációjával, ami már régóta létező dolog. Ebből kifolyólag nem lesz olyan nehéz hamis háborús, vagy politikai híreket terjeszteni.

Nyitókép: pexels.com

Megosztás Facebookon
Megosztás Twitteren
Hogy tetszett? Regisztrálj, és csak azt kapod, ami igazán érdekel!
Belföld
Külföld
Bulvár
Tech
Tudomány
Lepj meg!

Belépve nem neked kell a hírek után menned!*

*Hiszen a hírfolyamodba viszi a folyamatosan tanuló algoritmusunk Regisztrálok!
Még többet innen:
Nuus
Tetszett a cikk?

Hírlevél - feliratkozom, mert az jó nekem

Szólj hozzá Nincs hozzászólás
Hozzászólások mutatása

Válasz vagy komment írása

Cikkajánló
Egészség
Még egy érv a gyorskaják ellen
  • szerző:nuus
  • 2018. 10. 16.
A következő cikkek betöltése folyamatban...