Tudomány

Mélyhamisítás: már a megtévesztést is mesterséges intelligencia csípi fülön

  • Szerző:nuus
  • 2024.10.06 | 09:33

Mesterséges intelligencia használatos ma már a mélyhamisítás és a megtévesztések feltárásra is. Egyre gyakoribbak a manipulált videók, fotók és hangok - a súlyosbodó problémát pedig meg kell állítani.

Napjainkban egyre nagyobb gondot jelent a mélyhamisítás, és hogy megtévesztések jelennek meg a médiában, az interneten – melyeket a tudósok most mesterséges intelligencia (MI) segítségével is igyekeznek hatástalanítani.

A mélyhamisítás kezelése rendkívül fontos, hiszen drámai hatást gyakorolhatnak az emberekre azzal, hogy szerte a médiában megjelennek.

Mit lehet tenni a mélyhamisítás ellen?

A tudósok újabban a Super Machine Learning (szuper gépi tanulás) bevetésével észlelik az MI által generált hamisítványokat – amelyek léteznek szép számmal, lehetnek azok manipulált videók, fotók és hangok – írta a dw.com.

A mesterséges intelligenciát bevezették a mélyhamisítás új szintjére, s ma már nagyon nehéz megmondani, mi a valódi és mi a hamis – mondta Nicolas Müller, a Fraunhofer Institute AISEC munkatársa.

Az MI igencsak megkönnyíti, hogy hamis képeket, videókat lehessen készíteni. Rengeteg képpel, felvétellel szembesülünk nap mint nap, s egyre több köztük az olyan, amelyet manipuláltak. Nicolas Müller megjegyezte: mint minden eszköz, a mesterséges intelligencia is használható jól és rosszul. „Mi a potenciális visszaéléseket keressük és igyekszünk ellensúlyozni azokat” – hangsúlyozta.

Olvasd el ezt is: A PornHub és a Twitter nem kér a hamis pornóból

Mesterséges intelligencia a deepfake-azonosításban
Mesterséges intelligencia használatos ma már a deepfake, azaz MI-vel alkotott mély hamisítványok azonosításában is – Fotó: dw.com

Ahhoz, hogy azonosítsák a mesterséges intelligencia-generálta hamisítványokat, a Fraunhofer Institute for Applied and Integrated Security intézet kutatói egy másik MI-technológiát vetettek be: a szuper gépi tanulást.

A Super Machine Learning számos audio és video felvétel mintáinak tanulmányozásával megtanulja azonosítani a mintákat, s fel tudja címkézni a hamis tartalmat. A mesterséges intelligencia-támogatás ezen fajtája kulcsfontosságú – mivel korábban gyakorlatilag lehetetlen volt az emberek számára a mély hamisítványok, vagyis a deepfake-ek észlelése.

A mélyhamisítás azonosítása versenyfutás az idővel

Ennek oka pedig főként az, hogy az agresszorok egyre jobban pörgetik a dolgot, emelik a tétet – jelentette ki Nicolas Müller.

A mesterséges intelligencia modellek maguktól nem lesznek jobbak, de a kutatók erőfeszítést tesznek azért, hogy fejlesszék őket, s jobb megoldásokat találjanak arra, hogy azonosítsák, felfedjék a deepfake-eket – jegyezte meg a szakember.

Hasonló technológiát használnak egyébként a hirdetések terén is. Az embereknek megvan a hajlandósága arra, hogy elhiggyék a hihetetlent.

„Az emberek el akarják hinni, amit látnak. Ugyanígy, amit nem akarnak látni, azt nem vágynak elhinni”

– mondta Claudia Bussjaeger, a berlini Yesweprompt alapítója, aki az első német platformot vezeti mesterséges intelligencia-művészek számára.

Korábban olyan területen dolgozott, amely gyakran feszegeti az igazság határait. Nincsenek nagyon hirdetések, amelyeknek egy részébe ne nyúltak volna bele, ne lenne valami, ami a valóságban nem olyan. De senki sem tesz fel ezzel kapcsolatban kérdéseket – jegyezte meg.

A képeknek erejük van, s akárcsak a hamis szövegek, nagy manipuláló erővel bírnak, téves információkat terjesztenek.

„A nyilvánosságnak támaszkodnia kell az információkra, amelyeket kap, tudnunk kell a világról, amelyben élünk, s ebben nagy szerepet játszik a média. Ha pedig már nem bízhatunk többé az információkban, amelyeket kapunk, az komoly, alapvető problémát jelent”

– emelte ki Maximilian Eder, kommunikációs tudós.

Mindenhova begyűrűztek a deepfake-ek

Manapság a mély hamisítványokkal olyan tartalmak hozhatók létre, amelyeknek semmi közük a valósághoz és úgy lehet manipulálni azokat, hogy elérjenek bizonyos célt, ami rendkívül veszélyes.

Florian Dengler kreatív mesterséges intelligencia-művész szerint mindig úgy alakult az idő folyamán, hogy ha egy új technológia megjelent, egy másik eltűnt. Már nincsenek például igazán vezetékes telefonjaink, egy napon talán autók le lesznek.

„Fel kell tennünk magunknak a kérdést, hogyan használhatjuk a mesterséges intelligenciát pozitív módon, hogy ne destruktív legyen”

– jegyezte meg.

Manapság pár szó elég ahhoz, hogy klónozni lehessen egy hangot, amely aztán felhasználható például az idős emberek telefonos becsapására.

Ugyanezen technológiának azonban nagyon áldásos hatása is van – a Google fejlesztette eszköz például lehetővé teszi a beszédkészségüket elveszített emberek számára, hogy kommunikáljanak, méghozzá a saját hangjuk felhasználásával.

„Ez a megoldás ugyanazt a technológiát használja, amelyet rosszra is lehet alkalmazni, hogy deepfake-ek készüljenek. S ez megmutatja, hogy technológiaként a mesterséges intelligencia önmagában erkölcsileg semleges. Teljes mértékben rajtunk múlik, hogyan használjuk”

– mondta el Nicolas Müller.

Hozzátette: a jogi keretek csak most vannak kialakulóban, s ahogyan sok esetben, a jogalkotás lassabb, mint a fejlesztések, a technológia mögött halad. Ezért fontos, hogy a politikusok is részesei legyenek a helyzet javításának, ki kell állniuk amellett, hogy ne legyenek komoly problémáink a jövőben a technológia kapcsán – jelezte a szakember.

Olvasd el ezt is: Brutális tartalom került fel a Youtube-ra és órákon át elérhető volt

(Via)


Megosztás Facebookon
Megosztás Twitteren
Szólj hozzá Nincs hozzászólás
Hozzászólások mutatása

Válasz vagy komment írása

Cikkajánló