Sadržaj:

Duboki lažnjaci: Neuroset je naučen da generiše lažne zvukove i video zapise
Duboki lažnjaci: Neuroset je naučen da generiše lažne zvukove i video zapise

Video: Duboki lažnjaci: Neuroset je naučen da generiše lažne zvukove i video zapise

Video: Duboki lažnjaci: Neuroset je naučen da generiše lažne zvukove i video zapise
Video: Meditacija za spavanje i miran san✨💫 432Hz 2024, Maj
Anonim

Da bi se bilo kome od nas stvorila “pojedinačna” slika vijesti i falsifikovali medijski izvještaji odabrani u njoj, danas su dovoljni napori jednog programera. Stručnjaci za umjetnu inteligenciju i kibernetičku sigurnost rekli su za Izvestija o tome.

Nedavno su procijenili da je za to potreban rad više timova. Takvo ubrzanje postalo je moguće razvojem tehnologija za napade na neuronske mreže i generiranjem audio i video lažnjaka pomoću programa za kreiranje „dubokih lažnjaka“. Sličnom napadu nedavno je podvrgnut i list Izvestija, kada su tri libijska novinska portala odjednom objavila poruku koja se navodno pojavila u jednom od brojeva. Prema mišljenju stručnjaka, u roku od 3-5 godina možemo očekivati invaziju robotskih manipulatora, koji će automatski biti u mogućnosti da kreiraju mnogo lažnjaka.

Bravo novi svijet

Sve je više projekata koji informacijsku sliku prilagođavaju percepciji određenih korisnika. Jedan primjer njihovog rada je nedavna akcija tri libijska portala, koji su objavili vijest navodno objavljenu u izdanju Izvestija 20. novembra. Kreatori lažnog su modificirali naslovnu stranicu novina, postavljajući na njoj poruku o pregovorima između feldmaršala Khalife Haftara i premijera Vlade nacionalnog jedinstva (PNS) Fayeza Sarraja. Uz lažnu, fontom Izvestija, priložena je fotografija dvojice lidera snimljena u maju 2017. Oznaka sa logom publikacije izrezana je iz stvarno objavljenog broja od 20. novembra, a svi ostali tekstovi na stranici iz broja od 23. oktobra.

Sa stanovišta stručnjaka, u doglednoj budućnosti, takvi falsifikati se mogu vršiti automatski.

Truman Show - 2019: Kako su neuronske mreže naučile da lažiraju sliku vijesti
Truman Show - 2019: Kako su neuronske mreže naučile da lažiraju sliku vijesti

„Tehnologije umjetne inteligencije su sada potpuno otvorene, a uređaji za primanje i obradu podataka minijaturiziraju se i postaju jeftiniji“, rekao je Jurij Vilsiter, doktor fizičko-matematičkih nauka, profesor Ruske akademije nauka, šef odsjeka FSUE „GosNIIAS“, rekao je za Izvestije. - Stoga je velika vjerovatnoća da će u bliskoj budućnosti čak ni država i velike korporacije, već jednostavno privatnici moći da nas prisluškuju i špijuniraju, kao i da manipulišu stvarnošću. U narednim godinama biće moguće, analizom preferencija korisnika, uticati na njega putem vijesti i vrlo pametnih lažnjaka.

Prema Yuri Vilsiteru, tehnologije koje se mogu koristiti za takvu intervenciju u mentalnom okruženju već postoje. U teoriji, invazija robotskih botova se može očekivati za nekoliko godina, rekao je. Ograničavajuća tačka ovdje može biti potreba za prikupljanjem velikih baza podataka primjera odgovora stvarnih ljudi na umjetne podražaje uz praćenje dugoročnih posljedica. Za takvo praćenje će vjerovatno biti potrebno još nekoliko godina istraživanja prije nego što se dosljedno dođu do ciljanih napada.

Vision napad

Aleksej Parfentijev, šef odeljenja za analitiku u SearchInformu, takođe se slaže sa Jurijem Vilsiterom. Prema njegovim riječima, stručnjaci već predviđaju napade na neuronske mreže, iako takvih primjera sada praktično nema.

- Istraživači iz Gartnera smatraju da će do 2022. 30% svih sajber napada biti usmjereno na oštećenje podataka na kojima se neuronska mreža obučava i krađu gotovih modela mašinskog učenja. Tada, na primjer, bespilotna vozila mogu iznenada početi da greše pješake za druge objekte. I nećemo govoriti o finansijskom ili reputacionom riziku, već o životu i zdravlju običnih ljudi, smatra stručnjak.

Napadi na sisteme kompjuterskog vida sada se izvode u sklopu istraživanja. Svrha takvih napada je natjerati neuronsku mrežu da otkrije nešto na slici čega nema. Ili, obrnuto, ne vidjeti šta je planirano.

Truman Show - 2019: Kako su neuronske mreže naučile da lažiraju sliku vijesti
Truman Show - 2019: Kako su neuronske mreže naučile da lažiraju sliku vijesti

„Jedna od tema koje se aktivno razvijaju u oblasti obuke neuronskih mreža su takozvani adversarialni napadi („adversarial napadi.“- Izvestia)“, objasnio je Vladislav Tuškanov, veb analitičar u Kaspersky Lab. - U većini slučajeva oni su usmereni na sisteme kompjuterskog vida. Da biste izvršili takav napad, u većini slučajeva morate imati pun pristup neuronskoj mreži (tzv. napadi bijele kutije) ili rezultatima njenog rada (napadi crne kutije). Ne postoje metode koje mogu prevariti bilo koji sistem kompjuterskog vida u 100% slučajeva. Osim toga, već su kreirani alati koji vam omogućavaju da testirate neuronske mreže na otpornost na neprijateljske napade i povećate njihovu otpornost.

U toku takvog napada napadač pokušava nekako promijeniti prepoznatu sliku kako neuronska mreža ne bi radila. Često se na fotografiji pojavljuje šum, sličan onom koji se javlja prilikom fotografisanja u slabo osvijetljenoj prostoriji. Osoba obično ne primjećuje dobro takve smetnje, ali neuronska mreža počinje kvariti. Ali da bi izvršio takav napad, napadaču je potreban pristup algoritmu.

Prema rečima Stanislava Ašmanova, generalnog direktora Neuroset Ašmanova, trenutno ne postoje metode za rešavanje ovog problema. Osim toga, ova tehnologija je dostupna svima: prosječan programer može je koristiti preuzimanjem potrebnog softvera otvorenog koda sa usluge Github.

Truman Show - 2019: Kako su neuronske mreže naučile da lažiraju sliku vijesti
Truman Show - 2019: Kako su neuronske mreže naučile da lažiraju sliku vijesti

- Napad na neuronsku mrežu je tehnika i algoritmi za obmanjivanje neuronske mreže, zbog kojih ona daje lažne rezultate, a zapravo je razbija kao bravu na vratima - smatra Ašmanov. - Na primjer, sada je prilično lako natjerati sistem za prepoznavanje lica da misli da niste vi, već Arnold Schwarzenegger ispred njega - to se radi miješanjem aditiva neprimjetnih za ljudsko oko u podatke koji dolaze u neuronsku mrežu. Isti napadi su mogući za sisteme za prepoznavanje govora i analizu.

Stručnjak je siguran da će biti samo gore - ove tehnologije su otišle u mase, prevaranti ih već koriste, a od njih nema zaštite. Pošto ne postoji zaštita od automatizovanog kreiranja video i audio falsifikata.

Duboki lažni

Deepfake tehnologije zasnovane na Deep Learning (tehnologije dubokog učenja neuronskih mreža. - Izvestia) već predstavljaju stvarnu prijetnju. Video ili audio lažnjaci nastaju uređivanjem ili preklapanjem lica poznatih ljudi koji navodno izgovaraju potreban tekst i igraju potrebnu ulogu u zapletu.

“Deepfake vam omogućava da zamijenite pokrete usana i ljudski govor videom, što stvara osjećaj realizma onoga što se događa”, kaže Andrey Busargin, direktor odjela za inovativnu zaštitu brenda i intelektualno vlasništvo u Group-IB. - Lažne poznate ličnosti „nude“korisnicima na društvenim mrežama da učestvuju u izvlačenju vrednih nagrada (pametni telefoni, automobili, sume novca) itd. Linkovi iz takvih video publikacija često vode do lažnih i phishing stranica, gdje se od korisnika traži da unesu lične podatke, uključujući podatke o bankovnoj kartici. Takve šeme predstavljaju prijetnju i običnim korisnicima i javnim ličnostima koje se spominju u reklamama. Ova vrsta prevare počinje da povezuje slike slavnih sa prevarama ili reklamiranom robom, i tu nailazimo na štetu ličnog brenda, kaže on.

Truman Show - 2019: Kako su neuronske mreže naučile da lažiraju sliku vijesti
Truman Show - 2019: Kako su neuronske mreže naučile da lažiraju sliku vijesti

Još jedna prijetnja je povezana s korištenjem "lažnih glasova" za telefonske prijevare. Na primjer, u Njemačkoj su sajber-kriminalci koristili glasovni deepfake kako bi natjerali šefa podružnice iz Velike Britanije da hitno prebaci 220.000 eura u telefonskom razgovoru, predstavljajući se kao menadžer kompanije.na račun mađarskog dobavljača. Šef britanske firme posumnjao je na trik kada je njegov "šef" zatražio drugu uplatnicu, ali je poziv stigao sa austrijskog broja. Do tada je prva tranša već bila prebačena na račun u Mađarskoj, odakle je novac povučen u Meksiko.

Ispostavilo se da vam trenutne tehnologije omogućavaju da kreirate pojedinačnu sliku vijesti ispunjenu lažnim vijestima. Štaviše, uskoro će biti moguće razlikovati lažne od pravog videa i zvuka samo pomoću hardvera. Prema mišljenju stručnjaka, mjere koje zabranjuju razvoj neuronskih mreža vjerovatno neće biti efikasne. Stoga ćemo uskoro živjeti u svijetu u kojem će biti potrebno stalno sve provjeravati.

„Moramo se pripremiti za ovo i to se mora prihvatiti“, naglasio je Yuri Vilsiter. - Čovječanstvo nije prvi put da prelazi iz jedne realnosti u drugu. Naš svijet, način života i vrijednosti radikalno se razlikuju od svijeta u kojem su živjeli naši preci prije 60.000 godina, prije 5.000 godina, prije 2.000 godina, pa čak i prije 200-100 godina. U bliskoj budućnosti, osoba će u velikoj mjeri biti lišena privatnosti i zbog toga će biti primorana ništa ne skrivati i djelovati pošteno. Pritom se ništa u okolnoj stvarnosti i u vlastitoj ličnosti ne može uzeti na vjeru, sve će se morati preispitivati i stalno provjeravati. Ali hoće li ova buduća realnost biti strašna? br. Jednostavno će biti potpuno drugačije.

Preporučuje se: