Reklāma

“Deepfake” tehnoloģija nākotnē varētu radīt finanšu krāpniecības draudus

Jaunākie raksti

Microsoft izziņo, ka klasiskā Office 2021 versija būs pieejama sākot no 5. oktobra

Jau februāra sākumā Microsoft informēja, ka jaunākā Microsoft Office 2021 versija būs pieejama vēlāk šī gada laika, un pēc...

Apple iPhone 13 Pro modeļa grafiskā apstrādes jauda būs par 55% labāka nekā iPhone 12 Pro

Šajā nedēļā Apple beidzot izziņoja atjaunotus četrus iPhone 13 modeļus. Kaut arī tie vēl nav oficiāli nonākuši pie gala...

Xiaomi Eiropai izziņo Pad 5 planšetdatoru par €349

Xiaomi Pad 5 planšetdators būs pieejams pircējiem Eiropā, tā cena būs no 349 eiro. Xiaomi Pad 5 būs 11...

AGON PRO e-sporta monitoru klāstu papildina divi jauni modeļi

AGON by AOC nesen laidis klajā jaunu produktu kategoriju visprasīgākajiem un konkurētspējīgākajiem spēlētājiem un esportistiem: AGON PRO. Tagad klāstu papildina divi...

“General Motors” rekomendē “Chevy Bolt” elektroauto novietot 15 metru attālumā no citām mašīnām

"General Motors" koncerna paspārnē esošā "Chevrolet" zīmola elektroauto "Bolt" mediju virsrakstos pēdējā laikā nonācis ne to labāko iemeslu dēļ...

Kibernoziegumu sfērā turpina attīstīties deepfake jeb dziļo viltojumu tehnoloģijas, kas ar mākslīgā intelekta palīdzību ļauj radīt viltus videoklipus vai fotogrāfijas. Tās līdz šim galvenokārt izmantotas izklaides industrijā, taču tuvākajā laikā krāpnieki varētu tās pielietot arī finansiāla labuma gūšanai. Kas tās ir un kam pievērst uzmanību, lai neuzķertos uz viltus video zvaniem, skaidro Luminor Finanšu noziegumu novēršanas pārvaldes vadītājs Aleksejs Makarus.

Šobrīd plašākai sabiedrībai pieejamā dziļā viltojuma tehnoloģija atrodas vēl izklaides līmenī, piemēram, ļaujot pārveidot fotogrāfijā vai video redzamā cilvēka izskatu ar dažādu lietotņu palīdzību viedtālrunī, kuru lietošanai nav nepieciešamas specifiskas zināšanas. Tomēr tehnoloģiju potenciāli var pielietot arī nopietnākām manipulācijām, piemēram, uzbrukumiem un krāpniecības mēģinājumiem.

“Dziļo viltojumu tehnoloģijas izstrādājumus var jau pamatoti uzskatīt par nākotnes apdraudējumu, krāpnieciskiem telefona zvaniem nomainot pat reālā laika videozvanus. Dziļā viltojuma tehnoloģijas satura un autentiskuma pārbaudei nepieciešams būt īpaši modriem, turklāt jāzina, kam pievērst uzmanību, jo viltus video ir grūti atpazīt. Tas ļauj krāpniekiem vieglāk pārliecināt personas, ka krāpnieks, piemēram, ir bankas darbinieks, tādējādi iegūstot piekļuvi personas datiem un citai svarīgai informācijai, tai skaitā arī bankas kontam,” norāda Luminor Finanšu noziegumu novēršanas pārvaldes vadītājs Aleksejs Makarus.

Šobrīd Latvijā dziļo viltojumu tehnoloģiju izmantošana vēl nav plaši izplatīta, tomēr Luminor eksperts norāda, ka, pieaugot attālinātā darba popularitātei, jau pāris gadu laikā arī šai tehnoloģijai ir potenciāls radīt papildu krāpniecības riskus. Par arvien jaunām krāpniecības formām ieteicams būt informētiem pirms saskares ar tiem, jo dziļo viltojumu izmantošana var būt klātesoša arī citu, ne tikai finanšu noziegumu paveikšanai.  Piemēram, deepfake tehnoloģija var kalpot kā instruments arī citas valsts propagandai nepatiesas informācijas izplatīšanai vai, piemēram, radot viltus ziņas, kurās tiek izmantotas neīstas fotogrāfijas un pat satelītuzņēmumi.

Kā atpazīt dziļo viltojumu tehnoloģiju video?

#1 Pievērs uzmanību personas ķermeņa valodai un izskatam

Viens no pirmajiem signāliem par iespējamu dziļo viltojumu tehnoloģiju izmantošanu ir nedabiska acu vai ķermeņa kustība, kā arī sejas izteiksme kopumā. Piemēram, video redzamā persona var ilgstoši nemirkšķināt acis vai tā seja var būt dīvainas formas – tā, it kā viena fotogrāfija būtu uzlikta uz otras, jāievēro papildu piesardzība video saturam. Tāpat jāpievērš uzmanība ekrāna redzamās personas zobiem un matiem, jo šādas detaļas pagaidām ir visgrūtāk atveidot.

#2 Ieklausies fona trokšņos un skaņas kvalitātē

Vairumā gadījumu video faila sagatavošanai krāpnieki mēdz pievērst lielāku uzmanību vizuālajiem risinājumiem nekā skaņas kvalitātei un pielāgošanai saturam. Robotiska balss, nevienmērīga lūpu kustība runājot, dīvaina vārdu izruna vai digitāli veidotas fona skaņas var liecināt par to, ka video redzamā persona nav īsta.

#3 Pārbaudi attēla “vēsturi”

Papildu video vai foto autentiskuma noteikšanai var izmantot arī reverso attēla meklēšanu, piemēram, izmantojot TinEye rīku. Ar tā palīdzību var noteikt to, vai tiešsaistē atrodami līdzīgi attēli ekrānā redzamajam un vai tajā nav kas mainīts. Šobrīd tiek attīstīti arī video meklēšanas rīki, kas nākotnē palīdzēs noteikt, vai tajā netiek izmantotas dziļās tehnoloģijas. Taču tas, ko var darīt, ir mēģināt palēnināt video, pievēršot uzmanību kādai no augstāk minētajām detaļām, piemēram, personas runai, žestiem, lūpu kustībām vai citiem elementiem, kas var liecināt, ka video ir pārveidots.

Reklāma
Paziņot par jaunumiem
Paziņot par
0 Comments
Inline Feedbacks
View all comments
Reklāma
Reklāma