Pie “deepfake” viltojumiem ķeras ASV militāristi

3

Pēdējo mēnešu laikā internetā arvien vairāk nonāk ar “deepfake” pieeju radīti viltus foto un video. Tehnoloģijas (mašīnmācīšanās/mākslīgais intelekts) ļauj izveidot ļoti reālistiskas cilvēku fotogrāfijas un video. Īpaši liels risks ir tieši video gadījumā, jo nu jau ir reāli mākslīgi sagatavot, piemēram, politiķa uzrunas video, kam noticēs vairums tā skatītāju. Zemāk vari noskatīties vienu klasisku “deepfake” video piemēru, kurā attēlots viens no pēdējo laiku labākajiem ASV prezidentiem Baraks Obama.

ASV Aizsardzības departaments to vērtē kā risku un uzdevis pētniekiem uzdevumu radīt programmatūru, kas ļauj detektēt šādus viltotos materiālus.

Vienkāršiem vārdiem runājot, “deepfake” materiāli tiek veidoti apmācot datorsistēmas ar viltojamās personas fotogrāfijām un video, kas var būt lielos daudzumos brīvi pieejamas internetā. Procesā sistēma apmācās un “saprot” kā viltojamā persona attēlo dažādas emocijas un kustības. Pēc tam atliek noviltot balsi un padarīt šo viltojumu kustīgu.

Šobrīd gan vēl ir kāda nianse, kas ļauj šos “deepfake” video relatīvi viegli noteikt. Proti, vairums fotogrāfiju no kurām sistēmas apmācās ir tādas, kurās viltojamā persona ir ar atvērtām acīm un tādējādi arī vairums “deepfake” video ir tādi, kurās persona nemirkšķina acis. Tas ir tāpēc, ka šie algoritmi vēl neprot izveidot ticamu acu mirkšķināšanas attēlojumu no nekā.

Bet pētnieki nesnauž nevienā pusē un viltojumi kļūs arvien ticamāki un varēs tikt pielietoti politisko, sabiedrisko vai biznesa jautājumu ietekmēšanai. Tas ir tikai laika jautājums.

Ja rakstā pamanīji kļūdu, padod mums par to ziņu, iezīmējot ačgārno tekstu un nospiežot Ctrl+Enter. Paldies!

  • Krotow

    Žetons par Elizabetes II Trampas foto :D

  • Jānis

    Vai tas par “labāko ASV prezidentu B.O.” ir dziļi personisks viedoklis vai uzskatāma kā vispārpieņemta patiesība? Šķiet, ka autors savu viedokli veido atrodoties mucā. Paldies!

    • Kristaps Skutelis

      Tas ir mans dziļi personisks viedoklis.