Pagājuši jau vairāki mēneši, kopš uzņēmums “OpenAI” prezentēja savu mākslīgā intelekta (MI) čatbotu “ChatGPT“. Tas radīja lielu apvērsumu tehnoloģiju pasaulē, vienlaikus liekot apjaust šādu risinājumu priekšrocības un trūkumus. Runājot par trūkumiem, viens no tiem acīmredzot ir privātums. Saistībā ar to Itālijas nacionālā datu aizsardzības aģentūra paziņojusi, ka bloķēs piekļuvi “ChatGPT” un apsūdzējusi “OpenAI” nelikumīgā personas datu vākšanā.
Itālijas privātuma regulators ir licis bloķēt “ChatGPT”, jo pastāv bažas, ka “OpenAI” savā datu apstrādes politikā pārkāpj Eiropas Savienības Vispārīgās datu aizsardzības regulas (GDPR) principus. Regulators apgalvo, ka nav juridiskā pamata “OpenAI” masveidā ievākt un glabāt lietotāju datus “ChatGPT” modeļa apmācībai. Tāpat tiek pieminēts datu pārkāpums 20. martā, kad kļūdas dēļ daži “ChatGPT” lietotāji varēja redzēt citu lietotāju sarunu tematus.
Regulators arī apgalvo, ka “OpenAI” nedara pietiekami daudz, lai aizsargātu bērnu privātumu. Lai gan “OpenAI” norāda, ka “ChatGPT” ir paredzēts lietotājiem, kuri vecāki par 13 gadiem, saskaņā ar amatpersonu teikto, netiek veikta vecuma pārbaude. Līdz ar to bērniem ir piekļuve absolūti nepiemērotai informācijai, ko atbildēs sniedz čatbots.
Ņemot to visu vērā, Itālijas privātuma regulators dod “OpenAI” 20 dienas laika, lai uzņēmums atklātu, kā tas risinās šīs datu privātuma problēmas. Ja “OpenAI” nedarīs neko lietas labā, tam draud naudas sods līdz 20 miljoniem eiro vai 4% no gada globālā apgrozījuma.
Lielākā ķeza dēļ šādiem botiem būs masu plaģiāts un lēmumu pieņemšana, lietotāju slinkuma vai stulbuma dēļ balstoties uz bota ģenerēto saturu.