Runas par mākslīgo intelektu, mākslīgo neironu tīklu un mašīnmācīšanos ir jau mūsu ikdiena, bet vienlaikus tiek atzīts, ka pat paši mākslīgā intelekta izveidotāji nezina, kā tieši norit datu apstrāde, kā mākslīgā intelekta smalkie algoritmi nonāk pie sniegtās atbildes vai darbības.
Pagājušajā gadā Ņūdžersijā Nvidia izmēģināja eksperimentālu automašīnu, kas būtiski atšķiras no konkurentiem – mākslīgais intelekts šajā auto mācījās no īsta autovadītāja. Tikmēr Google, Tesla un General Motors paļaujas uz automašīnas programmēšanu un pēcāku palaišanu ielās.
Nvidia automašīnai inženieri nebija ieprogrammējuši neko, kas saistāms ar pārvietošanos ielās. Sarežģītu, iepriekš noteiktu darbību vietā Nvidia automašīnā mācījās visu kā bērns no pieredzējuša autovadītāja. Iespaidīgi, bet tajā pašā laikā – bīstami.
Nvidia nespēj izskaidrot līdz galam, ko tieši automašīna ir iemācījusies, kā tā interpretējusi autovadītāja darbības. Neviens nezina, kā tieši Nvidia auto pieņem lēmumus ceļu satiksmē. Nvidia autonomā automašīna uzrādīja līdzvērtīgu braukšanas prasmi kā īsts vadītājs, bet neviens nevar pateikt, kad pienāks kāds kritiskais mirklis automašīnas pašbraukšanas algoritmos, jo neviens nezina, kā tie strādā. Tāpat cilvēks, visticamāk, nespēs atrast un novērst kļūdas.
Tāpat tiek uzskatīts, ka mākslīgais intelekts ne vienmēr spēs izskaidrot cilvēkam saprotamā veidā, kā un kāpēc pieņemts konkrēts lēmums. Te arī nonākam pie lielākās šībrīža mākslīgā intelekta problēmas – tas pats mācās, bet neviens nevar pateikt, ko tieši mākslīgais intelekts iemācījies un kā “zināšanas” tiks izmantotas nākotnē.
Bez saprotamas informācijas par mākslīgā intelekta mācīšanās procesiem neviens nevar pateikt, kad un kādos apmēros tas kļūdīsies. Bet cilvēce jau ir gatava mākslīgajam intelektam uzticēt investīciju lēmumus, satiksmes regulēšanu, veselības aprūpi, militārus lēmumus u.tml.
Šobrīd Eiropas Savienība strādā pie likumdošanas, kas liks jau 2018. gadā uzņēmumiem precīzi izskaidrot dažādu mākslīgā intelekta lēmumu pieņemšanas procesus. Daudzi eksperti uzskata, ka uzņēmumi nespēs izskaidrot pat salīdzinoši vienkāršus procesus, piemēram, dziesmas izvēli mūzikas straumēšanas servisā, kas saistāma ar lietotāja tīmekļa pārskatīšanas vēsturi.
Sava loģika taču ir. Neviens nezina arī, kā darbojas “dabiskais intelekts” un kurā brīdī kļūdīsies cilvēka domāšana.
Dabiskajam intelektam ir aizsardzības mehānisms – pasšaglabāšanās instinkts, emocijas un vērtības. Tas māk mīlēt, pieķerties lietām, priecāties… Bet mākslīgais intelekts tikai pieņem sausus lēmumus, kas balstās uz tikai viņam saprotamu loģiku (jo tas neko nejūt).
Arī Stīvens Hokings kādā no savām uzrunām brīdināja par draudiem cilvēcei, ko var radīt mākslīgā intelekta attīstība.
To tu tā skaisti pateici. Vienkāršāk izsakoties, dabiskais intelekts ir ietekmējams, tendenciozs un neprecīzs. :)
Cilvēki (no malas skatoties) arī tikai pieņem lēmumus, kas balstās tikai uz viņiem saprotamu loģiku. Tā kā esam uzbūvēti visi daudz maz līdzīgi, tad Tu vari nojaust kāpēc kāds ir rīkojies tā vai citādi.
Iztulko man, ko nozīmē just?
Vienkāršs piemērs: mākslīgais intelekts ļoti viegli varētu pieņemt lēmumu samazināt par 2/3 cilvēku skaitu uz planētas, lai saglabātu tās ekosistēmu un radītu veselīgu vidi civilizācijas tālākai attīstībai. :)
es par.
cerams, ka tu un tava ģimene būs pirmie.
nav drusku liekulīgi?
:D nu ja, tev tagad auto ievietots mākslīgais intelekts ņems un sāks triekt nost 2/3 no gājējiem, lai padarītu pasauli labāku. Kāpēc tu uzreiz iedomājies sliktāko variantu. Ar mākslīgo intelektu pasauli var pārvaldīt efektīgāk, lai pabarotu esošos cilvēkus. Ja pie mākslīgā intelekta mācīšanas tiks green peace cilvēki, tad gan gaidi savu iedomāto distopisko nākotni
Ne jau automašīnas autopilots vai veļas mašīnas programma var radīt globālus draudus. :) Runa ir tieši par šo teikumu rakstā:
Bet cilvēce jau ir gatava mākslīgajam intelektam uzticēt investīciju
lēmumus, satiksmes regulēšanu, veselības aprūpi, militārus lēmumus
u.tml.
piemēram. tu dari kaut ko greizu, bet jau darīšanas brīdī jūti, ka nebūs labi. ieraugi uz ielas bumbu, atvēzējies un sper. un jau neapturamas kustības mirklī jūti, ka bumba piepildīta ar smiltīm.
bet tas jau ir tikai tāpēc, ka mums lēns procesors un lēna saziņa starp ekstemitātēm un galvu.
kā to ņem. kāda jēga būtu dzīvot, pieņemot tikai prognozējamus lēmumus? tad tevi kāds noteikti predestinētu ražīgi visu mūžu strādāt un kādam pelnīt naudu. Bet Tu vaicāji – ko nozīmē just. Mēģināju atbildēt.
Un ko tu šobrīd dari?
gaidu īsto mirkli iet pensijā. pārvākties kaut kur uz Toskānu un rušināties pa dārzu. jāsagaida, kad bērni nostāsies uz savām kājām.
nu tad jau tu smuki esi ieprogrammēts – būsi uzradījis pārīti (nezinu cik tev to atvašu) strādājošu naudaspelnītaju, un pats dosies pelnītā atpūtā humāni nomirt.
da nu. līdz oficiālajai pensijai vēl tālu – tagad štukoju kā apčakarēt sistēmu/programmējumu
Par procesoru gan nebūs taisnība :)
https://www.scienceabc.com/humans/the-human-brain-vs-supercomputers-which-one-wins.html
Pat ja tā, ir viena mana problēmiņa – mūsu apziņai ir ļoti ierobežotas pieejas smadzenēm. Tāds mazs sūda terminālītis ar ļoti apgrieztām jūzera tiesībām.
citiem vairāk – citiem mazāk – bet domāju, ka pieejas amplitūda var kardināli atšķirties – cik cilvēks strādā ar savu apziņu
Tiklīdz MI spēs pats sev nodrošināt rezerves daļas un enerģiju, tā beigu sākums būs sācies. ;)
Pieļauju ka atsevišķās nozarēs pašlabošana ir normāla MI vadītu ierīču ikdiena. Bet tā kā pliks dzelzis nejūt sāpes vai nāves bailes, tad viss atkarīgs no sensoriem un koda. Ja “dzelžu” kontroliera kodā viss būs pareizi veidots, diezin vai MI pats “aizdomāsies” par savu dzelžu sāpēm un saprāta eksistenci… te var līdzēt vien neapdomība no cilvēku puses – likt MI vadītam dzelzim “domāt” par savu ievainojamību kā par kaut ko briesmīgu.
Log faila nav? :D
Jūs tagad plānojat vienkārši atgremot MIT rakstus (padarot tos sliktākus/mazāk lasīšanas vērtus)? https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-of-ai/
Mēs plānojam turpināt latviski informēt par tehnoloģiju pasaulē aktuāliem notikumiem un tendencēm. Protams, atsaucoties uz avotiem, kur par ziņām esam uzzinājuši. Gluži tāpat kā to esam šeit darījuši pēdējos trīs gadus.
Mākslīgā intelekta domāšanas gaitu varbūt arī nevar izsekot, taču tā rīcība jebkurā gadījumā būs balstīta uz sākotnēji definētajiem mērķiem un nosacījumiem. Ja tie ir veidoti pārdomāti, tad arī rezultātam būtu jābūt diezgan paredzamam. Mākslīgais intelekts ir bezkaislīgs, un tas pieņem lēmumus bez emocijām – izvēlas pareizāko risinājumu balstoties uz savu uzkrāto datu analīzi.
Par šiem jautājumiem jau spriedām vienā diskusijā.
Un es joprojām palieku pie sava: Kamēr vien pašā saknē MI būs pareizi definēti nosacījumi, viss būs kārtībā. Jebkura MI nepareiza rīcība ir sekas slikti sastādītam algoritmam.
Vispareizāk saprogramētais algoritms slaidi ievilks grāvī, jo pāris huļigāni būs uzvilkuši balto strīpu grāvja virzienā un ar pelēku aizkrāsojuši īsto marķējumu. Stāsts par to, ka var noturēt kaut kādos rāmjos ar stingra regulējuma un uzraudzības palīdzību pašus MI ierīču ražotājus, bet ir tik daudz elementāru iespēju no ārpuses nelāgi sačakarēt “prātu”(he, sanāca ironiski) šim labi domājošam aparātam.
Gluži kā cilvēks, ja tu zini kādā vidē viņš ir audzis, kur mācījies, kādi viņam draugi un hobiji, tad tu diezgan precīzi zini kā viņš rīkosies. Un tās emocijas arī tādas nosacītas, ja mācētu izmērīt visādus testostorona un citādus līmeņus, tad arī atklātos, ka viss ir principā paredzams. BIG DATA jau to pierāda, balsošanas ziņa esam atkožami jau pēc 7 klikšķiem feisītī ;)
Daspēlēsies ar šīm spēlītēm. MI aizstāvji visdrīzāk atdzīst, ka ir stulbāki par datoru, tāpēc, lai jau tas domā un rīkojas pats pēc saviem ieskatiem. Tuvākajos vismaz simts gados neviena pašbraucošā automašīna nebrauks labāk par dzīvu cilvēku. Jā – protams, saprātīgu cilvēku (no vārda Homo sapiens). To baru, kas nav spējīgi nolikt autovadīšanas eksāmenu, ir par slinku tam, vai par lepnu, lai paši stūrētu, lai vadā sab.transports un takši, kurus tāpat lai vada dzīvs cilvēks ar atbilstošu kvalifikāciju.. Bet māžoties ar šīm pašbraucošām kastēm, “kurām neviens nevar pateikt, kad tā nofeilos” principā ir noziegums pret sabiedrību. Miljardu industroja n-gadus nevar smartfonu uztaisīt, kurš ik pa reizei neuzkaras, bet te uzticēs cilvēku dzīvības.
Šī nav tāda mazliet apbrobežota domāšana? Es par tiem “vismaz simts gadiem”. Pirms 10 gadiem mums vispār vēl nebija viedtālruņu un to izraisītā tehnoloģiju buma, praktiski dzīvojām mežā zem velēnas, bet Tu tik braši spriedelē kas būs un kas nebūs pēc 100 gadiem.
Nu par MI runā jau diezgan pasen. Neko reālu panākuši vēl līdz šim nav. Tehnoloģijas attīstās, jā – citas, bet MI nav pat vēl zīdaiņu autiņos pa šīm desmitgadēm. Pāris uberdatori, kuriem ir mega procesori un cietie diski ar ļoti daudz informācijas tik un tā paliek tikai DATORI – ieprogrammētas ierīces, kas strādā pēc algoritmiem. Jā sarežģītiem, komplicētiem, bet intelekts – tātad spēja pašam izdarīt secinājumus domāt kopsakarībās un pieņemt lēmumus, tomēr ir kas cits. Vienkārši zem šī vārda mēģina pavilkt spējīgākos datorus.
Nvidia gadījumā viss liekas vienkārši – ja atrodas situācija, kurā “intelekts” nokrešojis, tad poligonā radam līdzīgus apstākļus 50x izbraucam, parādot kā jābrauc, un ielādējam jaunās zināšanas tīklā. Fixed and done!
Investīciju lēmumus MI jau sen pieņem. Nerunājot nemaz par īstermiņa spekulācijām lielajās fondu biržās un valūtu tirgos (forex), kur 90+ procentus darījumu veic algoritmi.