2026. gadā mākslīgais intelekts lems, ko darīt ar latviešiem (+VIDEO)

Sabiedrība
VS.LV 12:08, 10.11.2024 0

Uzmanība jāpievērš datu kvalitātei un pārvaldībai.

 

Augstas amatpersonas apgalvo, ka Latvijā ir resursi, lai radītu digitālos risinājumus ne tikai mums pašiem, bet arī pasaules tirgum. Tas ir lieliski, tomēr, veidojot šādas inovācijas, jāapzinās, ka mākslīgais intelekts var pārkāpt pamattiesības, tai skaitā diskriminēt cilvēkus, ja netiek ievēroti vairāki nosacījumi. Piemēram, izmantotajiem datiem jābūt kvalitatīviem un uzticamiem, cilvēkiem nepārprotami jāapzinās, ka viņi ir saskarē ar mākslīgā intelekta sistēmu, kur vien to izmanto, un tām jābūt tādām, kuru pārraudzību jebkurā brīdī var uzņemties cilvēks.

Eiropas Savienībā šovasar stājās spēkā Eiropas Parlamenta un Padomes Regula, kas nosaka jaunas normas mākslīgā intelekta jomā. Tā kļūs tieši piemērojama visās Eiropas Savienības dalībvalstīs, tai skaitā Latvijā, pēc diviem gadiem, t.i. no 2026. gada 2. augusta. Atsevišķus noteikumus piemēros ātrāk, ziņo vietne labsoflatvia.lv.

Pētījumā “Mākslīgā intelekta sistēmas un diskriminācijas aspekti” analizēts, kā pašlaik mākslīgā intelekta sistēmas jau ir pārkāpušas cilvēka pamattiesības tādās jomās, kā nodarbinātība, izglītība, biometriskā identifikācija un pamatpakalpojumu pieejamība. Šīs ir četras no astoņām augsta riska jomām, ko definē jaunā Eiropas Savienības Mākslīgā intelekta regula. Šo pētījumu tiesībsarga uzdevumā izstrādāja Latvijas Universitātes pētniece dr.iur Irēna Barkāne.

Mākslīgais intelekts var diskriminēt cilvēkus

Daži piemēri no starptautiskās prakses:

Nīderlandē sistēmiskā riska identificēšanas krāpšanas apkarošanas sistēma nepamatoti apsūdzēja aptuveni 26 tūkstošus vecāku par krāpnieciskiem bērna kopšanas pabalstu pieprasījumiem. Daļai vecāku apturēja pabalstu izmaksu, bet vēl daļai lūdza tos atmaksāt. Daudzos gadījumos summa sasniedza vairākus desmitus tūkstošus eiro, radot ģimenēm ievērojamas finansiālas grūtības. Šajā gadījumā mākslīgā intelekta sistēma pieļāva kļūdas, vērtējot dubultpilsonības aspektu. Tiesa atzina pārkāpumu, un 2021. gadā šis skandāls labklājības jomā piespieda Nīderlandes valdību atkāpties;ASV interneta tirdzniecības uzņēmuma “Amazon” darbā pieņemšanas algoritms par labākiem kandidātiem uzskatīja vīriešus, attiecīgi noraidot CV, kuros bija iekļauts vārds “sieviete”. Rezultātā “Amazon” atteicās no mākslīgā intelekta personāla atlases rīka;

Stenfordas Universitātes pētījums pērn atklāja – “Chat GPT” detektori tekstu, ko rakstījuši cilvēki, kuriem angļu valoda nav dzimtā, klasificē kā mākslīgā intelekta radītu. Patiesībā tā nebija – šiem iedzīvotājiem objektīvu iemeslu dēļ ir ierobežots vārdu krājums un gramatikas lietojums. Mākslīgā intelekta kļūdas dēļ viņi var saskarties ar nepamatotām apsūdzībām par krāpšanu vai plaģiātismu akadēmiskā un profesionālā vidē.Kas jāmaina, lai mākslīgais intelekts būtu draugs nevis drauds?

Pirmkārt, uzmanība jāpievērš datu kvalitātei un pārvaldībai. Ja mākslīgā intelekta sistēma nav “apmācīta” ar augstas kvalitātes datiem, nav precīza un pārbaudīta pirms “palaišanas tirgū” – ar lielu ticamību tā būs cilvēkus diskriminējoša.

Otrkārt, mākslīgā intelekta sistēmas jāveido tā, lai cilvēkiem būtu pilnīgi skaidrs, ka viņi sazinās ar mākslīgā intelekta sistēmu, nevis, piemēram, ar iestādes darbinieku. Iedzīvotājus jāinformē arī par viņu tiesībām.

Treškārt, šīm sistēmām jāspēj darboties tādā veidā, ko cilvēki var atbilstoši kontrolēt un virsvadīt. Iejaukties, kad vien tas nepieciešams, un arī apturēt sistēmu, ja tā nedarbojas, kā paredzēts.

Ceturtkārt, tā ir arī atbildība un uzraudzība. Tas nozīmē, ka augsta riska mākslīgā intelekta sistēmām jābūt rūpīgi izstrādātām novērtēšanas procedūrām attiecībā uz datu kvalitāti, dokumentāciju, cilvēka veiktu pārraudzību, precizitāti, kiberdrošību u.c. Piemēram, biometrijas jomā šo pārbaudi jāveic trešajai personai.

“Nav šaubu, ka mākslīgā intelekta sistēmas var būt draugs un palīgs. Tomēr pētījums parāda, kādas sekas var būt tad, ja sistēma ir nepareiza. Ja cilvēka pieļauta kļūda rada kaitējumu citam konkrētam cilvēkam, tad mākslīgā intelekta sistēmas radīta kļūda automātiski tiek attiecināta uz to sabiedrības grupu, kura atbilst mākslīgā intelekta sistēmas noteiktiem kritērijiem. Tādējādi ietekme ir daudz plašāka. Es ceru, ka politiķu aicinājums par Latvijas spēju radīt pasaules līmeņa mākslīgā intelekta sistēmas īstenosies arī tādā ziņā, ka pamattiesību ievērošana tajās būs prioritāte,” uzsver Tiesībsarga biroja Diskriminācijas novēršanas nodaļas vadītāja Anete Ilves.

Подписывайтесь на Телеграм-канал VS.LV! Заглядывайте на страницу VS.LV на Facebook! И читайте главные новости о Латвии и мире!
Lasīt visus komentārus (0)


ARĪ KATEGORIJĀ

Sabiedrība Atklāta jaunā LU klīnisko studiju bāze Stradiņa slimnīcā

Ēkas rekonstrukcijā investēti vairāk nekā 2 miljoni euro.

Sabiedrība Piektdien daudzviet Latvijā uzsnigs

Piektdien lielā Latvijas daļā gaidāms sniegs, pārsvarā tas būs neliels, vietām īslaicīgi snigs stiprāk, prognozē sinoptiķi.

Sabiedrība Austrumu slimnīcā ierodas vēl 20 ievainotie ukraiņi

Kopumā Austrumu slimnīcā kopš kara sākuma uzņemti jau 386 no Ukrainas atvestie pacienti.

Sabiedrība Pērn Latvijā adoptēti 77 bērni

Pērn Latvijā adoptēti 77 bērni, kas ir par deviņiem mazāk nekā gadu iepriekš, informē Labklājības ministrija (LM).

Lasiet arī

Interesanti fakti Polijas radiostacija aizstājusi žurnālistus ar mākslīgo intelektu

Polijā radiostacija "OFF Radio Krakow" savus žurnālistus nomainījusi ar mākslīgā intelekta radītiem raidījumu vadītājiem.

Kultūra ABBA mūziķis un tūkstošiem mākslinieku brīdina par mākslīgā intelekta draudiem

Tūkstošiem mākslinieku, tajā skaitā grupas ABBA mūziķis Bjērns Ulveuss, Holivudas aktrise Džuljana Mūra un Nobela prēmijas laureāts Kadzuo Isiguro, parakstījuši paziņojumu, kurā brīdina par mākslīgā intelekta draudiem radošajām industrijām.

Sabiedrība Mākslīgā intelekta centra izveidei plānots piesaistīt 500 miljonus eiro

Latvijas mākslīgā intelekta centra (LMIC) projekta īstenošanai valsts varētu dibināt biedrību ar noteiktu valsts iestāžu funkciju deleģējumu, un piesaistīt 500 miljonus eiro piecu gadu laikā, informē Ekonomikas ministrija.

Interesanti fakti Latvijā ir izstrādāta programmatūra viltotu video atklāšanai (+VIDEO)

“Mākslīgā intelekta izmantošana piedzīvo uzvaras gājienu".