• Halina,
  • Ilvars,
  • Lauma
Meklēšana MeklēšanaRSSFacebookZiņu lente


Laika ziņas
Facebook
Видео Video


2026. gadā mākslīgais intelekts lems, ko darīt ar latviešiem (+VIDEO)

Teksta izmērs Aa Aa
Sabiedrība
VS.LV 12:08, 10.11.2024


Uzmanība jāpievērš datu kvalitātei un pārvaldībai.


Royots ne tikai palīdz cilvēkiem, bet arī pieņem viņiem svarīgus lēmumus.

Augstas amatpersonas apgalvo, ka Latvijā ir resursi, lai radītu digitālos risinājumus ne tikai mums pašiem, bet arī pasaules tirgum. Tas ir lieliski, tomēr, veidojot šādas inovācijas, jāapzinās, ka mākslīgais intelekts var pārkāpt pamattiesības, tai skaitā diskriminēt cilvēkus, ja netiek ievēroti vairāki nosacījumi. Piemēram, izmantotajiem datiem jābūt kvalitatīviem un uzticamiem, cilvēkiem nepārprotami jāapzinās, ka viņi ir saskarē ar mākslīgā intelekta sistēmu, kur vien to izmanto, un tām jābūt tādām, kuru pārraudzību jebkurā brīdī var uzņemties cilvēks.

Eiropas Savienībā šovasar stājās spēkā Eiropas Parlamenta un Padomes Regula, kas nosaka jaunas normas mākslīgā intelekta jomā. Tā kļūs tieši piemērojama visās Eiropas Savienības dalībvalstīs, tai skaitā Latvijā, pēc diviem gadiem, t.i. no 2026. gada 2. augusta. Atsevišķus noteikumus piemēros ātrāk, ziņo vietne labsoflatvia.lv.

Pētījumā “Mākslīgā intelekta sistēmas un diskriminācijas aspekti” analizēts, kā pašlaik mākslīgā intelekta sistēmas jau ir pārkāpušas cilvēka pamattiesības tādās jomās, kā nodarbinātība, izglītība, biometriskā identifikācija un pamatpakalpojumu pieejamība. Šīs ir četras no astoņām augsta riska jomām, ko definē jaunā Eiropas Savienības Mākslīgā intelekta regula. Šo pētījumu tiesībsarga uzdevumā izstrādāja Latvijas Universitātes pētniece dr.iur Irēna Barkāne.

Mākslīgais intelekts var diskriminēt cilvēkus

Daži piemēri no starptautiskās prakses:

Nīderlandē sistēmiskā riska identificēšanas krāpšanas apkarošanas sistēma nepamatoti apsūdzēja aptuveni 26 tūkstošus vecāku par krāpnieciskiem bērna kopšanas pabalstu pieprasījumiem. Daļai vecāku apturēja pabalstu izmaksu, bet vēl daļai lūdza tos atmaksāt. Daudzos gadījumos summa sasniedza vairākus desmitus tūkstošus eiro, radot ģimenēm ievērojamas finansiālas grūtības. Šajā gadījumā mākslīgā intelekta sistēma pieļāva kļūdas, vērtējot dubultpilsonības aspektu. Tiesa atzina pārkāpumu, un 2021. gadā šis skandāls labklājības jomā piespieda Nīderlandes valdību atkāpties;
ASV interneta tirdzniecības uzņēmuma “Amazon” darbā pieņemšanas algoritms par labākiem kandidātiem uzskatīja vīriešus, attiecīgi noraidot CV, kuros bija iekļauts vārds “sieviete”. Rezultātā “Amazon” atteicās no mākslīgā intelekta personāla atlases rīka;

Stenfordas Universitātes pētījums pērn atklāja – “Chat GPT” detektori tekstu, ko rakstījuši cilvēki, kuriem angļu valoda nav dzimtā, klasificē kā mākslīgā intelekta radītu. Patiesībā tā nebija – šiem iedzīvotājiem objektīvu iemeslu dēļ ir ierobežots vārdu krājums un gramatikas lietojums. Mākslīgā intelekta kļūdas dēļ viņi var saskarties ar nepamatotām apsūdzībām par krāpšanu vai plaģiātismu akadēmiskā un profesionālā vidē.
Kas jāmaina, lai mākslīgais intelekts būtu draugs nevis drauds?

Pirmkārt, uzmanība jāpievērš datu kvalitātei un pārvaldībai. Ja mākslīgā intelekta sistēma nav “apmācīta” ar augstas kvalitātes datiem, nav precīza un pārbaudīta pirms “palaišanas tirgū” – ar lielu ticamību tā būs cilvēkus diskriminējoša.

Otrkārt, mākslīgā intelekta sistēmas jāveido tā, lai cilvēkiem būtu pilnīgi skaidrs, ka viņi sazinās ar mākslīgā intelekta sistēmu, nevis, piemēram, ar iestādes darbinieku. Iedzīvotājus jāinformē arī par viņu tiesībām.

Treškārt, šīm sistēmām jāspēj darboties tādā veidā, ko cilvēki var atbilstoši kontrolēt un virsvadīt. Iejaukties, kad vien tas nepieciešams, un arī apturēt sistēmu, ja tā nedarbojas, kā paredzēts.

Ceturtkārt, tā ir arī atbildība un uzraudzība. Tas nozīmē, ka augsta riska mākslīgā intelekta sistēmām jābūt rūpīgi izstrādātām novērtēšanas procedūrām attiecībā uz datu kvalitāti, dokumentāciju, cilvēka veiktu pārraudzību, precizitāti, kiberdrošību u.c. Piemēram, biometrijas jomā šo pārbaudi jāveic trešajai personai.

“Nav šaubu, ka mākslīgā intelekta sistēmas var būt draugs un palīgs. Tomēr pētījums parāda, kādas sekas var būt tad, ja sistēma ir nepareiza. Ja cilvēka pieļauta kļūda rada kaitējumu citam konkrētam cilvēkam, tad mākslīgā intelekta sistēmas radīta kļūda automātiski tiek attiecināta uz to sabiedrības grupu, kura atbilst mākslīgā intelekta sistēmas noteiktiem kritērijiem. Tādējādi ietekme ir daudz plašāka. Es ceru, ka politiķu aicinājums par Latvijas spēju radīt pasaules līmeņa mākslīgā intelekta sistēmas īstenosies arī tādā ziņā, ka pamattiesību ievērošana tajās būs prioritāte,” uzsver Tiesībsarga biroja Diskriminācijas novēršanas nodaļas vadītāja Anete Ilves.


Esiet atbildīgi par komentāriem! Jūsu izteikumi nedrīkst būt pretrunā ar LR likumdošanu.
Portāls VS.LV nenes atbildību par komentāru saturu.
Lasīt visus komentārus

Atbilēt

Anonīmi komentāri

Pievienot

Rekomendējam



ARĪ KATEGORIJĀ

Sabiedrība Koalīcija strādās pie ministru algu un partiju finansējuma iesaldēšanas

Koalīcija ir gatava strādāt pie valsts vēlēto amatpersonu un ministru atalgojuma, kā arī partiju finansējuma turpmākas iesaldēšanas, pirmdien pēc valdību veidojošo partiju sadarbības sanāksmes žurnālistiem sacīja Ministru prezidente Evika Siliņa (JV).

Sabiedrība Smēķēšanas aizliegums azartspēļu organizēšanas vietās atbilst Satversmei

Smēķēšanas aizliegums azartspēļu zālēs ir arī sabiedrības interesēs - tas ir vērsts uz atkarību mazināšanu un sociālās spriedzes novēršanu.

Sabiedrība Rīgas centrā atver "Straumes" pop-up veikalu

Izziņota arī īpaša pasākumu programma, kurā varēs tikties ar filmas "Straume" komandu.

Sabiedrība Ministri izpildījuši uzdevumu: izdevies samazināt izdevumus par 150 miljoniem

Finanšu ministrija informē, ka nozaru ministrijas ir sagatavojušas priekšlikumus, kas skar atlīdzības, subsīdiju, preču un pakalpojumu, kā arī citu izdevumu samazināšanu.

Lasiet arī

Sabiedrība Mākslīgā intelekta integrēšanai Latvijas izglītības sistēmā vēl ir daudz darāmā

Latvijas izglītības sistēma pagaidām nav gatava mākslīgā intelekta integrēšanai, un vēl ir ļoti daudz darāmā, žurnālistiem pirmdien sacīja izglītības un zinātnes ministre Dace Melbārde (JV), kura līdz vasarai solīja piedāvāt galvenos virzienus mākslīgā intelekta izmantošanai izglītībā.

Interesanti fakti Arvien straujāk aug mākslīgā intelekta «draugu» popularitāte

Mākslīgā intelekta draugu, tajā skaitā romantisko draugu, popularitāte aug arvien straujāk, intervijā Latvijas Televīzijas raidījumā "Rīta panorāma" sacīja NATO Stratēģiskās komunikācijas izcilības centra ("Stratcom") direktors Jānis Sārts.

Sabiedrība Roboti arvien vairāk iesaistās Latvijas pārvaldē (+VIDEO)

"Mākslīgais intelekts vairs nav nākotne - tas jau tagad var palīdzēt".

Sabiedrība RTU apmāca ikvienu, kuru interesē superdatori (+VIDEO)

Eiropas Savienība ir nolēmusi un apņēmusies kļūt par pasaules līderi mākslīgā intelekta (MI) jomā.