• Eižens,
  • Jevgēņija,
  • Jevgēņijs
Meklēšana MeklēšanaRSSFacebookZiņu lente


Laika ziņas
Facebook
Видео Video


2026. gadā mākslīgais intelekts lems, ko darīt ar latviešiem (+VIDEO)

Teksta izmērs Aa Aa
Sabiedrība
VS.LV 12:08, 10.11.2024


Uzmanība jāpievērš datu kvalitātei un pārvaldībai.


Royots ne tikai palīdz cilvēkiem, bet arī pieņem viņiem svarīgus lēmumus.

Augstas amatpersonas apgalvo, ka Latvijā ir resursi, lai radītu digitālos risinājumus ne tikai mums pašiem, bet arī pasaules tirgum. Tas ir lieliski, tomēr, veidojot šādas inovācijas, jāapzinās, ka mākslīgais intelekts var pārkāpt pamattiesības, tai skaitā diskriminēt cilvēkus, ja netiek ievēroti vairāki nosacījumi. Piemēram, izmantotajiem datiem jābūt kvalitatīviem un uzticamiem, cilvēkiem nepārprotami jāapzinās, ka viņi ir saskarē ar mākslīgā intelekta sistēmu, kur vien to izmanto, un tām jābūt tādām, kuru pārraudzību jebkurā brīdī var uzņemties cilvēks.

Eiropas Savienībā šovasar stājās spēkā Eiropas Parlamenta un Padomes Regula, kas nosaka jaunas normas mākslīgā intelekta jomā. Tā kļūs tieši piemērojama visās Eiropas Savienības dalībvalstīs, tai skaitā Latvijā, pēc diviem gadiem, t.i. no 2026. gada 2. augusta. Atsevišķus noteikumus piemēros ātrāk, ziņo vietne labsoflatvia.lv.

Pētījumā “Mākslīgā intelekta sistēmas un diskriminācijas aspekti” analizēts, kā pašlaik mākslīgā intelekta sistēmas jau ir pārkāpušas cilvēka pamattiesības tādās jomās, kā nodarbinātība, izglītība, biometriskā identifikācija un pamatpakalpojumu pieejamība. Šīs ir četras no astoņām augsta riska jomām, ko definē jaunā Eiropas Savienības Mākslīgā intelekta regula. Šo pētījumu tiesībsarga uzdevumā izstrādāja Latvijas Universitātes pētniece dr.iur Irēna Barkāne.

Mākslīgais intelekts var diskriminēt cilvēkus

Daži piemēri no starptautiskās prakses:

Nīderlandē sistēmiskā riska identificēšanas krāpšanas apkarošanas sistēma nepamatoti apsūdzēja aptuveni 26 tūkstošus vecāku par krāpnieciskiem bērna kopšanas pabalstu pieprasījumiem. Daļai vecāku apturēja pabalstu izmaksu, bet vēl daļai lūdza tos atmaksāt. Daudzos gadījumos summa sasniedza vairākus desmitus tūkstošus eiro, radot ģimenēm ievērojamas finansiālas grūtības. Šajā gadījumā mākslīgā intelekta sistēma pieļāva kļūdas, vērtējot dubultpilsonības aspektu. Tiesa atzina pārkāpumu, un 2021. gadā šis skandāls labklājības jomā piespieda Nīderlandes valdību atkāpties;
ASV interneta tirdzniecības uzņēmuma “Amazon” darbā pieņemšanas algoritms par labākiem kandidātiem uzskatīja vīriešus, attiecīgi noraidot CV, kuros bija iekļauts vārds “sieviete”. Rezultātā “Amazon” atteicās no mākslīgā intelekta personāla atlases rīka;

Stenfordas Universitātes pētījums pērn atklāja – “Chat GPT” detektori tekstu, ko rakstījuši cilvēki, kuriem angļu valoda nav dzimtā, klasificē kā mākslīgā intelekta radītu. Patiesībā tā nebija – šiem iedzīvotājiem objektīvu iemeslu dēļ ir ierobežots vārdu krājums un gramatikas lietojums. Mākslīgā intelekta kļūdas dēļ viņi var saskarties ar nepamatotām apsūdzībām par krāpšanu vai plaģiātismu akadēmiskā un profesionālā vidē.
Kas jāmaina, lai mākslīgais intelekts būtu draugs nevis drauds?

Pirmkārt, uzmanība jāpievērš datu kvalitātei un pārvaldībai. Ja mākslīgā intelekta sistēma nav “apmācīta” ar augstas kvalitātes datiem, nav precīza un pārbaudīta pirms “palaišanas tirgū” – ar lielu ticamību tā būs cilvēkus diskriminējoša.

Otrkārt, mākslīgā intelekta sistēmas jāveido tā, lai cilvēkiem būtu pilnīgi skaidrs, ka viņi sazinās ar mākslīgā intelekta sistēmu, nevis, piemēram, ar iestādes darbinieku. Iedzīvotājus jāinformē arī par viņu tiesībām.

Treškārt, šīm sistēmām jāspēj darboties tādā veidā, ko cilvēki var atbilstoši kontrolēt un virsvadīt. Iejaukties, kad vien tas nepieciešams, un arī apturēt sistēmu, ja tā nedarbojas, kā paredzēts.

Ceturtkārt, tā ir arī atbildība un uzraudzība. Tas nozīmē, ka augsta riska mākslīgā intelekta sistēmām jābūt rūpīgi izstrādātām novērtēšanas procedūrām attiecībā uz datu kvalitāti, dokumentāciju, cilvēka veiktu pārraudzību, precizitāti, kiberdrošību u.c. Piemēram, biometrijas jomā šo pārbaudi jāveic trešajai personai.

“Nav šaubu, ka mākslīgā intelekta sistēmas var būt draugs un palīgs. Tomēr pētījums parāda, kādas sekas var būt tad, ja sistēma ir nepareiza. Ja cilvēka pieļauta kļūda rada kaitējumu citam konkrētam cilvēkam, tad mākslīgā intelekta sistēmas radīta kļūda automātiski tiek attiecināta uz to sabiedrības grupu, kura atbilst mākslīgā intelekta sistēmas noteiktiem kritērijiem. Tādējādi ietekme ir daudz plašāka. Es ceru, ka politiķu aicinājums par Latvijas spēju radīt pasaules līmeņa mākslīgā intelekta sistēmas īstenosies arī tādā ziņā, ka pamattiesību ievērošana tajās būs prioritāte,” uzsver Tiesībsarga biroja Diskriminācijas novēršanas nodaļas vadītāja Anete Ilves.


Esiet atbildīgi par komentāriem! Jūsu izteikumi nedrīkst būt pretrunā ar LR likumdošanu.
Portāls VS.LV nenes atbildību par komentāru saturu.
Lasīt visus komentārus

Atbilēt

Anonīmi komentāri

Pievienot

Rekomendējam



ARĪ KATEGORIJĀ

Sabiedrība Trešdien Latvijā gaidāma migla un smidzināšana

Trešdien gan naktī, gan dienā vietām Latvijā gaidāma migla un smidzinošs lietus, prognozē sinoptiķi.

Sabiedrība Uzvaras parks tiek apstādīts ar jauniem kokiem (+VIDEO)

Mitrie apstākļi veicina labu sakņu sistēmas attīstību.

Sabiedrība Starptautiskā pētījumā augsti novērtētas Latvijas skolēnu datorprasmes

Starptautiskajā datorprasmju un informācijpratības pētījumā "ICILS 2023" Latvijas skolēnu sniegums novērtēts ar 509 punktiem, ieņemot septīto vietu 31 valsts vidū, liecina pētījuma pirmie rezultāti.

Sabiedrība Iekšlietu dienestos strādājošajiem prēmijās plānots atvēlēt 250 000 eiro

Iekšlietu ministrija sagatavojusi valdībai ziņojumu par Valsts policijas, Valsts robežsardzes, Iekšējās drošības biroja un Finanšu izlūkošanas dienesta amatpersonu prēmēšanu par viņu tiešās darbības rezultātā atklātiem un novērstiem noziedzīgiem nodarījumiem.

Lasiet arī

Interesanti fakti Polijas radiostacija aizstājusi žurnālistus ar mākslīgo intelektu

Polijā radiostacija "OFF Radio Krakow" savus žurnālistus nomainījusi ar mākslīgā intelekta radītiem raidījumu vadītājiem.

Kultūra ABBA mūziķis un tūkstošiem mākslinieku brīdina par mākslīgā intelekta draudiem

Tūkstošiem mākslinieku, tajā skaitā grupas ABBA mūziķis Bjērns Ulveuss, Holivudas aktrise Džuljana Mūra un Nobela prēmijas laureāts Kadzuo Isiguro, parakstījuši paziņojumu, kurā brīdina par mākslīgā intelekta draudiem radošajām industrijām.

Sabiedrība Mākslīgā intelekta centra izveidei plānots piesaistīt 500 miljonus eiro

Latvijas mākslīgā intelekta centra (LMIC) projekta īstenošanai valsts varētu dibināt biedrību ar noteiktu valsts iestāžu funkciju deleģējumu, un piesaistīt 500 miljonus eiro piecu gadu laikā, informē Ekonomikas ministrija.

Interesanti fakti Latvijā ir izstrādāta programmatūra viltotu video atklāšanai (+VIDEO)

“Mākslīgā intelekta izmantošana piedzīvo uzvaras gājienu".