• Agija,
  • Aldonis
Meklēšana MeklēšanaRSSFacebookZiņu lente


Laika ziņas
Facebook
Видео Video


2026. gadā mākslīgais intelekts lems, ko darīt ar latviešiem (+VIDEO)

Teksta izmērs Aa Aa
Sabiedrība
VS.LV 12:08, 10.11.2024


Uzmanība jāpievērš datu kvalitātei un pārvaldībai.


Royots ne tikai palīdz cilvēkiem, bet arī pieņem viņiem svarīgus lēmumus.

Augstas amatpersonas apgalvo, ka Latvijā ir resursi, lai radītu digitālos risinājumus ne tikai mums pašiem, bet arī pasaules tirgum. Tas ir lieliski, tomēr, veidojot šādas inovācijas, jāapzinās, ka mākslīgais intelekts var pārkāpt pamattiesības, tai skaitā diskriminēt cilvēkus, ja netiek ievēroti vairāki nosacījumi. Piemēram, izmantotajiem datiem jābūt kvalitatīviem un uzticamiem, cilvēkiem nepārprotami jāapzinās, ka viņi ir saskarē ar mākslīgā intelekta sistēmu, kur vien to izmanto, un tām jābūt tādām, kuru pārraudzību jebkurā brīdī var uzņemties cilvēks.

Eiropas Savienībā šovasar stājās spēkā Eiropas Parlamenta un Padomes Regula, kas nosaka jaunas normas mākslīgā intelekta jomā. Tā kļūs tieši piemērojama visās Eiropas Savienības dalībvalstīs, tai skaitā Latvijā, pēc diviem gadiem, t.i. no 2026. gada 2. augusta. Atsevišķus noteikumus piemēros ātrāk, ziņo vietne labsoflatvia.lv.

Pētījumā “Mākslīgā intelekta sistēmas un diskriminācijas aspekti” analizēts, kā pašlaik mākslīgā intelekta sistēmas jau ir pārkāpušas cilvēka pamattiesības tādās jomās, kā nodarbinātība, izglītība, biometriskā identifikācija un pamatpakalpojumu pieejamība. Šīs ir četras no astoņām augsta riska jomām, ko definē jaunā Eiropas Savienības Mākslīgā intelekta regula. Šo pētījumu tiesībsarga uzdevumā izstrādāja Latvijas Universitātes pētniece dr.iur Irēna Barkāne.

Mākslīgais intelekts var diskriminēt cilvēkus

Daži piemēri no starptautiskās prakses:

Nīderlandē sistēmiskā riska identificēšanas krāpšanas apkarošanas sistēma nepamatoti apsūdzēja aptuveni 26 tūkstošus vecāku par krāpnieciskiem bērna kopšanas pabalstu pieprasījumiem. Daļai vecāku apturēja pabalstu izmaksu, bet vēl daļai lūdza tos atmaksāt. Daudzos gadījumos summa sasniedza vairākus desmitus tūkstošus eiro, radot ģimenēm ievērojamas finansiālas grūtības. Šajā gadījumā mākslīgā intelekta sistēma pieļāva kļūdas, vērtējot dubultpilsonības aspektu. Tiesa atzina pārkāpumu, un 2021. gadā šis skandāls labklājības jomā piespieda Nīderlandes valdību atkāpties;
ASV interneta tirdzniecības uzņēmuma “Amazon” darbā pieņemšanas algoritms par labākiem kandidātiem uzskatīja vīriešus, attiecīgi noraidot CV, kuros bija iekļauts vārds “sieviete”. Rezultātā “Amazon” atteicās no mākslīgā intelekta personāla atlases rīka;

Stenfordas Universitātes pētījums pērn atklāja – “Chat GPT” detektori tekstu, ko rakstījuši cilvēki, kuriem angļu valoda nav dzimtā, klasificē kā mākslīgā intelekta radītu. Patiesībā tā nebija – šiem iedzīvotājiem objektīvu iemeslu dēļ ir ierobežots vārdu krājums un gramatikas lietojums. Mākslīgā intelekta kļūdas dēļ viņi var saskarties ar nepamatotām apsūdzībām par krāpšanu vai plaģiātismu akadēmiskā un profesionālā vidē.
Kas jāmaina, lai mākslīgais intelekts būtu draugs nevis drauds?

Pirmkārt, uzmanība jāpievērš datu kvalitātei un pārvaldībai. Ja mākslīgā intelekta sistēma nav “apmācīta” ar augstas kvalitātes datiem, nav precīza un pārbaudīta pirms “palaišanas tirgū” – ar lielu ticamību tā būs cilvēkus diskriminējoša.

Otrkārt, mākslīgā intelekta sistēmas jāveido tā, lai cilvēkiem būtu pilnīgi skaidrs, ka viņi sazinās ar mākslīgā intelekta sistēmu, nevis, piemēram, ar iestādes darbinieku. Iedzīvotājus jāinformē arī par viņu tiesībām.

Treškārt, šīm sistēmām jāspēj darboties tādā veidā, ko cilvēki var atbilstoši kontrolēt un virsvadīt. Iejaukties, kad vien tas nepieciešams, un arī apturēt sistēmu, ja tā nedarbojas, kā paredzēts.

Ceturtkārt, tā ir arī atbildība un uzraudzība. Tas nozīmē, ka augsta riska mākslīgā intelekta sistēmām jābūt rūpīgi izstrādātām novērtēšanas procedūrām attiecībā uz datu kvalitāti, dokumentāciju, cilvēka veiktu pārraudzību, precizitāti, kiberdrošību u.c. Piemēram, biometrijas jomā šo pārbaudi jāveic trešajai personai.

“Nav šaubu, ka mākslīgā intelekta sistēmas var būt draugs un palīgs. Tomēr pētījums parāda, kādas sekas var būt tad, ja sistēma ir nepareiza. Ja cilvēka pieļauta kļūda rada kaitējumu citam konkrētam cilvēkam, tad mākslīgā intelekta sistēmas radīta kļūda automātiski tiek attiecināta uz to sabiedrības grupu, kura atbilst mākslīgā intelekta sistēmas noteiktiem kritērijiem. Tādējādi ietekme ir daudz plašāka. Es ceru, ka politiķu aicinājums par Latvijas spēju radīt pasaules līmeņa mākslīgā intelekta sistēmas īstenosies arī tādā ziņā, ka pamattiesību ievērošana tajās būs prioritāte,” uzsver Tiesībsarga biroja Diskriminācijas novēršanas nodaļas vadītāja Anete Ilves.


Esiet atbildīgi par komentāriem! Jūsu izteikumi nedrīkst būt pretrunā ar LR likumdošanu.
Portāls VS.LV nenes atbildību par komentāru saturu.
Lasīt visus komentārus

Atbilēt

Anonīmi komentāri

Pievienot

Rekomendējam



ARĪ KATEGORIJĀ

Sabiedrība Latvijas tiešraižu ligzdās atgriežas arvien vairāk putnu

Latvijas Dabas fonda (LDF) nodrošinātajās tiešraižu ligzdās atgriežas arvien vairāk putnu, informē LDF.

Sabiedrība Piektdien gaisa temperatūra paaugstināsies līdz +6..+13 grādiem

Piektdiena Latvijā būs pārsvarā mākoņaina, prognozē sinoptiķi.

Sabiedrība Valsts varētu pilnībā kompensēt medikamentus īpašos gadījumos

Valsts varētu pilnībā kompensēt medikamentus vai medicīniskās ierīces iedzīvotājiem neatliekamos un īpašos gadījumos, ja par to būs lēmis trīs universitāšu slimnīcu kopīgs konsilijs, to paredz Veselības ministrijas (VM) rosinātie grozījumi "Ambulatorajai ārstēšanai paredzēto zāļu un medicīnisko ierīču iegādes izdevumu kompensācijas kārtībā".

Sabiedrība Ievainotos karavīrus slimnīcā sagaida arī Ukrainas Ministru kabineta pārstāvji

Uz Latvijas lielāko slimnīcu no Ukrainas šoreiz tika attransportēti 27 karā cietušie.

Lasiet arī

Pasaule Lielbritānijā pauž bažas par mākslīgā intelekta ietekmi uz radošajām nozarēm

Lielbritānijā vairāki lielie laikraksti koordinētā kampaņā pauduši bažas par mākslīgā intelekta ietekmi uz radošajām nozarēm.

Sabiedrība Latvija sper soli pretī drošam un atbildīgam mākslīgajam intelektam

Šodien Ministru kabinetā tika izskatīts Viedās administrācijas un reģionālās attīstības ministrijas (VARAM) sagatavotais informatīvais ziņojums "Par Mākslīgā intelekta akta prasību ieviešanu", kas nosaka atbildīgās iestādes un nepieciešamās darbības, lai Latvijā pilnvērtīgi īstenotu Eiropas Savienības Mākslīgā intelekta (MI) aktu.

Pasaule Maska uzņēmums laidis klajā mākslīgā intelekta jaunāko versiju

Miljardierim Īlonam Maskam piederošais mākslīgā intelekta uzņēmums "X.AI" pirmdien laidis klajā sava sarunbota "Grok" jaunāko versiju, Maskam cerot, ka tas spēs iesaistīties konkurences cīņā šajā strauju izaugsmi piedzīvojošajā sektorā.

Ekonomika ES novirzīs 200 miljardus eiro Eiropas mākslīgā intelekta nozarē

Eiropas Komisijas (EK) prezidente Urzula fon der Leiena otrdien paziņoja par centieniem novirzīt 200 miljardus eiro publiskajās un privātajās investīcijās Eiropas mākslīgā intelekta nozarei.