• Valdemārs,
  • Valdis,
  • Voldemārs
Meklēšana MeklēšanaRSSFacebookZiņu lente


Laika ziņas
Facebook
Видео Video


2026. gadā mākslīgais intelekts lems, ko darīt ar latviešiem (+VIDEO)

Teksta izmērs Aa Aa
Sabiedrība
VS.LV 12:08, 10.11.2024


Uzmanība jāpievērš datu kvalitātei un pārvaldībai.


Royots ne tikai palīdz cilvēkiem, bet arī pieņem viņiem svarīgus lēmumus.

Augstas amatpersonas apgalvo, ka Latvijā ir resursi, lai radītu digitālos risinājumus ne tikai mums pašiem, bet arī pasaules tirgum. Tas ir lieliski, tomēr, veidojot šādas inovācijas, jāapzinās, ka mākslīgais intelekts var pārkāpt pamattiesības, tai skaitā diskriminēt cilvēkus, ja netiek ievēroti vairāki nosacījumi. Piemēram, izmantotajiem datiem jābūt kvalitatīviem un uzticamiem, cilvēkiem nepārprotami jāapzinās, ka viņi ir saskarē ar mākslīgā intelekta sistēmu, kur vien to izmanto, un tām jābūt tādām, kuru pārraudzību jebkurā brīdī var uzņemties cilvēks.

Eiropas Savienībā šovasar stājās spēkā Eiropas Parlamenta un Padomes Regula, kas nosaka jaunas normas mākslīgā intelekta jomā. Tā kļūs tieši piemērojama visās Eiropas Savienības dalībvalstīs, tai skaitā Latvijā, pēc diviem gadiem, t.i. no 2026. gada 2. augusta. Atsevišķus noteikumus piemēros ātrāk, ziņo vietne labsoflatvia.lv.

Pētījumā “Mākslīgā intelekta sistēmas un diskriminācijas aspekti” analizēts, kā pašlaik mākslīgā intelekta sistēmas jau ir pārkāpušas cilvēka pamattiesības tādās jomās, kā nodarbinātība, izglītība, biometriskā identifikācija un pamatpakalpojumu pieejamība. Šīs ir četras no astoņām augsta riska jomām, ko definē jaunā Eiropas Savienības Mākslīgā intelekta regula. Šo pētījumu tiesībsarga uzdevumā izstrādāja Latvijas Universitātes pētniece dr.iur Irēna Barkāne.

Mākslīgais intelekts var diskriminēt cilvēkus

Daži piemēri no starptautiskās prakses:

Nīderlandē sistēmiskā riska identificēšanas krāpšanas apkarošanas sistēma nepamatoti apsūdzēja aptuveni 26 tūkstošus vecāku par krāpnieciskiem bērna kopšanas pabalstu pieprasījumiem. Daļai vecāku apturēja pabalstu izmaksu, bet vēl daļai lūdza tos atmaksāt. Daudzos gadījumos summa sasniedza vairākus desmitus tūkstošus eiro, radot ģimenēm ievērojamas finansiālas grūtības. Šajā gadījumā mākslīgā intelekta sistēma pieļāva kļūdas, vērtējot dubultpilsonības aspektu. Tiesa atzina pārkāpumu, un 2021. gadā šis skandāls labklājības jomā piespieda Nīderlandes valdību atkāpties;
ASV interneta tirdzniecības uzņēmuma “Amazon” darbā pieņemšanas algoritms par labākiem kandidātiem uzskatīja vīriešus, attiecīgi noraidot CV, kuros bija iekļauts vārds “sieviete”. Rezultātā “Amazon” atteicās no mākslīgā intelekta personāla atlases rīka;

Stenfordas Universitātes pētījums pērn atklāja – “Chat GPT” detektori tekstu, ko rakstījuši cilvēki, kuriem angļu valoda nav dzimtā, klasificē kā mākslīgā intelekta radītu. Patiesībā tā nebija – šiem iedzīvotājiem objektīvu iemeslu dēļ ir ierobežots vārdu krājums un gramatikas lietojums. Mākslīgā intelekta kļūdas dēļ viņi var saskarties ar nepamatotām apsūdzībām par krāpšanu vai plaģiātismu akadēmiskā un profesionālā vidē.
Kas jāmaina, lai mākslīgais intelekts būtu draugs nevis drauds?

Pirmkārt, uzmanība jāpievērš datu kvalitātei un pārvaldībai. Ja mākslīgā intelekta sistēma nav “apmācīta” ar augstas kvalitātes datiem, nav precīza un pārbaudīta pirms “palaišanas tirgū” – ar lielu ticamību tā būs cilvēkus diskriminējoša.

Otrkārt, mākslīgā intelekta sistēmas jāveido tā, lai cilvēkiem būtu pilnīgi skaidrs, ka viņi sazinās ar mākslīgā intelekta sistēmu, nevis, piemēram, ar iestādes darbinieku. Iedzīvotājus jāinformē arī par viņu tiesībām.

Treškārt, šīm sistēmām jāspēj darboties tādā veidā, ko cilvēki var atbilstoši kontrolēt un virsvadīt. Iejaukties, kad vien tas nepieciešams, un arī apturēt sistēmu, ja tā nedarbojas, kā paredzēts.

Ceturtkārt, tā ir arī atbildība un uzraudzība. Tas nozīmē, ka augsta riska mākslīgā intelekta sistēmām jābūt rūpīgi izstrādātām novērtēšanas procedūrām attiecībā uz datu kvalitāti, dokumentāciju, cilvēka veiktu pārraudzību, precizitāti, kiberdrošību u.c. Piemēram, biometrijas jomā šo pārbaudi jāveic trešajai personai.

“Nav šaubu, ka mākslīgā intelekta sistēmas var būt draugs un palīgs. Tomēr pētījums parāda, kādas sekas var būt tad, ja sistēma ir nepareiza. Ja cilvēka pieļauta kļūda rada kaitējumu citam konkrētam cilvēkam, tad mākslīgā intelekta sistēmas radīta kļūda automātiski tiek attiecināta uz to sabiedrības grupu, kura atbilst mākslīgā intelekta sistēmas noteiktiem kritērijiem. Tādējādi ietekme ir daudz plašāka. Es ceru, ka politiķu aicinājums par Latvijas spēju radīt pasaules līmeņa mākslīgā intelekta sistēmas īstenosies arī tādā ziņā, ka pamattiesību ievērošana tajās būs prioritāte,” uzsver Tiesībsarga biroja Diskriminācijas novēršanas nodaļas vadītāja Anete Ilves.


Esiet atbildīgi par komentāriem! Jūsu izteikumi nedrīkst būt pretrunā ar LR likumdošanu.
Portāls VS.LV nenes atbildību par komentāru saturu.
Lasīt visus komentārus

Atbilēt

Anonīmi komentāri

Pievienot

Rekomendējam



ARĪ KATEGORIJĀ

Sabiedrība Saeimas komisija konceptuāli atbalsta principu «parāds seko dzīvoklim»

Izmaiņas rosinātas, lai aizsargātu dzīvokļu īpašnieku kopību.

Sabiedrība Atsakās ierosināt lietu par Maskavas namu atsavināšanu

Pieteikumu Satversmes tiesā iesniedza Maskavas pilsētas īpašuma departaments un Maskavas Starptautiskās sadarbības centrs.

Sabiedrība Medicīnas darbinieki Latvijā neuzticas valdības solījumiem (+VIDEO)

EK un OECD skaidri norāda Latvijai uz nepieciešamību strauji un būtiski palielināt valsts finansējumu veselības aprūpei.

Sabiedrība Arī atkārtotajā izsolē neizdodas izsolīt Maskavas namu

VAS "Valsts nekustamie īpašumi" (VNĪ) arī trešajā izsolē nav izdevies piesaistīt potenciālo investoru interesi par Maskavas kultūras un biznesa centru Rīgā, Marijas ielā 7, kas plašāk pazīstams kā Maskavas nams, liecina informācija elektronisko izsoļu vietnē "izsoles.ta.gov.lv".

Lasiet arī

Interesanti fakti Polijas radiostacija atsakās no mākslīgā intelekta radītiem raidījumu vadītājiem

Polijas radiostacija "OFF Radio Krakow" pirmdien paziņoja, ka ir izbeigusi eksperimentu, kurā tā īstus žurnālistus bija nomainījusi ar mākslīgā intelekta radītiem raidījumu vadītājiem, izraisot sašutumu valstī.

Interesanti fakti Polijas radiostacija aizstājusi žurnālistus ar mākslīgo intelektu

Polijā radiostacija "OFF Radio Krakow" savus žurnālistus nomainījusi ar mākslīgā intelekta radītiem raidījumu vadītājiem.

Kultūra ABBA mūziķis un tūkstošiem mākslinieku brīdina par mākslīgā intelekta draudiem

Tūkstošiem mākslinieku, tajā skaitā grupas ABBA mūziķis Bjērns Ulveuss, Holivudas aktrise Džuljana Mūra un Nobela prēmijas laureāts Kadzuo Isiguro, parakstījuši paziņojumu, kurā brīdina par mākslīgā intelekta draudiem radošajām industrijām.

Sabiedrība Mākslīgā intelekta centra izveidei plānots piesaistīt 500 miljonus eiro

Latvijas mākslīgā intelekta centra (LMIC) projekta īstenošanai valsts varētu dibināt biedrību ar noteiktu valsts iestāžu funkciju deleģējumu, un piesaistīt 500 miljonus eiro piecu gadu laikā, informē Ekonomikas ministrija.