• Kāpēc jāregulē Mākslīgais intelekts?

    Sadarbības projekts
    Aivars Pastalnieks
    Aivars Pastalnieks
    2. oktobris, 2023
    Komentēt

    Drukāt

    Saglabāt

    Foto: Publicitātes foto
    Mākslīgais intelekts šobrīd lielā mērā bauda uzvaras gājienu brīvā vaļā. Taču līdzās daudzām jaunām un labām iezīmēm tam ir arī negatīvās blaknes, kas var skart medicīnas, enerģētikas, transporta un citas jomas. Eiropas Parlaments līdz gada beigām plāno pieņemt Mākslīgā intelekta likumu, kura mērķis – regulēt tehnoloģiskā jaunuma darbību Eiropā.

    Korektuma dēļ jautājums ar ChatGPT starpniecību vispirms tika uzdots pašam mākslīgajam intelektam (MI).

    Tātad – kāda ir mākslīgā intelekta bīstamība?

    Atbilde: MI var radīt dažādas bīstamības situācijas.

    1. Ja MI tiek izmantots nepareizi vai ļaunprātīgi, tas var radīt sekas, piemēram, cilvēku tiesību un privātuma pārkāpumus, kā arī sabiedrības uzticības zaudēšanu.
    2. MI sistēmas var iekļaut diskriminējošus algoritmus, kas var pastiprināt nevienlīdzību un neobjektīvumu, ja tos izmanto izvērtēšanas vai atlases ­procesos.
    3. MI var tikt ļaunprātīgi izmantots, lai veiktu kiberuzbrukumus, izplatītu viltotus ziņojumus vai pārņemtu ­datorus un tīkla iekārtas.
    4. Militārās MI sistēmas var darboties bez cilvēka iejaukšanās, tas rada risku izraisīt nesaprātīgu vardarbību un konfliktus.
    5. Automatizācija un MI var aizstāt cilvēka darbaspēku dažās nozarēs, kas var radīt ekonomiskas un sociālas problēmas.

    MI tika uzdots arī mazliet citādi formulēts jautājums: kādi ir mākslīgā intelekta izmantošanas riski?

    Atbilde bija līdzīga, taču ar dažām atšķirīgām niansēm: MI rada dažādus riskus un izaicinājumus.

    1. Darbavietu zaudēšana: MI var aizstāt cilvēku darbu dažādās nozarēs, kas var izraisīt bezdarbu un prasmju ­aktualitātes zaudējumu.
    2. Datu privātums: izmantojot MI, var būt risks attiecībā uz datu privātumu, jo tiek apkopots un analizēts liels daudzums personisku datu.
    3. Algoritmu diskrimināciju: MI sistēmas var radīt vai pastiprināt diskrimināciju, kas var ietekmēt cilvēku dzīvi negatīvā veidā.
    4. Drošība un ļaunprātīga izmantošana: MI sistēmas var būt jutīgas pret ļaunprātīgu izmantošanu, piemēram, veidojot viltotus video vai ģenerējot dezinformāciju.
    5. Atkarība no tehnoloģijām: pārmērīga atkarība no MI var samazināt cilvēku spēju pašiem risināt problēmas un pieņemt lēmumus.
    6. MI sistēmas var nekorekti klasificēt cilvēkus vai situācijas, kas var izraisīt netaisnību un diskrimināciju.

    MI atzīst, ka šie ir tikai daži no riskiem, kas saistīti ar tā izmantošanu. Svarīgi ir pievērst uzmanību ētikas, regulējuma un drošības jautājumiem, lai mazinātu šos riskus un nodrošinātu MI ­pozitīvu ietekmi uz sabiedrību. Tātad pats MI uzskata, ka nepieciešams ­regulējums.


    Ko piedāvā Eiropas Parlaments?

    Eiroparlamenta deputāts Ivars Ijabs (Europe Renew grupa, strādā Iekšējā tirgus un patērētāju aizsardzības komitejā):

    «Mākslīgā intelekta likums parlamentā uz galda bija jau 2021. gadā. Tas bija mēģinājums iet laikam pa priekšu un būt pirmajiem pasaulē, kas regulē mākslīgā intelekta pielietojumu. Pagājušā gada beigās klajā nāca ChatGPT, un tas radīja pavisam citu rezonansi, jo līdz tam situācija ar mākslīgo intelektu bija līdzīga runām par kvantu datoriem – tie tūlīt būs un būs diži, bet, kā tie realitātē strādās, neviens nav redzējis. Saistībā ar MI ik dienu parādās jaunas, inovatīvas lietas, Eiropas Parlaments to visu mēģina ielikt civilizētos rāmjos. Domāju, ka likums tiks pieņemts galīgajā versijā līdz šāgada beigām, jo nākamgad nāk virsū vēlēšanas.»

    Parlaments savu nostāju ir apstiprinājis, tagad par to jāvienojas dalībvalstu ministriem. Pēc tam deputātu un valstu pārstāvju sarunās izkristalizēsies likuma galīgā redakcija.

    Ko likums paredz?

    «To, ka dažādu veidu MI programmām jābūt sertificētām. Galvenās augsta riska sfēras ir viss, kas saistās ar medicīnu. Piemēram, šobrīd liela tēma ir dažādu veidu vēža ­diagnostika. Jau pierādījies, ka mamogrāfijas attēlos MI programmas vēzi brīžam spēj labāk identificēt nekā radiologs. Bet iedomājamies situāciju, kad MI saiet sviestā… Ja lēmumu par attēla interpretāciju pieņem cilvēks, viņš var argumentēt, kāpēc tā darījis. Bet, ja MI izfiltrē lielu daudzumu informācijas un pieņem lēmumu, to, kāpēc tas ir tieši tāds, mēs nezinām.

    Tomēr medicīnā nevajadzētu arī par zemu novērtēt MI pozitīvo potenciālu. Tas var veiksmīgi apkopot zinātnisko literatūru un uz tā pamata radīt jaunas zāles. Tiesa, to var pagriezt arī pretējā virzienā – radot jaunas indes.

    Otra lieta ir enerģētika. Īpaši tagad, kad daudzi sākuši mājās ar saules paneļiem ražot elektrību. Seko viss, kas saistīts ar transportu, tā regulēšanu. Tās ir augsta riska nozares, kurās jābūt ļoti stingriem nosacījumiem. Ne tāpēc, lai aizliegtu, bet tāpēc, ka tām jābūt sertificētām, pārbaudītām un cilvēka saprastām,» saka Ivars Ijabs.

    Biometriskā novērošana

    Gatavojoties sarunām par MI likuma galīgo tekstu, Eiroparlamenta deputātu balsis sadalījušās tā: 499 – par, 28 – pret, 93 – atturas. Kā redzam, nostāja ir diezgan vienota. Taču notiek liela stīvēšanās starp tiem, kuri saka, ka prioritāte ir ļaut tehnoloģijām attīstīties, un tiem, kuri uzskata, ka galvenais ir regulēt un ierobežot.

    Ivars Ijabs atzīst, ka šī ir joma, par kuru Eiroparlamentā notiek spraiga diskusija. «Piemēram, vai drīkst pilsētās uz katra stūra izvietot kameras un pēc sejas vai gaitas identificēt cilvēkus? Parlamenta pozīcija ir tāda, ka to drīkst darīt tikai tiesībsargājošās institūcijas, bet ne reālajā laikā. Ja kas notiek, piemēram, pazudis bērns, var izprasīt ierakstus un skatīties. Bet nevar būt tā, ka uz visiem ielu stūriem visi tiek nepārtraukti identificēti. Reālā laika moments ir ļoti būtisks. Franči, piemēram, uzskata, ka to nevajag aizliegt, jo viņiem, kā zināms, atsevišķās pilsētās ir lielas problēmas ar noziedzību. Viņi gribētu novērot arī reālajā laikā, bet parlaments ir noskaņots to ierobežot.

    Dažiem deputātiem ir bailes, ka Eiropā un citviet sāks darīt to, ko dara ķīnieši. Proti, social scoring, kad pēc tā, kā tu uzvedies uz ielas, piemēram, ej pāri, kad ir sarkanā gaisma, tev tiek piešķirts kāds sociāls indekss.»

    Līdz ar to deputāti ierosina aizliegt MI sistēmas, kas rada nepieņemamu risku cilvēku drošībai, piemēram, klasificē cilvēkus, pamatojoties uz viņu sociālo uzvedību vai personīgajām īpašībām.

    MI, politika un vēlēšanas

    MI sistēmas, ko izmanto vēlētāju un vēlēšanu rezultātu ietekmēšanai, tiks iekļautas augsta riska sarakstā. Taču būtisks ir jautājums – kā šīs sistēmas varēs izkontrolēt?

    Sandra Kalniete (Eiropas Tautas partijas grupa, izstrādājusi EP ziņojumu par ārvalstu iejaukšanos demokrātiskajos procesos ES):

    «Izkontrolēt būs grūti, tomēr ES ir regulas, kas nosaka kā drīkst izmantot šīs sistēmas, datus. Eiropas Savienībā to dara pietiekami veiksmīgi, kā redzam, GDPR (Vispārīgā datu aizsardzības regula – aut.) ir gana strikta, tūlīt stāsies spēkā arī digitālo pakalpojumu un digitālā tirgus likumi. Īpaši jāizceļ progress saistībā ar datu brokeru regulējumu – mums jābūt skaidrībai par to, kā dati par mums tiek ievākti, kur tie tiek glabāti, kas to pārvalda.

    Protams, mēs apzināmies, ka likuma regulējumi neattiecas uz tiem, kas modernās tehnoloģijas izmanto ļaunprātīgos nolūkos – tie var būt politiski, jo īpaši šajos ģeopolitiskajos apstākļos, tās var būt arī organizētās noziedzības grupas, teroristu grupējumi… Arī ļaunprātīga satura veidotāju rokās nonāk dati, auditorijas tiek profilētas, notiek šķeltniecisku un kaitīgu kampaņu veidošana.»

    Ivars Ijabs: «Atsevišķs segments ir viss, kas saistīts ar deep fake. Polijā tuvojas vēlēšanas un ir jau parādījušies pirmie «feiki» ar premjeru Mateušu Moravecki, kur viņš runā to, ko nekad nav teicis.»

    Attiecīgi pie mums var parādīties viltus ieraksti ar Valsts prezidentu Edgaru Rinkēviču, premjeri Eviku Siliņu un citām personām. Ko darīt? Platformām, kurās izvietoti «feiki», tiks pieprasīts tos aizvākt. Tiesa, kā atzīmē deputāts, tāda procedūra jau ir. Tā gan nav MI, bet digitālo pakalpojumu likuma procedūra, kas jau ir spēkā.

    Uz jautājumu, vai MI varētu uzrakstīt partijas vai deputāta priekšvēlēšanu programmu, Sandra Kalniete atbild: «Bez šaubām – angļu valodā nebūtu problēmu. Latviešu valodā gan klātos grūtāk gramatikas un valodas stila kļūdu dēļ. Visatbilstošākie šādam uzdevumam būtu generative AI rīki – kā ChatGPT vai Google Bard. Ja tos informē par priekšvēlēšanu programmas mērķiem, auditoriju un resursiem, programmu varētu radīt ļoti ātri. Radīt vispārīgu programmu, kas uzrunātu maksimāli plašu auditoriju būtu salīdzinoši vieglāk, taču, ja ir mērķis uzrunāt kādu nišas auditoriju, tad mākslīgā intelekta modelis jāizglīto ar papildu parametriem par mērķauditoriju.

    Tas nebūtu nekas slikts, ja politiskās organizācijas, lai strādātu ātrāk vai efektīvāk, izmantotu mākslīgā intelekta rīkus. Taču ir jāpatur prātā, ka akli paļauties uz mākslīgā intelekta radītiem tekstiem nevajadzētu – cilvēka prāts tomēr vienmēr ir klātesošs.»

    Savukārt Ivars Ijabs atzīmē – ja ChatGPT liktu rakstīt runas, daļa politkonsultantu varētu zaudēt darbu. Skaistās, politkorektās runas ChatGPT ģenerē ļoti labi. «Šad tad esmu paskatījies, uz ko programma spējīga. Ne darba vajadzībām. Esmu dažus draugus apsveicis dzimšanas dienā, izmantojot ChatGPT ģenerētus dzejoļus.»

    Plaģiāti

    Plānots, ka oktobrī Rīgā notiks liels pasākumu par mākslīgo intelektu izglītībā. Viena no tēmām – kā izskaust plaģiātu? Kā cīnīties pret to, lai studenti masveidā neiesniegtu ChatGPT ģenerētus tekstus?

    «Mākslīgais intelekts labi meklē informāciju. Akadēmiskās profesijas ir pamatīgu pārmaiņas priekšā. Pasniedzējiem būs reālas problēmas ar plaģiāta izķeršanu. Ja cilvēki paši atradināsies rakstīt un šādus uzdevumus deleģēs ChatGPT, tas atstās iespaidu uz cilvēka ilgtermiņa domāšanas spējām. Būtu vajadzīga kāda detektēšanas programma, kas man kā pasniedzējam ļautu tekstu nočekot. Vajadzētu skaidrot, kā stiprināt labās lietas un kā ierobežot sliktās. Domāju, ka Latvijas sabiedrības liela daļa tuvākajā laikā iepazīsies ar visneiedomājamākajiem veidiem, kā MI darbojas,» ir pārliecināts Eiropas Parlamenta deputāts.

    Vai mums pietiks ar Eiropas MI likumu vai Latvijai vajag savu?

    «Pašlaik mums galvenais ir Eiropā pieņemto likumu pilnvērtīgi ieviest. Digitālā joma ES tiks arvien vairāk kontrolēta. Latvijā nāksies iespringt, lai radītu savu infrastruktūru. Situācija prasīs izveidot pašiem savu MI pārraugu, jo Latvijā arī ir ļaudis, kas ražo programmatūru. Viņiem būs nepieciešams kāds, pie kā iet un sertificēt,» uzskata Ivars Ijabs.

    Sandra Kalniete: «Ir ļoti labi, ka ES likumdošana attīstās. Tie visi ir soļi pareizā virzienā, kas apliecina, ka Eiropā palielinās izpratne par risku nopietnību, vienlaikus aug politiskā griba ko darīt lietas labā. Joprojām gan ir daudz neskaidrību, vai mūsu nacionālā tieslietu sistēma spēs pielietot un kvalitatīvi ieviest attiecīgās ES regulas? Tāpēc es stingri uzstāju uz to, ka vienlaikus ar fizisko robežu aizsardzību ir jānostiprina informatīvā telpa. Tās abas ir vienlīdz svarīgas, tajās jābūt atbilstoši līdzvērtīgiem ieguldījumiem. Jo tā ir investīcija mūsu drošībā.

    Latvijas interesēs būtu investēt mākslīgā intelekta valodas modeļu izpētē, kas analizē valodu specifiku. Tas ļoti palīdzētu demokrātijas sargu kopienai veidot sistēmu, kas ļautu savlaicīgi identificēt un apturēt ārvalstu mēģinājumus ietekmēt mūsu sabiedrību un tās demokrātiskos procesus.»

     

    Materiāls tapis sadarbībā ar

    Pievienojies dzīvesstila portāla Santa.lv Facebook un Instagram: uzzini vērtīgo, lasi kvalitatīvo.

    Satura mārketings

     

    Veselība

    Vairāk

    Receptes

    Vairāk

    Personības

    Vairāk

    Skaistums un mode

    Vairāk

    Bērni

    Vairāk

    Māja un dārzs

    Vairāk

    Izklaide

    Vairāk

    Labākai dzīvei

    Vairāk

    Aktuāli

    Vairāk

    Abonē