Pratitelji

siječnja 28, 2026

U kolovozu stupit će na snagu EU pravila za visokorizičnu umjetnu inteligenciju, što će ona određivati?

Akt o umjetnoj inteligenciji prvi je pravni okvir o umjetnoj inteligenciji koji se bavi rizicima umjetne inteligencije. Usvojen je još 2024. godine, a njegovo stupanje na snagu je postepeno počelo još od prošle godine, a za njegovu punu implementaciju od usvajanja su određene dvije godine. Hrvatska ga je, sa svim članicama EU-a, počela djelomično implementirati, a od kolovoza ove godine će morati poštivati pravila za visokorizičnu umjetnu inteligenciju. Istražili smo o kojim je pravilima riječ.


Izvor: Europska komisija

Cilj Akta o umjetnoj inteligenciji je jasno definiranim pravilima poticati pouzdanu umjetnu inteligenciju u Europi kako bi se osiguralo da Europljani mogu vjerovati onome što umjetna inteligencija nudi. Ta pravila se temelje na riziku za razvojne programere i subjekte koji uvode umjetnu inteligenciju u pogledu određenih uporaba umjetne inteligencije. Iako većina UI sustava predstavlja ograničen rizik i može doprinijeti rješavanju mnogih društvenih izazova, određeni UI sustavi stvaraju visoke rizike koje EU želio ukloniti kako bi izbjegli neželjene ishode.

Što uključuje visokorizični pristup?

Slučajevi upotrebe umjetne inteligencije koji mogu predstavljati ozbiljan rizik za zdravlje, sigurnost ili temeljna prava klasificiraju se kao visokorizični. Ti visokorizični slučajevi primjene uključuju:

  1. Sigurnosne komponente umjetne inteligencije u ključnim infrastrukturama (npr. promet), čiji bi neuspjeh mogao ugroziti život i zdravlje građana
  2. UI rješenja koja se upotrebljavaju u obrazovnim ustanovama, a koja mogu odrediti pristup obrazovanju i tijek nečijeg profesionalnog života (npr. bodovanje ispita)
  3. Sigurnosne komponente proizvoda koje se temelje na umjetnoj inteligenciji (npr. primjena umjetne inteligencije u kirurgiji uz pomoć robota)
  4. Alati umjetne inteligencije za zapošljavanje, upravljanje radnicima i pristup samozapošljavanju (npr. softver za razvrstavanje životopisa za zapošljavanje)
  5. Određeni slučajevi upotrebe umjetne inteligencije koji se upotrebljavaju za pružanje pristupa osnovnim privatnim i javnim uslugama (npr. kreditni bodovi kojima se građanima uskraćuje mogućnost dobivanja zajma)
  6. UI sustavi koji se upotrebljavaju za daljinsku biometrijsku identifikaciju, prepoznavanje emocija i biometrijsku kategorizaciju (npr. UI sustav za retroaktivnu identifikaciju trgovca)
  7. slučajevi upotrebe umjetne inteligencije u tijelima kaznenog progona koji mogu utjecati na temeljna prava ljudi (npr. evaluacija pouzdanosti dokaza)
  8. Primjeri upotrebe umjetne inteligencije u upravljanju migracijama, azilom i nadzorom državne granice (npr. automatizirano razmatranje zahtjeva za vizu)
  9. Rješenja umjetne inteligencije koja se upotrebljavaju u sudovanju i demokratskim procesima (npr. rješenja umjetne inteligencije za pripremu sudskih presuda)

Visokorizični UI sustavi morat će podlijegati strogim obvezama prije nego što će se moći staviti na tržište, pa moraju uključivati:

  1. odgovarajući sustavi za procjenu i smanjenje rizika,
  2. visoku kvaliteta skupova podataka koji se unose u sustav kako bi se rizici od diskriminirajućih ishoda sveli na najmanju moguću mjeru,
  3. bilježenje aktivnosti kako bi se osigurala mogućnost praćenja rezultata,
  4. detaljnu dokumentaciju kojom se pružaju sve potrebne informacije o sustavu i njegovoj svrsi kako bi nadležna tijela mogla ocijeniti njegovu usklađenost,
  5. jasne i odgovarajuće informacije developera,
  6. odgovarajuće mjere za ljudski nadzor,
  7. visoku razina robusnosti, kibernetičku sigurnost i točnost.

Limitirani rizik tj. limit transparentnosti

Niža razina rizika od visokorizične je razina limitiranog rizika, koja isto stupa na snagu u kolovozu ove godine i ona se odnosi na rizike povezane s potrebom za transparentnosti u pogledu upotrebe umjetne inteligencije. Uvode se posebne obveze objavljivanja kako bi se osiguralo da su ljudi informirani kada je to potrebno za očuvanje povjerenja. Na primjer, pri upotrebi UI sustava kao što su chatbotovi ljudi bi trebali biti svjesni da su u interakciji sa strojem kako bi mogli donijeti pravu odluku.

Nadalje, dobavljači generativne umjetne inteligencije moraju osigurati da se sadržaj generiran umjetnom inteligencijom može identificirati. Povrh toga, određeni sadržaj stvoren umjetnom inteligencijom trebao bi biti jasno i vidljivo označen, odnosno uvjerljivi krivotvoreni sadržaj i tekst objavljen u svrhu informiranja javnosti o pitanjima od javnog interesa.

Neprihvatljiv rizik

Postoje i druga razine rizika čija su pravila već stupila na snagu a to je razina neprihvatljivog rizika. Ta razina uključuje pravilo zabrane svih UI sustava koji se smatraju jasnom prijetnjom sigurnosti, sredstvima za život i pravima ljudi. Aktom o umjetnoj inteligenciji zabranjeno je osam praksi, a to su:

  • štetna manipulacija i obmana koja se temelji na umjetnoj inteligenciji
  • štetno iskorištavanje ranjivosti koje se temelji na umjetnoj inteligenciji
  • Socijalno bodovanje
  • Procjena ili predviđanje rizika od pojedinačnog kaznenog djela
  • neciljano struganje internetskog ili CCTV materijala radi stvaranja ili proširenja baza podataka za prepoznavanje lica
  • prepoznavanje emocija na radnim mjestima i u obrazovnim ustanovama
  • biometrijska kategorizacija kako bi se izvele određene zaštićene značajke
  • daljinska biometrijska identifikacija u stvarnom vremenu za potrebe kaznenog progona na javnim mjestima
Zabrane su stupile na snagu u veljači 2025. EU Komisija je objavila dva ključna dokumenta kojima se objašnjava praktična primjena zabranjenih praksi:
  1. Smjernice o zabranjenim praksama u području umjetne inteligencije u skladu s Aktom o umjetnoj inteligenciji, u kojima se navode pravna objašnjenja i praktični primjeri kako bi se dionicima pomoglo da razumiju zabrane i poštuju ih.
  2. Smjernice o definiciji UI sustava iz Akta o umjetnoj inteligenciji kako bi se dionicima pomoglo u utvrđivanju područja primjene Akta o umjetnoj inteligenciji
Aktom o umjetnoj inteligenciji ne uvode se pravila za umjetnu inteligenciju koja se smatra minimalnom ili nikakvom. Velika većina UI sustava koji se trenutačno upotrebljavaju u EU-u pripada toj kategoriji. To uključuje aplikacije kao što su videoigre omogućene umjetnom inteligencijom ili filtri za neželjenu poštu.

Kako će to u praksi izgledati?


Izvor: Europska komisija

Nakon što se UI sustav stavi na tržište, tijela su zadužena za nadzor tržišta, subjekti koji uvode sustav osiguravaju ljudski nadzor i praćenje, a dobavljači moraju imati uspostavljen sustav praćenja nakon stavljanja na tržište. Dobavljači i subjekti koji uvode sustav također će morati prijaviti ozbiljne incidente i neispravnosti.

Zaključak


Regulatorni okvir Europske unije za umjetnu inteligenciju predstavlja ambiciozan i nužan pokušaj da se jedna iznimno dinamična tehnologija uvede u prostor pravne jasnoće i društvene odgovornosti. Iako se često ističe da regulacija može usporiti inovacije, upravo suprotno, jasno definirana pravila mogu postati temelj stabilnog i održivog razvoja. Stavljanjem naglaska na sigurnost, transparentnost i zaštitu temeljnih prava potiče razvoj tehnologija koje ne služe samo učinkovitosti, nego i povjerenju, odgovornosti i uključivosti, čime se dugoročno jača legitimnost digitalne transformacije.

Kritički gledano, izazovi u provedbi bit će neizbježni: od administrativnog opterećenja za poduzeća do potrebe za stalnim prilagođavanjem brzom tehnološkom napretku. Jedan od ključnih izazova za developere u provedbi Akta o umjetnoj inteligenciji jest uspostava i održavanje sustava dokazive usklađenosti tijekom cijelog životnog ciklusa visokorizičnih AI sustava. To podrazumijeva izradu opsežne tehničke dokumentacije, provođenje kontinuirane procjene rizika, osiguravanje kvalitete i prikladnosti podataka te omogućavanje sljedivosti i objašnjivosti modela. U tom kontekstu, najveći izazov nije samo tehničke prirode, već i organizacijske: razvoj AI sustava mora se transformirati iz eksperimentalnog pristupa u strukturirani proces koji je transparentan, auditu prilagođen i dugoročno održiv. Ovaj izazov ima i snažnu etičku dimenziju jer zahtijeva da developeri preuzmu aktivnu odgovornost za moguće posljedice svojih sustava, čime se tehnička izvrsnost povezuje sa zaštitom temeljnih prava i društvenih vrijednosti. Međutim, ti izazovi istodobno otvaraju prostor za stvaranje kvalitetnijeg, transparentnijeg i pouzdanijeg AI ekosustava umjetne inteligencije, pa se Europska komisija nada, da će stvoriti i bolju konkurentnost europskih proizvoda na globalnom tržištu.

U konačnici, iako regulatorni okvir neće ukloniti sve rizike niti riješiti sva etička pitanja, on predstavlja važan korak prema zrelijem odnosu društva i tehnologije. Kritička perspektiva ne umanjuje vrijednost regulatornog okvira, nego potvrđuje da je upravo promišljena regulacija ono što može omogućiti da se umjetna inteligencija razvija, ne samo s naglaskom na brzinu razvoja, nego da istovremeno bude u službi čovjeka i društva u cjelini.


Nema komentara:

Objavi komentar