Artificial Intelligence Act (AI Act)
Formålet med AI Act er å etablere et europeisk rettslig rammeverk for bruk av kunstig intelligens.
Hva er kunstig intelligens?
Definisjonen av kunstig intelligens er forsøkt gjort så teknologinøytral og fremtidsrettet som mulig for å hensynta den raske utviklingen innen fagfeltet. Kunstig intelligens defineres som et maskinbasert system som er designet for å operere med varierende nivåer av autonomi, og som kan generere utdata som prediksjoner, anbefalinger eller beslutninger, enten med eksplisitte eller implisitte mål, og som påvirker fysiske eller virtuelle miljøer.
Hva reguleres av AI Act?
Rettsakten bygger på en risikobasert tilnærming. Dette innebærer at AI-systemer som utgjør en uakseptabel risiko skal være forbudt, mens det skal gjelde spesifikke krav til AI-systemer som innebærer en høy risiko for liv og helse, sikkerhet eller grunnleggende rettigheter. Operatører av slike AI-systemer vil bli pålagt strenge forpliktelser når det gjelder blant annet dokumentasjon, transparens og menneskelig tilsyn. For AI-systemer som kun utgjør en begrenset eller minimal risiko skal det gjelde visse transparens forpliktelser, og EU vil i samarbeid med medlemslandene utarbeide ulike bransjestandarder.
Lovgivningsprosessen innen EU
Europaparlamentet vedtok ny AI Act i mars 2024, og formell ikrafttredelse forventes i løpet av våren 2024. Når rettsakten er endelig vedtatt på EU-nivå vil den sannsynligvis bli ansett som EØS-relevant og må dermed implementeres direkte inn i norsk rett.
Nasjonalt tilsyn med AI Act
Ifølge AI Act skal hvert land utpeke én eller flere kompetente myndigheter. I tillegg skal landene utpeke en notifiserende myndighet («notifying authority») og en markedsovervåkende myndighet («market surveillance authority»). De materielle kravene til tilsynsmyndighetene blir omfattende og til dels sektoravhengige. For ekomsektoren vil kravene sannsynligvis inkludere teknologikompetanse, markedsforståelse, og cybersikkerhet. Nkom følger regelverksutviklingen nøye.