Denne nye standarden er utformet for alle som bruker eller leverer produkter eller tjenester basert på kunstig intelligens - KI, og sikrer ansvarlig utvikling og bruk av KI-systemer. Denne er verdens første standard for ledelsessystemer for kunstig intelligens, og gir verdifull veiledning i dette raskt skiftende teknologifeltet. 

Den tar for seg de unike utfordringene som KI innebærer, som etiske betraktninger, automatisk beslutningstaking, gjennomsiktighet atferdsendringer og kontinuerlig læring.

Blant annet kan vi lese at den tar for seg de unike utfordringene som KI innebærer, som etiske betraktninger, automatisk beslutningstaking, gjennomsiktighetatferdsendringer og kontinuerlig læring.

Lars Erik Jensen, prosjektleder i Standard Norge forklarer under punktet etiske betraktninger er det mange utfordringer knyttet til bruk av AI, også etiske, men det er også mange positive sider. Dette er også utganspunkt for at EU har startet arbeidet med å regulere bruken av AI systemer (AI Act – KI-forordningen, godkjent i Europa 9. desember 2023). For eksempler er en sminke app for barn hvor innsamlet informasjon (om barnet) blir solgt flere tusen ganger til andre selskaper, eller at AI eller algoritmer sorterer personer ut fra kjønn, alder, etnisitet eller legning.

- Et punkt heter automatiske beslutninger, hva er faren og fordeler på dette området?

- Algoritmer i AI blir ofte referert til som den svarte boksen. Dette betyr at det er begrenset kontroll eller ingen kontroll på hva som kommer ut i andre enden. Her viser jeg til samme eksempel som over, algoritmer sorterer personer ut fra kjønn, alder, etnisitet eller legning, i en rekrutteringsprosess, sier Jensen. Og fortsetter: - En algoritme gjør det den er programmert for og kan tidvis ha uheldige konsekvenser, selv om ikke programmeren eller systemet har dette som utgangspunkt. Poenget med maskinlæring er nettopp at maskiner lærer underveis og drar egne konklusjoner / automatiske beslutninger.

Lars Erik Jensen  sier om punktene gjennomsiktighet og atferdsendringer at det er mange farer knyttet til etisk bruk, uten at noen kan levere en uttømmende liste. Noen eksempler er apper for barn hvor innsamlet informasjon blir solgt flere hundre ganger til andre selskaper, eller at AI eller algoritmer sorterer personer ut fra kjønn, alder, etnisitet eller legning.

-  Et punkt heter kontinuerlig læring. Hva eller hvem er under kontinuerlig læring - systemer eller mennesker?

- AI er en ny teknologi som utvikler seg veldig raskt. 2023 har vist at vi har tatt kvantesprang i utviklingen av generativ AI. En viktig faktor i utviklingen av AI teknologien er at maskinene lærer seg nye oppgaver – maskinlæring - ut fra spesifikke oppdrag eller bestillinger. Eksempler her kan være kreftdiagnostikk hvor maskinene lærer seg å se på bilder og etter hvert gjenkjenner kreftsvulster. 

- Utviklingen går veldig raskt og maskinene jobber smartere og lærer mer og mer. For oss som mennesker og brukere, er det ønskelig, eller mer bestemt avgjørende, at vi forstår utviklingen både fra den gode og mindre gode siden. Det er også derfor at EU har utviklet AI Act, som på norsk kalles KI-forordningen, forklarer Jensen. 

Verktøysettet er ISO/IEC 42001

ISO/IEC 42001 gir virksomheter et verktøysett for å håndtere ansvarlig bruk av kunstig intelligens, samtidig som de oppfyller krav, reduserer risiko og forbedrer sitt omdømme.

Standard Norge er tydelig på at bruk av ISO/IEC 42001 gir mange fordeler. Blant annet at standarden gir retningslinjer for ansvarlig bruk av KI, og kan hjelpe virksomheter med å oppfylle regulatoriske krav eller retningslinjer og sikre overholdelse.

Den kan også bidra til å redusere risikoen knyttet til bruken av KI, og kan styrke omdømme og tillit hos kunder, interessenter og samfunnet generelt. Videre kan den hjelpe med effektiv styring av KI og den kan fremme innovasjon innen kunstig intelligens med trygghet, skriver Standard Norge på sin fagside.

Standard Norge peker på noen sentrale poenger som muligens bidrar til behovet for en standard er blant annet at økt bruk av KI-teknologier antas å gi samfunnsmessige utfordringer. Derfor er det nødvendig å å få på plass retningslinjer som sikrer at virksomheter håndterer disse teknologienepå en ansvarlig måte.

Det understrekes at noen KI-algoritmer opererer på en måte som ikke er transparent eller lett forklarlig. Dette kan skape bekymringer, spesielt når KI-systemer tar avgjørende beslutninger.

KI-systemer og kontinuerlig læring

Videre påpeker Standard Norge at KI-systemer som kontinuerlig lærer og endrer atferd, krever spesifikke overveielser for å sikre ansvarlig bruk over tid. Og den økende bruken av KI i ulike sektorer og applikasjoner, krever standarder som kan tilpasses forskjellige organisatoriske behov og brukssituasjoner.

Standard Norge peker på at standarden tar sikte på å hjelpe virksomheter med å finne riktig balanse mellom å fremme innovasjon og samtidig implementere nødvendige styringsmekanismer for ansvarlig bruk av KI.

ISO/IEC 42001 er en internasjonal standard som gir krav for etablering, implementering og forbedring av et ledelsessystem for kunstig intelligens (KI). Standarden veileder virksomheter i ansvarlig bruk av KI og tar for seg flere utfordringer som det innebærer.

Standardens fulle navn er; NS-ISO/IEC 42001 Informasjonsteknologi – Kunstig intelligens –Ledelsessystem.

Det kommer det en ny lovgivning; AI Act, som vil bli en del av norsk lovgivning. Tilsvarende jobbes det i Europa (CEN CENELEC) med å utvikle 10 nye harmoniserte standarder som skal sikre at utviklere og brukere etterlever kravene i KI-forordningen.

Har du synspunkter på noe av innholdet i artikkelen, idé til oppfølging eller annet, 
ta kontakt med Per Henriksen - e-post: per@itbaktuelt.no