🏠 Forside § Lover 📜 Forskrifter 💼 Bransjeforskrifter 📰 Lovtidend 🏛 Stortingsvoteringer Domstoler 🇪🇺 EU/EØS 📄 Siste endringer 📚 Rettsomrader 📊 Statistikk 🔍 Avansert sok Hjelp
Hjem / Høringer / Stortinget
Stortinget Avholdt
Justiskomiteen

Representantforslag fra stortingsrepresentantene Torgeir Knag Fylkesnes og Marian Hussein om demokratisk kunstig intelligens

Høringsdato: 07.11.2023 Sesjon: 2023-2024 12 innspill

Høringsinnspill 12

Næringslivets hovedorganisasjon

NHOs høringssvar til representantforslagene om kunstig intelligens i justiskomiteen

NHO takker for muligheten til å gi innspill til representantforslagene om kunstig intelligens.  

NHO vil først kommentere Dokument 8:273 S (2022-2023) Representantforslag om kunnskap om og veiledning i bruk av kunstig intelligens. Vi deler forslagsstillernes syn slik de er beskrevet i den innledende teksten. NHO deler også forslagsstillernes syn på behovet for å holde tritt med utviklingen i bruk av kunstig intelligens i Norge sammenliknet med andre deler av verden, og at det neppe er klokt eller mulig å sette teknologien på pause, slik det er foreslått i høringens andre forslag (kommentert nærmere under). 

Til de konkrete forslagene vil NHO bemerke følgende: 

Punktene 1)-4) er alle gode forslag. Noen av dem er delvis imøtekommet av de tiltakene regjeringen har lansert de siste månedene. Det er f.eks. blitt lovet 1 milliard kroner over 5 år til forskning på kunstig intelligens, noe NHO mener positivt. Midlene må forvaltes på en klok måte, slik at de bidrar til økt produktivitet i privat og offentlig sektor.  

 

Når det gjelder å skalere opp antall studieplasser innenfor utdanningsområder som er viktige for å forstå og anvende kunstig intelligens f.eks. STEM-fag (forslag 2), er man langt fra i mål. NHO mener det må til en forsterket satsing på 1000 nye IKT-studieplasser, noe som vil bidra til å stadig økende kompetansegap. IKT-kompetanse er en nøkkelfaktor for verdiskaping, omstilling og konkurransekraft. 

 

Også forslaget om å implementere EUs Artificial Intelligens Act samtidig i Norge som i EU (forslag 3) oppfatter vi at det arbeides med, noe NHO støtter fullt ut. Videre er en gjennomgang av relevant regelverk med tanke på tolkning og anvendelse i lys av kunstig intelligens (forslag 4) etterlyst av næringslivet. NHO mener regelverk som er laget for en analog tid, må gjennomgås og tilpasses den digitale verden. 

 

Forslag 5) om etablering av et eget algoritmetilsyn er interessant, og må etter NHOs syn vurderes nærmere. Tilsynsvirksomhet blir uten tvil svært viktig. Krav om dette er en del av den kommende AI Act fra EU. Det er imidlertid opp til det enkelte land i EU hvordan tilsynet skal organiseres. Foreløpig er Spania det eneste landet som har etablert et eget tilsyn og en tilhørende regulatorisk sandkasse som skal teste ut hvordan tilsynet bør fungere.  

 

Hvorvidt Norge skal velge å opprette et eget tilsyn for kunstig intelligens, eller om det skal integreres i eksisterende virksomheter som for eks NKom som kan godkjennes under den nye EU-reguleringen, har NHO ikke tatt endelig stilling til. Det er et spørsmål om tilstrekkelig tilgang til finansielle ressurser og riktig kompetanse som etter NHOs mening må analyseres grundigere.  

 

Dokument 8:232 S (2022-2023) Representantforslag om demokratisk kunstig intelligens: NHO vil sterkt advare mot “et moratorium i offentlig sektor mot å ta i bruk nye kommersielle verktøy som bygger på kunstig intelligens”. Ikke bare vil dette gjøre at Norge sakker akterut i viktige teknologi-næringer, det vil også redusere offentlig sektors evne til å tilby effektive og gode tjenester til sine innbyggere. Kunstig intelligens brukes på en rekke områder og i en rekke forskjellige former og et moratorium vil kunne få store konsekvenser.  

 

NHO er skeptiske til en konsesjonsordning for data. Det er uklart hvordan den vil fungere og hvorvidt den vil bidra til mer trygghet i bruk av data. Spørsmålet om datadeling vil uansett adresseres i Viderebruksutvalget, og Stortinget bør avvente konklusjonene fra denne. 

 

En stortingsmelding om kunstig intelligens kan være interessant, men først og fremst er det behov for fremdrift i arbeidet med KI, både i offentlig og privat sektor. Regjeringens digitaliseringsstrategi blir i så måte et viktig verktøy og et eventuelt behov for en egen stortingsmelding om KI vil være tydeligere når den er levert.  

Les mer ↓
Microsoft Norge

Høringsinnspill fra Microsoft Norge

Høringsinnspill fra Microsoft

Microsoft Norge takker for muligheten til å komme med skriftlige innspill til Justiskomiteen om ansvarlig bruk av kunstig intelligens knyttet til de to representantforslagene som nå er til behandling i komiteen:

1) Representantforslag 232 S om demokratisk kunstig intelligens (SV)

2) Representantforslag 273 S om kunnskap om og veiledning i bruk av kunstig intelligens (V)

 

Regulering og ansvarlig utvikling av kunstig intelligens

Generativ kunstig intelligens vil definere vår generasjon og hvordan vi former fremtiden. Når vi utvikler denne teknologien har vi et ansvar for å sørge for at kunstig intelligens (KI) utvikles og brukes på en ansvarlig måte. Som en ledende teknologiaktør innen utvikling av KI jobber Microsoft aktivt for ansvarlighet og åpenhet, og har over lengre tid etterspurt nødvendig reguleringer.  

Kunstig intelligens er en kraftfull teknologi som har stor innflytelse på samfunn, økonomi og geopolitikk. De landene som lykkes i raskt å ta i bruk KI på en ansvarlig måte, er de mest sannsynlige til å høste de største fordelene. For å sikre at KI blir brukt på en måte som fremmer menneskerettigheter, bærekraft og innovasjon, er det nødvendig med internasjonalt samarbeid mellom land som deler felles verdier og interesser. Norge har en viktig rolle å spille i dette samarbeidet, og bør støtte opp om et felleseuropeisk regelverk, herunder EUs Artificial Intelligence Act (AIA). Med tanke på de enorme fremskrittene innenfor generativ KI det siste året, bør norske myndigheter se til andre land som allerede har utarbeidet retningslinjer og utarbeider standarder for utvikling og bruk av KI i påvente av EUs AIA i 2026/2017, om vi vil fortsette å være i leder sjiktet innen digital utvikling.

G7-landene Canada, Frankrike, Tyskland, Italia, Japan, Storbritannia og USA ble nylig enige om regulering av kunstig intelligens. Denne uken lanserte også President Joe Biden en presidentordre for å sikre at USA kan gripe mulighetene og håndtere risiko ved KI. Presidentordren bygger på Det Hvite hus frivillige retningslinjer for sikker, trygg og pålitelig KI og internasjonale tiltak gjennom G7. Canadiske myndigheter har også utarbeidet nye frivillige retningslinjer for generativ KI til å gjelde i en overgangsperiode frem til ny AI & Data Act.

Norsk konkurransekraft og verdiskaping er ikke tjent med at folk blir usikre på om de tør ta i bruk kunstig intelligens. For å sikre trygg, sikker og pålitelig utvikling av KI mener vi norske myndigheter må se på reguleringer som svarer til utfordringene, men som ikke bremser muligheten for verdiskapning og utvikling. Kunstig intelligens brukes i dag i store deler av norsk forvaltning, industri, og forsvars- og beredskapsevne. Sikkerhetsmekanismer må settes inn mot KI-systemer som styrer samfunnskritisk infrastruktur. Dette er noe av det som haster aller mest.

Nye KI regulering må bygge på allerede eksisterende rammeverk. Det gir ingen mening å begynne helt fra bunnen av. I stedet kan vi bruke og håndheve eksisterende lover. Kunstig intelligens må ikke føre til en forringelse av den enkeltes rettigheter og rettsikkerhet. Norske personvernregler gjelder for bruk av KI. Et annet eksempel er gjeldende forbud mot diskriminering basert på rase og kjønn når banker skal ta stilling til et boliglån. Dersom en bank bruker KI for å hjelpe til med å ta lånebeslutningen, må de sørge for at dette ikke fører til ulovlig diskriminering i strid med norsk lov.

 

Microsofts merknader til anmodningsforslagene i Representantforslag 232 S om demokratisk kunstig intelligens fremmet av SV:

  1. Microsoft er kritisk til forslaget om å umiddelbart, uten videre utredning, innføre et moratorium i offentlig sektor på bruk nye kommersielle verktøy som bygger på KI. Kunstig intelligens brukes i svært mange sammenhenger på tvers av sektorer og bransjer både i det privat og i det offentlige. Vi frykter at et slikt midlertidig forbud mot KI ikke bare vil bremse den digitale omstillingstakten i offentlig sektor, men også kan føre til økt sentralisering av makt og kontroll over KI, i strid med intensjonen i forslaget.
  2. Microsoft støtter intensjonen i forslaget om strengere kontroll over innsamling, bruk og lagring av data. Dette er et område vi har jobbet med lenge, og vi har demonstrert dette ved å stille strengere krav til databehandling. Microsoft publiserer årlige en rapporter om håndtering av ansvarlig KI. Forslaget til SV om å innføre en konsesjonsordning kun for kommersielle aktører mener vi imidlertid vil være mangelfull og lite hensiktsmessig, da ansvarlig databehandling er vel så viktig i offentlig sektor. Europeiske byer som Amsterdam og Helsinki har opprettet offentlige KI-registre for å dokumentere hvordan de bruker algoritmer til å levere tjenester til innbyggerne. Microsoft mener et styrket offentlig-private partnerskap er veien å gå for å håndtere de samfunnsmessige utfordringene.
  3. Microsoft støtter forslaget om en stortingsmelding om kunstig intelligens. En stortingsmelding må være helhetlig og svare på utfordringene innen alle samfunnsområder som benytter eller vil komme til å benytte KI. Dette inkluderer både tiltak innen forskning og utdanning på KI og innføringen av sikkerhetsmekanismer for KI-systemer som styrer kritisk infrastruktur, herunder gassrørledninger til Europa, elektrisk strømnett, vannsystemer osv. Disse sikkerhetsmekanismene ser vi på som noe av det aller mest prekære å få på plass.

 

Microsofts merknader til Representantforslag 273 S om kunnskap om og veiledning i bruk av kunstig intelligens (V)

  1. Microsoft støtter forslaget om å legge frem en plan for forsterkning av forskning på kunstig intelligens og dens bruksområder i samfunnet. Det er svært viktig å utvikle robusthet og styrke kunnskapen som trengs for å forstå mulighetene og utfordringene med KI.
  2. Microsoft er av samme grunn også positive til å satse mer på kunstig intelligens i utdanningssektoren, herunder øke antall studieplasser på områder som er viktige for å forstå og anvende KI. Vi er spesielt positive til tverrfaglige studieplasser som kombinerer samfunnsmessige og teknologiske kunnskap for å se utfordringene i en større sammenheng.
  3. Microsoft er enig i at Norge bør implementere EUs Artificial Intelligence Act (AIA). Det er positivt om disse kan tre i kraft i Norge samtidig som i EU. Likevel mener vi det er for lenge å vente til 2026/2027. Norge kan allerede nå utarbeide retningslinjer for ansvarlig KI, herunder for anskaffelser av KI-løsninger i offentlig sektor, og implementere nye internasjonale KI standarder.
  4. Microsoft mener det er riktig å se nærmere på hvordan eksisterende regelverk bør tolkes og anvendes i lys av KI. Nye regelverk bør i så stor grad som mulig bygge på eksisterende rammeverk for AI. Det gir ingen mening å utvikle nytt regelverk, når vi kan benytte eksisterende lover. Regulering må være basert på KI-teknologiarkitekturen. For KI-applikasjoner der folks sikkerhet og personvern kan bli berørt, har vi allerede regler for eksempel i person- opplysningsloven. Men vi må ha på plass regulering også for KI-arkitekturen under i de såkalte modellene og infrastrukturen.
  5. Microsoft er kritisk til opprettelsen av et eget algoritmetilsyn, og viser til at det allerede finnes regler og tilsyn som regulerer bruken av algoritmer, som personvernloven, forbrukerloven og markedsføringsloven. Et nytt algoritmetilsyn vil såldes skape mer byråkrati, og hemme innovasjon. Det som gir mening er å opprette en AI Advisory board av eksperter for å gi råd til myndighetsorganer og allerede etablerte tilsyn. Nylig opprettet FN en AI Advisory board bestående av representanter fra myndigheter, industri, sivilsamfunn og akademia for å forme en fremtid der KI bidrar til å løse våre største globale utfordringer.

Vi ønsker dialog med komiteen, og svarer mer enn gjerne på spørsmål knyttet til høringsinnspillet.

 

Les mer ↓
Abelia

Høringssvar fra Abelia – representantforslag om kunstig intelligens

Abelia er NHOs landsforening for kunnskaps- og teknologibedrifter. Våre 2 800 medlemsvirksomheter og de 65 000 ansatte som arbeider her, bidrar hver dag med å løse komplekse problemstillinger for å omstille Norge fra et råvareeksporterende land til et digitalt og bærekraftig kunnskapssamfunn.

Overordnede merknader

Ny teknologi er en av de viktigste driverne for produktivitetsvekst, nytt næringsliv og derfor også norsk omstillingsevne. Det norske teknologinæringslivet skaper verdier for 210 milliarder kroner og sysselsetter 110 000 mennesker, ifølge Abelias nøkkeltallsrapport for norsk tech fra juni 2023. Det gjør næringen til en av de mest produktive etter oljenæringen. Tech-virksomheter vokser også raskere og gir effektiviseringsgevinster i alle andre næringer.

Som all teknologipolitikk er den nasjonale politikken for kunstig intelligens sektorovergripende. Kunstig intelligens handler om digitalisering, men også om næringspolitikk, kunnskapspolitikk, forskning og høyere utdanning, innovasjon, justispolitikk og sikkerhetspolitikk. Med andre ord: feltet utfordrer sektorprinsippet i norsk forvaltning. Dette illustreres også av at denne saken er tildelt justiskomiteen, men har forslag som også er relevante for Kommunal- og forvaltningskomiteen og Utdannings- og forskningskomiteen.

Vi har valgt å strukturere våre innspill i rekkefølgen de er lagt opp på høringen.

Representantforslag om demokratisk kunstig intelligens

Utviklingstrekkene som beskrives og bakgrunnen som gis for representantforslagene om demokratisk kunstig intelligens fremstår sprikende, både i presisjon og tema. Dersom forslagsstillerne er bekymret for at kunstig intelligens skal utrydde menneskeheten mener vi for eksempel det ville vært mer treffende å foreslå tiltak for å begrense utviklingen og bruken av autonome våpen enn et forbud mot innkjøp av robotstøvsugere i offentlig sektor. 

Abelia støtter ikke forslag 1 om et moratorium i offentlig sektor mot å ta i bruk nye kommersielle verktøy som bygger på kunstig intelligens. Kunstig intelligens er, som også redegjøres for i bakgrunnen for forslaget, en samlebetegnelse på ulike teknologier som brukes på en rekke ulike felt. Ved å midlertidig stoppe all bruk av nye verktøy som bygger på kunstig intelligens kan man risikere at systemkritiske oppdateringer innen digital sikkerhet ikke kan gjennomføres, eller at man ikke kan bytte ut utdatert eller ødelagt maskinvare.

Vi har forståelse for at små innkjøpsmiljøer, kompetansemangel og manglende veiledning fører til utfordringer i offentlige innkjøp på flere nivå i offentlig sektor. Abelia har flere forslag som vi mener kan bidra til å sikre at innkjøp og implementering av nye digitale verktøy i offentlig sektor gjøres på en tryggere, mer bærekraftig og personvernsvennlig måte, og bidrar gjerne med ytterligere innspill på dette.

Abelia støtter ikke forslag 2 om en konsesjonsordning for innsamling, bruk og lagring av både offentlige data og persondata for kommersielle aktører. Vi mener en slik konsesjonsordning, i tillegg til å hemme innovasjon og næringsutvikling i Norge, vil innebære et brudd med helt grunnleggende rettigheter og prinsipper for et liberalt demokrati.

Personvern handler i stor grad om retten til å bestemme over egne personopplysninger, og en konsesjonsordning hvor staten skal ta kontroll på disse vil være et klart brudd med utgangspunktet for norsk personvernlovgivning og problematisk hensyn til Grunnlovens §102 samt menneskerettighetenes bestemmelser om rett til privatliv.

Prinsippet om allmennhetens rett til innsyn i forvaltningens saksdokumenter er i dag grunnfestet i norsk lovgivning og praksis og regnes som et grunnleggende demokratisk prinsipp. En konsesjonsordning for innsamling, lagring og bruk av offentlige data som ikke er underlagt spesielle restriksjoner av sikkerhetsmessige eller andre tungtveiende hensyn vil derfor være svært problematisk av hensyn til demokratiet, rettssikkerheten og pressens og samfunnets mulighet til å ettergå og kontrollere statens virke.

På enkelte områder er ikke, og skal ikke, data fra offentlig sektor være tilgjengelig for alle, og dette er i dag regulert i en rekke sektorlovverk som sikkerhetsloven eller helseforskningsloven. Det kan tenkes at enkelte slike data kunne vært underlagt konsesjon for forsknings- eller utviklings/innovasjonsformål, men for dette formål er forslaget etter vårt syn for bredt.

Forslag 3 om en stortingsmelding om hvordan det arbeides med kunstig intelligens kan være interessant, og potensielt bidra til større samordning og kompetansedeling mellom sektorer og forvaltningsnivå. Vi frykter imidlertid at en slik stortingsmelding vil være enormt arbeidskrevende og ikke klare å fange opp et komplett bilde.

Digitalisering og kunstig intelligens utfordrer sektorprinsippet og hverken forvaltningen, regjering eller stortinget er i dag hensiktsmessig organisert for å kunne behandle spørsmålet helhetlig. Det kan tenkes at en offentlig utredning derfor vil kunne være en mer egnet prosess. En slik utredning vil også kunne gi anbefalinger på organisering for å sikre bedre sammenheng mellom regelverk, organisering og digitale løsninger. Abelia også har tidligere anbefalt at det settes ned en teknologikommisjon for muliggjørende teknologier, herunder kunstig intelligens, etter modell fra energikommisjonen.

Representantforslag om kunnskap om og veiledning i bruk av kunstig intelligens

Abelia mener bakgrunnen for forslaget gir en balansert og god beskrivelse av utviklingstrekk den siste tiden og løfter relevante problemstillinger.

Vi støtter forslag 1 om en plan for forsterkning av forskning på kunstig intelligens og betydningen av bruken av kunstig intelligens i samfunnet, men vil også påpeke at regjeringen nylig har annonsert en satsing på 1 milliard over fem år til dette formålet. Vi mener dette er svært positivt, og vil understreke behovet for at denne satsingen støtter opp under kompetansebygging på feltet, innovasjon og næringsutvikling. Vi mener derfor størstedelen av satsingen bør rettes mot næringsrettet FoU.

Abelia støtter forslag 2 om å skalere opp antall studieplasser innenfor utdanningsområder som er viktige for å forstå og anvende kunstig intelligens, men mener innsatsen først og fremst bør legges på IKT-kompetanse og STEM-fagene. Dette er fagområder hvor etterspørselen etter kompetanse både i næringslivet og offentlig sektor er stor, og vi risikerer et stort underskudd på kvalifisert arbeidskraft fremover. Samfunnsøkonomisk Analyse har på vegne av blant annet Abelia og gjort beregninger som viser at vi vil trenger 40 000 nye IKT-utdannede innen 2030. Tall fra SSB viser at 7 av 10 kommuner allerede i dag sliter med tilgang på denne typen kompetanse, og NHOs kompetansebarometer viser tilsvarende tall for privat næringsliv.

Abelia støtter også forslag 3 og 4, og har ingen merknader til disse.

Vi støtter ikke forslag 5 om å etablere et eget algoritmetilsyn, og mener et forslag om utredning av et eventuelt algoritmetilsyn ville vært bedre. Det er ingen etablert praksis på hvordan et algoritmetilsyn er eller ser ut, og det er i forslaget ikke indikert hvilke lov eller funksjoner det er tenkt at skal føres tilsyn med.

EUs AI Act inneholder i gjeldende utkast bestemmelser om tilsynsfunksjoner, og Abelia støtter at Norge implementerer forordningen med tilhørende tilsynsfunksjoner. Vi støtter også at man allerede nå utreder og vurderer hvordan disse funksjonene skal ivaretas i norsk lovgivning. Vi har imidlertid ikke tatt endelig standpunkt til hvorvidt dette bør gjøres gjennom opprettelsen av et nytt tilsyn, om ansvaret bør deles mellom eksisterende tilsyn eller om et eksisterende tilsyn bør få ansvaret for hele. Vi er skeptiske til behovet for et vedtak om at det skal opprettes et eget algoritmetilsyn i en parallell prosess, og også at det konkluderes på innretning uten videre utredning.

Abelia takker for muligheten til å gi innspill.

Les mer ↓
Likestillings- og diskrimineringsombudet

Likestillings- og diskrimineringsombudets innspill til representantforslagene om KI

Det er en reell risiko for at bruken av kunstig intelligens løper fra demokratiets og rettsstatens evne til å sikre folks rettigheter. Fra andre land ser vi at myndighetene først og fremst bruker KI til å kontrollere, mistenkeliggjøre og overvåke befolkningen, fremfor å sikre bedre ivaretakelse av deres rettigheter. Det finnes flere eksempler på at KI bidrar til å forsterke og reprodusere eksisterende ulikhet og diskriminering av allerede utsatte grupper i samfunnet.

I Nederland ble det for eksempel avslørt at skattemyndighetenes algoritmer helt siden 2013 feilaktig hadde flagget titusener av innvandrere som trygdesvindlere, krevd umiddelbar tilbakebetaling av deres ytelser og sendt tusener av barnefamilier ut i økonomisk ruin. Dette var systematisk diskriminering ved hjelp av kunstig intelligens, uten menneskelig innsyn eller demokratisk kontroll.

Opprydningsarbeidet i Nederland ble omfattende – blant annet måtte regjeringen gå av i 2020 som følge av skandalen. I Norge har KI enn så lenge ikke forårsaket tilsvarende politiske skandaler, men flere forvaltningsorganer jobber med å utvikle maskinlæringssystemer som skal bidra til å avgjøre tildeling av velferdsgoder. Ergo er den samme risikoen for diskriminering tilstede også her til lands.

Vi minner om at offentlig sektor har en særskilt plikt i likestillings- og diskrimineringslovens § 24 til å fremme likestilling og hindre diskriminering i all sin virksomhet. Denne plikten gjelder også når forvaltningen bruker kunstig intelligens til å ta avgjørelser om enkeltmennesker.

Vi støtter derfor begge forslagenes intensjon om å sikre bedre regulering av kunstig intelligens.

Kommentarer til forslag nr. 3 i Dok. 8:237 S

Ombudet støtter forslagsstillerne i at EUs KI-forordning bør tre i kraft i Norge så raskt som mulig. Forordningen skal blant annet sørge for bedre beskyttelse for mennesker som påvirkes av avgjørelser tatt av såkalte høyrisiko KI-systemer. Dette er systemer som utgjør stor risiko for helse, trygghet og grunnleggende rettigheter, for eksempel systemer som vurderer folks kredittverdighet eller hvem som skal få tilgang til sosiale ytelser. Det er spesielt slike systemer som kan medføre en risiko for et diskriminerende utfall.

Forbudet mot diskriminering i likestillings- og diskrimineringsloven gjelder kun avgjørelsen som et KI-system bidrar til å fatte. Hvordan systemet kom fram til en diskriminerende avgjørelse kan være umulig å vurdere uten innsyn i prosessen bak. Vi mangler i dag gode verktøy for å avdekke risiko for diskriminering i KI-systemer.

I Europaparlamentets forslag til KI-forordningen (artikkel 29a) er imidlertid aktører som tar i bruk høyrisikosystemer forpliktet til å gjøre en såkalt «fundamental rights impact assessment» for å sørge for at systemene er trygge og ikke diskriminerer, og de må gi offentlig tilgjengelig informasjon om hvordan systemene fungerer. Dette vil styrket vernet mot diskriminering.

Dette kravet undermineres imidlertid av et smutthull i forordningens artikkel 6, som legger opp til at det er utviklerne av KI-systemer som selv skal definere om systemet deres er høyrisiko eller ikke. Selskaper eller myndigheter gis dermed makt til å selv bestemme om de skal være underlagt kravet om å gjøre en risikovurdering av grunnleggende rettigheter – som retten til likestilling og ikke-diskriminering.

Dersom dette smutthullet ikke tettes i den endelige forordningen, mener ombudet at Stortinget må utrede det nasjonale handlingsrommet for å innføre tilleggsbestemmelser som sikrer at utviklere og brukere av KI-systemer som behandler personopplysninger må gjennomføre en menneskerettslig konsekvensvurdering.

Kommentarer forslag nr. 4 i Dok. 8:237 S

Som forslag nr. 4 i Dok. 8:237 S viser til, finnes det allerede eksisterende lovverk i Norge som kan brukes til å regulere kunstig intelligens. Ombudet støtter at den foreslåtte undersøkelsen av lovverket i lys av kunstig intelligens blir gjort, og vi vil understreke at likestillings- og diskrimineringsloven må inngå blant lovene som må kartlegges.

Kommentarer forslag nr. 5 i Dok. 8:237 S

Ombudet støtter opprettelsen av et algoritmetilsyn, slik KI-forordningen vil kreve. Uavhengig av om tilsynsmyndigheten legges til et eksisterende tilsyn, eller om det opprettes et nytt organ, er det avgjørende at algoritmetilsynet har nær dialog med øvrige tilsyns- og ombudsordninger. Et fremtidig algoritmetilsyn må opprette forpliktende samarbeid med relevante fagmiljøer og sektorspesifikke tilsyn i de sakene der systemene som det skal føres tilsyn med kan komme i konflikt med eksisterende sektorlovverk.

Likestillings- og diskrimineringsombudet er én av de aktuelle aktørene som må inngå i et algoritmetilsyn ved behov. Ombudet har siden 2021 deltatt i referansegruppen til Datatilsynets sandkasse for ansvarlig kunstig intelligens, og har gitt veiledning om diskrimineringsrisiko til flere av prosjektene i sandkassen. Ombudet har blant annet veiledet AHUS i utviklingen av deres algoritme for å predikere hjertesvikt, for å undersøke om algoritmen kunne medføre dårligere helsehjelp for enkelte befolkningsgrupper.

Les mer ↓
NITO

Representantforslag om kunstig intelligens

Med over 106 000 medlemmer er NITO landets største organisasjon for ingeniører og teknologer. Vi organiserer i alle sektorer og har en betydelig andel medlemmer med IKT-fagbakgrunn. I flere år har NITO arbeidet med mulighetene som ligger i kunstig intelligens (KI) og med etiske problemstillinger tilknyttet teknologien.

 

Representantforslag om demokratisk kunstig intelligens

Gjennombruddet til ChatGPT har allmenngjort generativ KI i Norge. Halvparten av norske virksomheter oppgir at de enten har tatt i bruk eller vil ta i bruk KI i løpet av året. Det hersker ikke lenger tvil om at maskinlæring vil spille en sentral rolle i framtidens samfunn, og at teknologien vil ha store konsekvenser for både økonomi og arbeidsliv.

 

Når det gjelder representantforslaget om demokratisk kunstig intelligens, mener NITO utviklingen og utbredelsen av KI vanskelig lar seg stoppe. Teknologien har vært en del av hverdagen vår i flere år og drives fram av sterke internasjonale krefter. Fordi KI er allestedsnærværende i tjenester fra blant annet Google, Microsoft og Apple, mener NITO det er mer hensiktsmessig å finne ut hvordan teknologien skal reguleres enn å prøve å forby den.

 

NITO er en teknologioptimistisk organisasjon og vil framheve at KI er et effektivt verktøy for å sikre omstillingen til lavutslippssamfunnet. Innen medisin brukes teknologien effektivt til presisjonsdiagnostikk og personlig behandling. Flere industrier bruker maskinlæring for å optimalisere logistikk og produksjon. Og med en krympende arbeidsstyrke i kommende år, må teknologien overta nødvendig oppgaver for å bevare samfunnets driftsevne. Likevel er det av avgjørende betydning at vi regulerer teknologien slik at vi unngår og/eller minimerer skadelige effekter.

 

Datadrevne beslutningsprosesser er på full fart på vei inn i arbeidslivet. Flere systemer implementeres under påskudd av at de skal skape økt produktivitet og et bedre arbeidsmiljø. Dessverre er ikke det alltid tilfelle. Digitale verktøy, som for eksempel Microsoft 365, kan enkelt brukes til å kontrollere arbeidstakere. Selv om det ikke er arbeidsgivers intensjon å overvåke, skal det lite til før overtramp skjer.

 

Mange av NITOs medlemmer uttrykker bekymring for at arbeidsgivere kan ta i bruk programvare og digitale verktøy som åpner opp for overvåkning og måling av den enkelte arbeidstakers produktivitet. Det er ikke kun overvåkning NITO er bekymret for, men også såkalt «automatisert profilering». Dette er når virksomheter drar nytte av algoritmer til å samle inn data og lage profiler på ansatte. Algoritmene kan være programmert til å identifisere og kartlegge egenskaper ved de ansatte, samt gjøre risikovurderinger. Fordi algoritmene gjerne er «svarte bokser», som verken arbeidsgiver eller arbeidstaker vet hvordan er designet, kan konklusjonene til algoritmene få uheldige konsekvenser.

 

Representantforslag om kunnskap om og veiledning i bruk av kunstig intelligens

Representantforslag om kunnskap om og veiledning i bruk av kunstig intelligens samstemmer med hva NITO argumenterer for. Nøkkelen for ansvarlig KI ligger i å påvirke og delta. Det kommer flere KI-tiltak fra EU, blant annet påbud om opprettelsen av et algoritmetilsyn. NITO mener det er viktig å innlemme EUs KI-forordning i norsk rett så raskt som mulig for å få på plass regulering. Samtidig minner vi om at det er mulig for Norge å gå lengre enn EUs bestemmelser for å sikre en ansvarlig utvikling.

I den sammenheng er personvern og norske verdier viktige. I praksis er det nærmest umulig å trene KI på norske og europeiske persondata uten å bryte med personvernforordningen. I og med at mange KI-systemer er trent på persondata fra andre deler av verden, kan dataene bidra til at modellene som brukes i Norge ikke er godt egnet for norske forhold. Denne utfordringen krever en løsning. NITO antar at EU vil møte utfordringen med passende lovgivning, men Norge må aktivt søke å påvirke at dette skjer forsvarlig.   

 

Måten den kommende KI-forordningen adresserer bruk og innføring av KI i arbeidslivet, synes for NITO å være i konflikt med bestemmelser i arbeidsmiljøloven. Vi ber regjeringen verne om lovens bestemmelser, samt fortsette å fremme arbeidstakeres rettigheter og trepartssamarbeidet både hjemme og i EU.

 

Samtidig ber vi om at norske myndigheter tar en aktiv rolle i å minimere skadevirkninger av KI på personvern og rettsvern. Etter alt å dømme blir KI brukt, eller kommer til å bli brukt, som verktøy for å analysere data som samles inn etter endringer i etterretningsloven, politiloven, politiregisterloven og ekomloven. Bruk av KI-verktøy til disse formål må etter vårt skjønn vurderes opp mot KI-forordningens bestemmelser om ulovlig eller høyrisiko KI-bruk.  

 

Det er avgjørende at lovgivningen ikke får en nedkjølende effekt på ytringsfriheten, som følge av frykt for overvåkning, eller at borgere feilaktig profileres og mistenkeliggjøres. Da KI og personvernbestemmelser henger tett sammen, mener NITO at tilsyn med algoritmer bør tillegges Datatilsynet. I forlengelse av dette mener NITO Datatilsynet bør styrkes og gjøres i stand til å aktivt følge opp personvern der KI behandler persondata. Effektuering av KI-regulering må skje ved aktiv involvering av fagekspertise. Teknologiutviklingen skjer så raskt at lovgiver må levere generelle reguleringsregler, ikke detaljspesifikke regler som antar spesielle teknikker og teknologier. 

 

En annen utfordring for å utvikle og bruke KI i Norge er at altfor få mennesker besitter den nødvendige kompetansen – og dette kompetansegapet kommer bare til å øke. Det har blitt anslått at Norge innen 2030 vil mangle 40 000 IKT-ingeniører. For å tette gapet må vi satse tungt på IKT-utdanning. Denne utdanningen er i dag kraftig underdimensjonert og må gis mer midler, utstyr og studieplasser – ikke de 100 nye som kom i forslaget til statsbudsjett for 2024, men minst 1 700, bare i 2024. Det må også gis gode tilbud for etter- og videreutdanning innen IKT og KI, slik at eksisterende IKT/KI-ingeniører får oppdatert kunnskap om både regulatorisk utvikling som GDPR, og spesielt den nyeste teknologien. 

 

Hvis vi ikke deltar aktivt, går utviklingen uten oss, uten vår påvirkning og uten at vi får nyte godt av den annet enn som passive konsumenter av teknologi bygget på arbeidslivsverdier som ikke nødvendigvis samsvarer med den norske samarbeidsmodellen. Ansvarlig digitalisering, med og uten KI, handler til syvende og sist om menneskerettigheter, ytringsfrihet og personvern. Disse rettighetene må beskyttes når Norge – selvsagt – blir med på det teknologidrevne grønne skiftet. 

Les mer ↓
KS - Kommunesektorens organisasjon

Høringsinnspill fra KS

KS ønsker å delta på høringen fordi representantforslagene har betydning for kommunal sektor. KS har fått i mandat fra alle landets fylkeskommuner og kommuner å bidra til samordning av digitaliseringsarbeidet i kommunal sektor, og representere dem i interessepolitiske spørsmål innen digitalisering. Kunstig intelligens og det teknologien kan gi kommunal sektor er en sentral del av digitaliseringen av kommunal sektor, og offentlig sektor som helhet. KS ønsker å gi sine innspill på representantforslagene, da de vil kunne gi vesentlige utslag for kommunal sektor om de blir vedtatt slik de står nå.

KI vil være viktig for kommunal sektor

Teknologi som kunstig intelligens, sammen med den økende informasjonsmengden som skapes i samfunnet i dag gjennom bruk av digitale verktøy - gir kommunesektoren mange muligheter. Dette vil påvirke alle virksomheter, og kunne ha store konsekvenser for både det norske samfunnet og arbeidslivet. FN sier at 2/3 av bærekraftsmålene kun kan løses gjennom regional og lokal innsats. Kommunal sektor – som den store offentlige tjenesteleverandøren og sentrale aktør i samfunnsutvikling og beredskap – står samtidig overfor betydelige bærekraftsutfordringer. Særlig vil mangel på kompetanse og folk ramme også kommunene.

I kommunal sektor jobbes det aktivt med å ta i bruk kunstig intelligens og annen muliggjørende teknologi for å bidra til innovasjon og nye måter å løse oppgavene på, med potensiale for å ruste oss for de utfordringene vi står overfor. Bruk av KI har potensiale til å forbedre og forenkle kommunale tjenester for å gjøre hverdagen enklere for innbygger og kommuneansatte, og er et av flere verktøy for å utvikle en bærekraftig offentlig forvaltning. KI vil også kunne gi sektoren muligheten til økt og bedre styringsinformasjon og beslutningsstøtte. Samtidig er det en del grunnleggende forutsetninger knyttet til anvendelse av KI som må være på plass for at dette skal kunne skje. Uten å gå i detalj i dette høringsinnspillet handler det blant annet om tilgang til og kvalitet på data, modenhet og utvikling av regelverk og regelverksfortolkning.

Tilsvar på representantforslaget fra SV

Som tilsvar på representantforslaget fra SV mener KS at det ikke er riktig å innføre et moratorium på å ta i bruk nye verktøy innen kunstig intelligens levert av kommersielle aktører. Det vil hindre sektoren i å utforske teknologien og hva den kan bidra med for kommunal sektor. Det bør heller settes søkelys på et digitaliseringsvennlig regelverk og en mer samlet tolkning av de juridiske rammene, som gjør det enklere og mer forutsigbart for kommunesektoren å digitalisere, bl.a. gjennom å ta i bruk KI.

Det er heller ikke veien å gå å innføre en konsesjonsordning, da KS mener at intensjonen i representantforslaget er dekket inn gjennom personvernforordningen og kravene den stiller til ansvarlig bruk og deling av data med tredjeparter. GDPR setter strenge krav til hvordan personopplysninger kan deles mellom virksomheter, og også hvordan data kan brukes til sekundærformål. Videre så vil en konsesjonsendring være en administrativ byrde, som vil fungere som en barriere for utvikling og implementering av ny teknologi. Det forutsetter at det gjøres en vurdering etter en søknad, og det vil senke tiden vesentlig på utprøving og implementering og kan medføre at spesielt offentlig sektor vil henge etter.

Det jobbes med en ny digitaliseringsstrategi, og etter KS sitt skjønn vil det være en fordel at KI ikke behandles for seg, men som del av en helhetlig tilnærming til digitalisering. KI inngår i dag som del av infrastrukturen for teknologiutvikling. En stortingsmelding om hvordan det arbeides med kunstig intelligens på alle nivå i alle sektorer tror KS ikke vil gi den ønskede effekten. Grunnen er at det pågår mye arbeid i offentlig sektor med kunstig intelligens og en stortingsmelding vil være mangelfull ved lansering. Det vil være mer formålstjenlig å styrke arbeidet med å skape felles oversikter som f.eks. kan forvaltes av Digitaliseringsdirektoratet som viser pågående initiativ innen KI, samt etablere andre virkemidler som styrker erfaringsdeling og ansvarlig bruk av KI, og som bidrar til gode rammer for utprøving og utforskning av de muligheter som teknologien gir (som datatilsynets sandkasse for KI).

Utvikling av regelverk og fortolkning vil dessuten ha best mulig basis dersom det arbeides med utprøvinger i parallell med dette slik at man får kunnskap om både barrierer og effekter.

Tilsvar på representantforslaget fra Venstre

Som tilsvar på representantforslaget til Venstre så er det helt nødvendig for kommunal sektor at det settes handling bak forskningssatsingen innen kunstig intelligens. Et planverk er å anse som en naturlig del av arbeidet, men bør ikke være en forsinkende faktor i utførelsen av det som skjer. Det er viktig for kommunal sektor at det settes en god retning for forskningsarbeidet, bl.a. med forskning innen implementering og bruk av KI også i kommunal sektor, slik at veien til å nyttiggjøre seg teknologien blir så riktig og kort som mulig.

KS støtter representantforslaget om flere studieplasser på fagområder som naturlig er en del av KI. STEM-fagene spiller en vesentlig rolle, da det i dag er mangel på fagkompetanse, noe som kommunal sektor merker godt. Videre bør kompetanse innen digitalisering og KI være del av alle grunnutdanninger, for å styrke den helhetlige kompetansen også blant dem som anvender teknologi. I tillegg til flere studieplasser så er det nødvendig med en systematisk kompetanseheving i offentlig sektor som helhet. Det er viktig med en styrking av utdanning og forskning, men en kompetanseheving av de som allerede jobber i offentlig sektor er også nødvendig for å kunne ta i bruk teknologien ansvarlig og nyskapende.

Venstre sitt forslag om å forberede implementering av Den europeiske unions Artificial Intelligence Act støttes. Det er imidlertid viktig at det er en tydelig satsing, som sikrer at innføringen blir en katalysator for ansvarlig bruk fremfor en barriere for arbeidet. Reguleringen må balansere behov næringsliv og offentlig sektor har for å kunne nyttiggjøre seg KI i innovasjons- og omstillingsarbeidet, slik at reguleringer ikke unødvendig hindrer anvendelser til samfunnets beste.  Arbeidet med AI act er ikke ferdigstilt i EU enda, men å forberede for en god implementering som vil bidra til en ansvarlig bruk av teknologien er bra. Det må bli enklere å forstå og etterleve lovverk, både eksisterende og kommende, som treffer digitalisering, (f.eks. GDPR og annet lovverk) slik som for eksempel AI Act

Forslaget om at det igangsettes et arbeid på hvordan relevante sider av det norske regelverket skal tolkes og anvendes i lys av bruk av kunstig intelligens vil kunne bidra positivt inn i arbeidet med kunstig intelligens. Digitalisering, og som del av dette de ulike KI-teknologiene, vil kreve mer av oss i tiden fremover, og en gjennomgang av samspillet mellom lovene vil gjøre det enklere for offentlig sektor.

Et eget algoritmetilsyn vil være for tidlig å starte med nå, da dette trolig kommer som en del av EUs AI act. Dagens ordning hvor Datatilsynet er både tilsyn og ombud, bla med oppgave om å føre kontroll med personvernregelverket og medvirke til at enkeltpersoner ikke blir krenket gjennom bruk av opplysninger som kan knyttes til dem, bør heller styrkes til arbeidet med AI act er ferdigstilt og det har kommet retningslinjer fra arbeidet med AI Act.

Les mer ↓
Senter for langsiktig politikk

Mer målrettet sikkerhetsarbeid for KI

Senter for langsiktig politikk takker for muligheten til å gi innspill til SV og Venstres representantforslag. Den viktigste mangelen i forslagene mener vi er en mer målrettet politikk for å sikre en trygg KI-utvikling.

SV

SV foreslår flere tiltak for å redusere de mest alvorlige risikoene fra KI. Vi er positive til hensikten, men vil foreslå noen endringer:

Innføre moratorium i offentlig sektor. Problemet med risikable KI-modeller er reelt, men hvorvidt de utvikles eller ikke avhenger ikke av om norsk offentlig sektor bruker KI. Forslaget vil derimot svekke offentlig sektor sin kompetanse på KI, samt redusere mulighetene for bedre styring i offentlig sektor og bedre ressursutnyttelse. KI, anvendt rett, vil sikre mer treffsikre og rettferdige beslutninger. Vi mener det er mer hensiktsmessig å sikre god regulering av bruken av KI heller å forby KI som verktøy.

Konsesjonsordning for innsamling, bruk og lagring av både offentlige data og persondata for kommersielle aktører. Intensjonen bak forslaget er god. Vi bør sikre en bedre oversikt over bruk av KI i privat og offentlig sektor. Men en konsesjonsordning er unødig byråkratisk og vil hemme samfunnsnyttig bruk. Et mer egnet forslag er et KI-register (se nedenfor). Vi trenger mer offentlig datadeling, særlig innen helse, der KI kan bringe store gevinster dersom vi gir flere tilgang på de gode helsedata vi har i Norge. Vi trenger en offensiv politikk som kan sikre samfunnsnyttig bruk av data samtidig som personvern løses. En mulighet er å legge til rette for et marked for data, som sikrer enkeltpersoner kontroll over sine data og kompensasjon ved bruk.

Stortingsmelding om kunstig intelligens. Heller enn å kartlegge bruk trenger vi en stortingsmelding som beskriver hvordan vi skal forholde oss til teknologien. Vi trenger en lovproposisjon for å sikre en grunndig jobb med å tilpasse norsk regelverk utfordringene tilknyttet KI. For eksempel: Gjennom objektivt ansvar har vi allerede en mekanisme for å ansvarliggjøre utviklere for ulykker og misbruk, men det må avklares hvilke hendelser vi kan forvente at KI-modeller sikres mot, slik at objektivt ansvar blir lett å håndheve for rettsvesenet. En mer spesifikk ansvarsfordeling for verdikjeden til KI og KYC-krav for tilbydere burde vurderes.

Venstre

Vi stiller oss positive til Venstres forslag, men sikkerhetsperspektivet bør vektlegges ytterligere i form av konkrete tiltak. Om tiltakene:

Plan for forsterkning av forskning. Langsikt støtter styrking av forskning på kunstig intelligens. Imidlertid burde en stor andel av forskningsmidlene eksplisitt dedikeres til forskning på forklarbarhet og trygg kunstig intelligens, ikke bare konsekvenser og anvendelser.

Skalere opp antall studieplasser. Dette er viktig. KI kan med fordel også inkluderes mer i samfunns- og sikkerhetsrettede utdanninger.

Implementering av Artificial Intelligence Act samtidig som den trer i kraft i EU er et godt forslag. Det forutsetter imidlertid et grundig forhåndsarbeid.

Undersøke hvordan relevante sider av det norske regelverket skal tolkes og anvendes i lys av bruk av kunstig intelligens. Dette støtter vi. Se punkt om stortingsmelding.

Etablere et eget algoritmetilsyn. Vi trenger et algoritmetilsyn for å sikre at KI-systemer ikke bryter med norsk lov og folks grunnleggende politiske, sivile og økonomiske rettigheter. Et tilsyn vil gi tillit og kan sikre at algoritmer bidrar til mer treffsikre, rettferdige og transparente beslutninger. Et slikt organ bør inngå i et eksisterende kompetansemiljø. Datatilsynet, gitt at de får et bredere mandat enn de har i dag, kan være et slikt miljø.

Vårt perspektiv

I tillegg til store muligheter til å forbedre samfunnet medfører KI-utviklingen en rekke typer risiko.

Misbruksrisiko er risiko for at ondsinnede aktører bruker KI til å volde skade. Særlig bekymringsverdig er misbruksrisiko innen cybersikkerhet, biovåpen, manipulasjon og overvåkning. KI kan senke terskelen for å gjennomføre avanserte cyberangrep og å utvikle kjemiske eller biologiske våpen, og styrke stater og selskapers evne til å overvåke og manipulere enkeltpersoner og demokratiske prosesser.

Ulykkesrisiko er risiko for ulykker forårsaket av KI-systemer som ikke oppfører seg som ment. Utover vanskeligheten med å få KI til å oppføre seg som vi vil, øker dataavhengigheten, hastigheten, kopimuligheten og autonomien til KI-modeller sannsynligheten og omfanget av KI-ulykker. Bekymringen er at KI skal integreres i risikable systemer der vi ikke har råd til ulykker, som kritisk infrastruktur, autonome våpen og atomvåpensystemer.

Aggregeringsrisiko er en sekkebetegnelse for risiko for samfunnsproblemer forårsaket av utbredt bruk av K i samfunnet. Slike problemer oppstår særlig fra scenarioer der det som lønner seg for hver enkelt aktør ikke lønner seg for samfunnet som helhet. KI kan skape systematisk diskriminering av utsatte grupper, skape enorme økonomiske omstillingsutfordringer, utfordre demokrati og tillit, samt forårsake destabiliserende kappløpsdynamikk mellom stater og selskaper.

Alle de tre risikotypene vil skalere opp i takt med at KI blir kraftigere, særlig i kombinasjon med fortsatt rask utvikling. Utover revisjon av representantforslagene som beskrevet over anbefaler vi at Stortinget ber regjeringen om å:

Oppnevne en NOU som kartlegger sikkerhetsutfordringer tilknyttet KI og hvilke tiltak vi kan ta i bruk for å redusere risikoen.

Etablere en global ambassadør for KI og en avdeling på KI i UDs seksjon for global sikkerhet. Et konkret mål må være å utarbeide en klar posisjon på internasjonalt KI-sikkerhet innen FNs Summit for the Future i 2024.

Systematisere arbeidet med datadeling, særlig for helsedata. Bevissthet rundt risikoer må ikke stoppe oss fra å hente ut gevinster fra KI. Mange anvendelsesområder for KI har lav risiko og stort nyttepotensial. Digitaliseringsnivået i Norge gir oss tilgang på unikt verdifulle datasett, men det hjelper ikke om de er utilgjengelige for forskerne som kan bruke dem.

Etablere et KI-register for risikable systemer og KI-ulykker. Et register for bruk av KI-systemer innenfor sensitive områder som helse, kritisk infrastruktur og finans vil uansett bli et krav fra EU og bør implementeres så fort som mulig. Vi bør også innføre et register for ulykker som kan skyldes KI. Ved alvorlige ulykker bør det være praksis at disse etterforskes av offentlige myndigheter, eksempelvis etter modell fra Havarikommisjonen.

Les mer ↓
IKT-Norge

IKT-Norges høirngsinnsspill Rep forslag Dok. 8:273 S

IKT-Norge mener at riktig bruk av KI kan dramatisk endre norsk helsevesen til det bedre på de fleste områder, og den muligheten kan vi ikke gi fra oss. Men dette krever at vi får trent norske algoritmer på norske data i Norge og ikke bare importerer CE godkjente løsninger fra utlandet. 

Det mest problematiske for å utvikle KI for helsesenvenet basert på norske data er dette:  

Utdrag fra Kap 4.1, pasientjournalloven § 11 annet ledd vil ikke gi selvstendig rettslig grunnlag til å benytte helseopplysninger i andre tilfeller, eksempelvis der en leverandør av informasjonssystemer på eget initiativ ønsker å utvikle et system i den hensikt å selge dette til helse- og omsorgstjenesten. I et slikt tilfelle vil databehandlingen ikke ha rettslig grunnlag i pasientjournalloven § 11 annet ledd.

Dette må vi endre på om vi skal lage egne norske løsninger. Med dette forvitrer vår egen satsing, vår egen kompetanse og ikke minst kontroll på hvordan vi ønsker å bruke KI i vår helsesektor. Regjeringen har pekt ut helsenæringen som en eksportsatsing, da må vi også kunne utvikle de beste løsningene på våre data, slik at de også kan være med å konkurrere på like vilkår, men med norske data som utgangspunkt. Da kan vi vinne nye markeder.

Forslag: 

  • Det må raskt settes ned et utvalg med oppdrag i å endre lovverket slik at norskutviklet KI til kommersiell bruk kan utvikles i Norge på norske data under sikre og etiske forhold. 
  • IKT-Norge oppfordrer myndighetene snart til å opprette et “KI-Råd for helse” der sektoren sitter, inkludert oss som leverer teknologi. Et slikt råd vil raskt og dynamisk levere gode råd slik at vi i Norge raskt kan ta i bruk gode og sikre løsninger som både gir gevinst i helsesektoren og bidra til nødvendig norsk næringsutvikling. Kunstig intelligens (KI) spiller en stadig viktigere rolle innen medisin og helsevesen, og bruk av pasientdata er en kritisk komponent for utviklingen av nye og bedre algoritmer innen dette feltet. Vi ønsker å peke på noen av de viktigste aspektene ved forholdet mellom kunstig intelligens og pasientdata:

Tekstanalyse

Bruk av KI og “store språkmodeller” kan gi helsesektoren store gevinster. Tilgjengelig KI kan forstå, sammenstille og gi livsnødvendig kunnskap på få sekunder i akutte situasjoner. Samme løsning vil gi våre fastleger tilgang til rask og relevant kunnskap om hver enkelt pasient og kunne sammenstille dette opp mot annen relevant informasjon. Dette vil både gi bedre diagnoser og spare våre fastleger tid. Det samme muligheten vil våre sykepleiere få. Men for å få til dette er vi avhengig av validering av disse løsningene på representative data på norsk. Det går ikke med syntetiske data på samme måte. Vi trenger oppdatert norsk helselovgivning for å få dette til.

Datainnsamling og analyse: Kunstig intelligens trenger store mengder data for å lære og forbedre seg selv. I helsevesenet kan pasientdata, inkludert kliniske data, genetiske data, bilder, sensordata og mer, brukes til å trene algoritmer. Disse dataene gir verdifull innsikt i sykdomsmønstre, behandlingsrespons og prognoser. 

Diagnose og prediksjon: KI-algoritmer kan brukes til å hjelpe leger med å stille mer nøyaktige diagnoser og forutsi pasientutfall. For å oppnå høy nøyaktighet, trenger disse algoritmene store datasett som representerer ulike pasientgrupper og sykdommer.

Personlig medisin: Pasientdata er avgjørende for utviklingen av personlig medisin, der behandlinger tilpasses individuelle pasienters behov. Genetiske data, kliniske historier og andre personopplysninger brukes til å utvikle skreddersydde behandlingsregimer.

Overvåking og forebygging: KI-algoritmer kan brukes til å overvåke pasienter kontinuerlig og identifisere tidlige tegn på sykdomsutbrudd eller komplikasjoner. Dette krever tilgang til sanntidsdata og historiske pasientdata.

Forskning og utvikling: Pasientdata bidrar til å akselerere medisinsk forskning ved å tillate forskere å utføre retrospektive studier og identifisere potensielle nye medisiner eller behandlingsmetoder.

Etiske og personvernutfordringer: Bruken av pasientdata i KI-algoritmer reiser viktige etiske spørsmål knyttet til personvern, samtykke og sikkerhet. Det er avgjørende å implementere retningslinjer og sikkerhetstiltak for å beskytte pasientdata, men samtidig ivareta nok data til å lage de beste modellene. 

Datakvalitet og interoperabilitet: For å sikre at KI-algoritmer gir pålitelige resultater, er det nødvendig å ha høykvalitetsdata. Dessuten må helsevesenet arbeide med å forbedre interoperabiliteten mellom ulike systemer for å tillate effektiv deling av data.

Regulering og standarder: Det er behov for tydelige retningslinjer og standarder for bruk av pasientdata i KI-applikasjoner. Dette inkluderer samsvar med lover som General Data Protection Regulation (GDPR), og EUs kommende AI Act, og2 Health Insurance Portability and Accountability Act (HIPAA) i USA.

Samlet sett er tilgang til pasientdata en avgjørende ressurs for å utvikle nye og bedre KI-algoritmer innen medisin og helsevesen. Balansen mellom nytteverdien av slik bruk og beskyttelse av pasienters personvern er en viktig utfordring som må håndteres på en ansvarlig måte.

Les mer ↓
Norwegian Artificial Intelligence Research Consortium

Kunstig intelligens som en offentlig infrastruktur må styrkes snarere enn å stoppes

Kjære Stortingsrepresentanter og deltagere på høringen i dag.

La meg først henvende meg til Representantforslag 232 S.

Representantforslaget til Torgeir Knag Fylkesnes og Marian Hussein nevner at enorme teknologiselskaper flytter makten fra det offentlige til utenlandske selskaper. Det er et godt poeng. Dersom vi ønsker å bidra til at Norge tar en tydelig rolle her må vi styrke arbeidet innenfor kunstig intelligens snarere enn å stoppe. Vi må ha en muliggjøring gjennom økt kapasitet til å koordinere kunstig intelligens i Norge snarere enn et moratorium.

Ja, utviklingen av kunstig intelligens er dyrt – vi kunne sagt det samme om offentlig transport, internett og annet i samfunnet vårt. Fordi kunstig intelligens begynner å bli en form for grunnleggende samfunnsinfrastruktur. Spørsmålet her i Norge er om vi ønsker en sterkere offentlig rolle inn mot denne infrastrukturen. Sies det ikke at språk er makt? I så fall er vi nødt til å ytterligere styrke en nasjonal bygging av denne grunnleggende infrastrukturen. Nasjonalbiblioteket sin AI lab og arbeidet med språk der er et godt eksempel. Både arbeidet med tekst, men også sørge for at vi bygger opp stemme-data som kan brukes for å trene modeller med flere modaliteter som går mellom for eksempel stemme og tekst. 

Kunstig intelligens er mer enn ChatGPT, det handler også om hvordan vi kan styrke helsetjenesten. Bare å se på hvordan Vestre Viken på Bærum Sykehus bruker kunstig intelligens innenfor radiologi for å detektere benbrudd1.

La oss, i stedet for å legge ytterligere begrensninger,  diskutere først hvordan vi styrker kapasiteten og kompetansen i staten blant departementene og direktoratet før vi legger opp nye barrierer.

Med tanke på Stortingsmelding om kunstig intelligens som redegjør hvordan kunstig intelligens arbeides med på alle nivå i alle sektorer kan det være en spennende prosess for å opparbeide seg mer kunnskap. Så vi støtter en redegjørelse for dette. 

Riksrevisjonen har en revisjon på gang for bruk av kunstig intelligens i staten2 klar i 2024 som kan være en svært positiv start for å få bedre oversikt. Vi i NORA har også bidratt til et utkast for en oversikt over kunstig intelligens i offentlig sektor3 hos Digitaliseringsdirektoratet som er tilgjengelig på nett. Det er samtidig viktig å understreke at denne må forvaltes mer aktivt og trenger ressurser dersom den skal tilby verdi.

Vi må sikre en demokratisk og positiv utvikling av kunstig intelligens. Det gjør vi gjennom å styrke arbeidet med kunstig intelligens i offentlig sektor. Vi må heve kompetansen og   utdanne flere her i Norge. Samarbeide tett med våre allierte og få til mer internasjonalt arbeid. Vi må bli en kompetent stat som kan håndtere denne utviklingen. Så hvilke strukturer bygges i departementene og spesielt i det nye Digitaliserings- og forvaltningsdepartementet og andre områder for å sørge for at vi kan bevare vårt sosialdemokrati? Still dere selv det spørsmålet fremover.

Så, med tanke på Representantforslag 273S.

Tusen takk Alfred Jens Bjørlo, Guri Melby, Grunde Almeland og Sveinung Rotevatn for gode tanker.

Med tanke på det første forslagt, så ser vi at Norge handler med den nye KI-milliarden. Vi støtter også forslaget om en plan for forsterkning av forskning på kunstig intelligens og betydningen av bruken av kunstig intelligens i samfunnet som en oppfølging av langtidsplanen. Vi nevner i denne sammenhengen President Biden sin presidentordre på trygg, sikker og tillitsfull utvikling og bruk av kunstig intelligens4 den 30. oktober 2023. Spesielt gjennomslaget for National Artificial Intelligence Research Resource, en ny nasjonal regneressurs for forskningsmiljøene.

Vi støtter oppskalering av studieplasser for utdanningsområder som er viktige for kunstig intelligens.

I forslag nummer tre støtter vi forberedelser på implementering av KI-forordningen.

Dersom det etableres et algoritmetilsyn vil vi understreke viktigheten av å samarbeide med forskningsmiljøene. Vi understreker viktigheten av å se sammenhengen mellom kunstig intelligens som et felt og den nye digitaliseringsstrategien som er under utarbeidelse.

Tusen takk for tiden.

Mvh,

NORA ved Alex Moltzau

Referanser:

1Bærum sykehus er først i Norge med å ta i bruk kunstig intelligens til behandling:
https://www.nrk.no/osloogviken/baerum-sykehus-er-forst-i-norge-med-a-ta-i-bruk-kunstig-intelligens-til-behandling-1.16531977 

2Bruk av kunstig intelligens i staten – kommende rapport 2024 fra Riksrevisjonen:
https://riksrevisjonen.no/kommende-rapporter/bruk-av-kunstig-intelligens-i-staten/

3Oversikt over kunstig intelligens i offentlig sektor:
https://data.norge.no/kunstig-intelligens 

4Presidentordre fra Biden om trygg, sikker og tillitsfull utvikling og bruk av kunstig intelligens:
https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/ 

Les mer ↓
Juristforbundet

Jurister teknologiforståelse er politikernes, næringslivets og innbyggernes beste allierte

Til Dokument 8:273 S (2022-2023)

Den digitale utviklingen er ikke teknologisk utvikling, men en samfunnsutvikling. Som er basert på teknologi. Dette krever, forutsetter og nødvendiggjør rettslig grunnlag, rettslige rammer og rettslig styring. Som alt annet i samfunnsutviklingen. Juristforbundet deler derfor forslagsstillerne fra Venstre sin vurdering av at den eneste måten å møte den nye teknologien på «er med senkede skuldre, en kunnskapsbasert politikk, å være i forkant med tilpassing av regelverket og med mer samarbeid over landegrensene i Europa». Og videre at «lovene må tolkes og anvendes på nytt i møte med ny teknologi» samt at det «mangler kompetanse på kunstig intelligens i alle sektorer, det forskes for lite på det».

Utdanning, forskning og kompetanse

Venstre oppsummerer i sitt representantforslag  i korte trekk og i realiteten det som Stortinget la til grunn i Innst. 472 S (2022-2023) ( Utsynsmeldingen) og ved Innstilling fra næringskomiteen om et representantforslag fra Høyre om datadrevet industri Innst. 238 S (2022-2023).  

Ved behandlingen av Utsynsmeldingen ga et flertall bestående av Arbeiderpartiet, Høyre, Senterpartiet, Fremskrittspartiet, Sosialistisk Venstreparti og Venstre, en marsjordre om satsing på juss og rettsvitenskap. Ved styrket forskningsinnsats, men indirekte også ved at jusutdanningen må tilpasses samfunnets og arbeidslivets faktiske behov. For at fremtidige og nåværende jurister har teknologiforståelse slik at de kan bidra til å nå de politiske målene som settes på de mest sentrale samfunnsområdene. Ved utvikling av regelverk, ved tolkningen av regelverk og ikke minst ved at juristene skal kunne bidra til gode løsninger ved bruk av KI. Dette ved at juristene involveres tidlig og ikke blir «nei-bremser» men bidragsytere i kraft av å ha nok teknologiforståelse. Jurister med teknologiforståelse er politikernes, næringslivets og innbyggernes beste allierte i en rettsstat.    

Ved behandlingen av Innst. 238 S (2022-2023) fattet Stortinget følgende vedtak:  

Stortinget ber regjeringen sørge for at kunnskap om kunstig intelligens og tingenes internett integreres i flere utdanninger. 

Myndighetene har så langt sviktet rettsvitenskapen og innbyggerne 

Juristforbundet registrerer dessverre at myndighetene så langt ikke har fulgt opp noe av dette for rettsvitenskapens del, snarere tvert imot. Når det gjelder anmodningsforslag nr. 2 fra Venstre, viser Juristforbundet til forslagene vi har spilt inn til Utdannings- og forskningskomiteen til det fremlagte forslaget til statsbudsjett for 2024: 

  • At forslaget om kutt i sentre for fremragende utdanning( SFU) reverseres 
  • At Regjeringen i forbindelse med arbeidet med profesjonsmeldingen utreder fremtidig juristbehov og fremlegger det for Stortinget i forkant av fremleggelsen av denne. 
  • For å sikre tilstrekkelig digital kompetanse og evne til å bidra til en rettssikker utvikling og bruk av KI bes Regjeringen i forbindelse med arbeidet med profesjonsmeldingen og kompetansereform, særskilt om å utrede behovet for etter- og videreutdanningsbehovet for norske jurister i statlig og kommunal sektor 
  • Regjeringen bes om å sikre at arbeidet med profesjonsmeldingen og kompetansereform koordineres godt med den kommende digitaliseringsstrategien. I denne må det særskilt drøftes rettsvitenskaplige problemstilinger og utfordringer som forutsetning for en effektiv, trygg og personvernsmessig digitalisering av samfunnet fremover. 

Vi spilte inn disse forslagene fordi myndighetene ikke har en oversikt over juristbehovet i samfunnet og gjennom de siste 20 årene har underfinansiert jusstudiet som i liten grad utdanner studentene til å inneha den teknologiforståelsen som samfunnet trenger. I tillegg er behovet for jurister med teknologiforståelse allerede prekært i store etater som for eksempel NAV. 

Jusstudentene i Juristforbundet har gjennomført undersøkelser av kvaliteten på undervisningen de får, herunder også særskilt på hvilken teknologiforståelse studiet gir. Nærmere 90 % av de som har svart beskriver at dette er nærmest ikke-eksisterende. Det innebærer at det utdannes stadig flere jurister uten teknologiforståelse til arbeidsplasser hvor det per i dag er store udekkede kompetansebehov, eksempelvis i NAV. NAV disponerer 1/3 av statsbudsjettet og skal gjennomdigitaliseres. Det er ikke mulig å gjennomføre uten at både nye jurister som skal jobbe i etaten og allerede ansatte jurister sikres økt teknologiforståelse. Å øke antallet plasser på jusstudiet uten å gjøre noe med underfinansieringen av studiet og samtidig håpe på at studentene uten videre får teknologiforståelse vil være et vedtak uten innhold.  

Når det gjelder forslagets punkt 1 om forskning vises det igjen til flertallsmerknadene fra Utsynsmeldingen hvor Stortinget blant annet uttaler følgende: K o m i t e e n s f l e r t a l l , m e d l e m m e n e f r a A r b e i d e r p a r t i e t , H ø y r e , S e n t e r p a r t i e t , F r e m s k r i t t s p a r t i e t , S o s i a l i s t i s k V e n s t r e p a r t i  o g V e n s t r e , viser til at digitalisering og ny teknologi reiser flere kompliserte juridiske problemstillinger. For at offentlig sektor skal kunne bidra til å utvikle og ta i bruk digitale og teknologiske nyvinninger i sin tjenesteyting, er det viktig å styrke den rettsvitenskapelige forskningen på forvaltnings- og velferdsnivå. 

Juristforbundet foreslår at anmodningsforslag nr. 1 suppleres med: 

  • Stortinget ber Regjeringen om nedsette et eget utvalg som evaluerer og fremlegger en vurdering av omfanget på og fremtidige behov for rettsvitenskaplig forskningsinnsats med spesielt fokus på velferdstjenestene til innbyggerne 

Juristforbundet støtter forslagsstillers punkt 3 om å forberede implementering av Den europeiske unions Artificial Intelligence Act, med mål om at denne kan tre i kraft i Norge samtidig som den trer i kraft i EU. I tillegg punkt 4 om å igangsette et arbeid for å undersøke hvordan relevante sider av det norske regelverket skal tolkes og anvendes i lys av bruk av kunstig intelligens. 

Hva angår forslagets punkt nr. 5 om algoritmetilsynet så viser Juristforbundet til vårt innspill ved behandlingen av Meld. St 9 (2022-2023) Nasjonal kontroll og digital motstandskraft. Det bør etableres et privat-offentlig advisory board med representanter fra næringen for å sikre et godt strategisk samarbeid gjennom kompetansedeling og et felles situasjonsbilde. Dette organet bør ha god juridisk digital kompetanse. Dette kan gi råd til myndighetsorganer og allerede etablerte tilsyn. Vi har i den sammenheng merket oss at FN nylig opprettet en AI Advisory board bestående av representanter fra myndigheter, industri, sivilsamfunn og akademia for å forme en fremtid der AI bidrar til å løse våre største globale utfordringer 

Ad Representantforslag om demokratisk kunstig intelligens, jfr. Dokument 8:232 S (2022-2023) 

Forslag nr. 3 fra SV om at regjeringen bes legge fram en stortingsmelding om kunstig intelligens som redegjør for hvordan det arbeides med kunstig intelligens på alle nivå i alle sektorer støttes av Juristforbundet. Denne må være helhetlig og svare på utfordringene innen alle samfunnsområder som benytter eller vil komme til å benytte KI.  

Forslag nr. 2 om strengere kontroll over innsamling, bruk og lagring av data oppfattes å ha en god intensjon. Samtidig oppfatter Juristforbundet at en konsesjonsordning bør gjelde både private og offentlige aktører og ikke kun kommersielle aktører. En slik konsesjonsordning bør basere seg på at det opprettes offentlige KI-registre for å dokumentere hvordan algoritmer benyttes til å levere tjenester til innbyggerne basert på kunnskap og erfaringer fra sammenliknbare land. Juristforbundet antar at et godt offentlig offentlig/privat partnerskap kan være en styrke for en slik ordning.

Med vennlig hilsen

Sverre Bromander

President Juristforbundet

Benedicte Gram-Knutsen

Visepresident Juristforbundet

André Oktay Dahl

Politisk seniorrådgiver Juristforbundet   

 

Les mer ↓
Tekna - Teknisk-naturvitenskapelig forening

Teknas innspill til Rep.forslag om demokratisk kunstig intelligens

Tekna mener at det er svært positivt at SV og Venstre setter søkelyset mot bruken og reguleringen av kunstig intelligens. Dette er en teknologi vi er svært opptatt av, og som vi mener det er avgjørende å sette gode og kunnskapsbaserte rammer for.

Trepartssamarbeidet

Tekna mener at det er viktig at utviklingen av et nasjonalt rammeverk følger arbeidslivets etablerte spilleregler for endringsprosesser og omstilling.

Vi kan lære av partene i petroleumsnæringen sitt arbeid på digitalisering i bransjen[1]. Partene i felleskap bør samarbeide om å kontinuerlig videreutvikle kompetanse om og forståelse for hvordan digitaliseringens muligheter påvirker risiko. Tekna mener at samarbeid og kunnskapsutveksling mellom partene vil være avgjørende for å få på plass risikobegrensede tiltak når bruken av KI blir stadig mer utbredt i samfunnet og det norske arbeidslivet.

Tekna er også svært opptatt av at digitalisering bør anses organisasjonsutvikling og ikke kun teknologiutvikling.

Tilsyn

I dag har vi en rekke tilsyn som har ansvar for sine respektive sektorer, slik som Petroleumstilsynet, Datatilsynet og Finanstilsynet. Noen av oppgavene som tilsynene gjør i dag kan være sammenfallende med det vi ser for oss at et algoritmetilsyn vil gjøre. Derfor vil Tekna råde partiene til å først øke bevilgningen og ansvarsområdet til disse tilsynene til å også omfavne utvikling og bruk av KI. Etter Teknas syn vil dette være mer hensiktsmessig for å raskt sikre bedre kontroll av teknologien. Vi mener at de nåværende tilsynene vil kunne være i stand til å vurdere en algoritme i sin brukskontekst og bedømme om den er trygg innenfor gjeldende regelverk.

Dersom det viser seg at det er behov for et eget algoritmetilsyn vil Tekna kunne støtte et slikt initiativ. Et algoritmetilsyn må ha som hovedformål å sikre tillit til algoritmene. Det bør ikke kun kan være reaktivt og stikkprøvebasert. Et tilsyn må suppleres av standardkrav som fungerer som rettesnor for de som utvikler og tar i bruk kunstig intelligens. Dette vil kunne innebære nasjonale krav til dokumentasjon av modeller, etterprøvbare metrikker for representasjon (bias), egnethet, rettferdighet, samt risikovurdering. For å sikre tilsynets nytteverdi, er det avgjørende at lover og reguleringer er teknologinøytrale og regulerer formål heller enn navngitt funksjonalitet.

Økt samarbeid med EU

Tekna støtter et mer aktivt samarbeid med EU på regulering av KI. Vi mener at det er avgjørende at Norge allerede nå begynner arbeide med å tilpasse seg A.I Act som vil tre i kraft i 2026. Norske myndigheter må sikre at den europeiske forordningen håndheves, samtidig som de må utvikle nasjonale regler og sørge for at et KI-system er i tråd med gjeldende norsk rett.

Som et digitalisert samfunn vil Norge ha viktige læringspunkter å dele med EU og som i sin tur kan påvirke hvordan de nye regelverkene vil se ut. Som et land med høydigital kompetanse og stor tilgang på kvalitetsdata har vi potensiale til å raskt ta i bruk automatiserte verktøy. Etter Teknas syn følger dette med et ansvar for å dele erfaringer med EU.

Data

Potensialet for bedre tjenester, forskningsmessige gjennombrudd og økonomisk gevinst avhenger av kvaliteten på dataen som systemene har tilgang på. Det finnes nok av eksempler på maskinlæringsmodeller som ikke fungerer som vi ønsker fordi modellene er utviklet og trent på data som ikke representerer verdier vi ønsker oss i samfunnet.

Data representerer uansett kun et utvalg eller en forenklet beskrivelse av virkeligheten. Det samme gjør modeller basert på data.

Data har imidlertid liten verdi hvis de ikke er tilrettelagt og tilgjengeliggjort for videre prosessering:

  • Tilrettelegging dreier seg om å skape mening ut av det digitale datamangfoldet, om å standardisere og kontekstualisere data og vedlikeholde og sikre konsistent kvalitet, i tillegg til å sikre sporbarhet, sikkerhet, personvern og integritet for å skape nødvendig tillit mellom ulike aktører og eiere av data.
  • Digital infrastruktur gjør data tilgjengelige på tvers av geografiske steder, tid, datakilder, dataeiere og brukergrupper.
  • Prosessering og foredling av data sikrer at ny innsikt skapes etter hvert som data blir tilgjengelige, og at andre kan gjøre seg nytte av data og innsikt uavhengig av datakilde.

En vanlig misforståelse om data er at kvantitet slår kvalitet, men svaret er at strukturerte og kontekstualiserte data slår begge. Se for deg at data er som lego i en bøtte. Du vet ikke størrelse, farge, type, mengde eller hvem som eier bitene. Da vet du heller ikke hva du kan bygge eller bruke bitene til. Strukturer du bitene ved å sortere og telle over, så vet du hva du har og hva du kan, eller ikke kan bygge. Du vet også hvilke andre biter (eller data) du vil trenge for å bygge det produktet eller tjenesten du ønsker.

Denne struktureringen av data er tid- og ressurskrevende og de aller færreste velger å strukturere sine data på en standardisert måte. Dette kompliserer datadeling, ikke bare mellom offentlig og private aktører, men også mellom enkeltaktører innen samme bransje eller til og med organisasjon. Fordi data er grunnstenen i mange løsninger, tjenester og ikke minst i kunstig intelligens og maskinlæring, bruk av strukturerte og kontekstualiserte data veldig viktig for å muliggjøre datadeling.

Når data er strukturert og kontekstualisert, kan det bygges og anvendes KI-modeller for å forbedre våre offentlige tjenester eller gi ny innsikt som igjen kan øke verdiskaping i samfunnet.

Regelverk rundt datadeling er avgjørende. Det skal beskytte individets rettigheter og personvern, men også legge til rette for effektiv og sikker deling der det er samfunnsmessige fordeler. Gjennom samarbeid mellom ulike offentlige enheter kan man dele data for å skape en mer helhetlig forståelse og dermed bedre tjenester. I dag ligger det en del barrierer da forskjellige myndighetsorganer sitter på «sin egen» infrastruktur og digital kapasitet.

Åpenhet 

Tekna mener at myndighetene bør offentliggjøre modeller utviklet i og for det offentlige. Dette vil ha tre klare fordeler.

  1. Positivt å utnytte muligheten å dele modeller som kan være egnet for «transfer learning» og «fine-tuning». En slik delingsmodell vil kunne være tidsbesparende da man ikke alltid vil trenge å trene opp modellen fra bunnen av. Rent teknisk betyr dette at man benytter seg av teknikker som utnytter allerede eksisterende kunnskap i en modell og tilpasser modellen til å løse nye oppgaver. På den måten vil andre institusjoner og organisasjoner kunne dra nytte og læring fra de delte modellene. Slik demokratisering av kunstig intelligens kan videre bidra til å fremme innovasjon og redusere kostnaden av utvikling av nye produkt, på tvers av sektorer i Norge.
  2. Åpenhet gjør at vi skaper mer tillit til prosesser der KI-modeller blir brukt. Dette er spesielt viktig i sammenhenger der KI-modeller blir brukt til å fatte beslutninger som har stor påvirkning på enkeltpersoner eller samfunnet som helhet. Innsikt i modellene gir også mulighet for uavhengig vurdering og evaluering, noe som kan bidra til å avdekke eventuelle biaser eller feil i modellene og i tur forbedre produktet eller tjenesten som bruker modellen. Modellene blir som et resultat mer pålitelige.
  3. Et viktig klimatiltak, da trening av algoritmer, er svært energikrevende og belastende for miljøet.

For mer utfyllende svar ber vi partiene se til vårt innspill til Høyres partihøring om kunstig intelligens.[2]

[1] https://www.ptil.no/contentassets/3ce1780585364edb9428c2ba06fc842e/rapport-fra-sikkerhetsforum---digitalisering-hms-og-partssamarbeid   

[2] https://www.tekna.no/globalassets/filer/politikkdokumenter/horingsdokumenter/2023/20230809-teknas-innspill-til-hoyre-om-kunstig-intelligens-pdf.pdf

Les mer ↓
Norsk faglitterær forfatter- og oversetterforening (NFFO)

NFFOs høringsinnspill til Representantforslag 273 S (2022-2023)

Innledning:

Norsk faglitterær forfatter- og oversetterforening (NFFO) er en medlemsforening for rundt 5000 faglitterære forfattere og oversettere. NFFO jobber for et kunnskapssamfunn der alle har tilgang til god faglitteratur.

NFFO er glade for representantforslaget 273 S, og deler representantenes refleksjoner rundt at den nye teknologien kunstig intelligens (KI) må møtes med kunnskapsbasert politikk, og at Norge må være i forkant i forbindelse med tilpasning av regelverket. Det er viktig at myndighetene bidrar til å finne gode løsninger på utfordringene teknologien bringer med seg, og at utviklingen av kunstig intelligens ikke overlates til markedskreftene alene.

NFFO har som oppdrag å trygge faglitterære forfatteres- og oversetteres faglige og økonomiske interesser, og er derfor spesielt opptatt av åndsverkreglenes innvirkning på opphavsretten, og har følgende innspill til komiteen:

NFFO mener:

  1. Det må bygges kompetanse på kunstig intelligens, og det må kartlegges om gjeldende regelverk knyttet til opphavsrett er tilstrekkelige
    NFFO er enig i representantenes beskrivelse av at lovene må tolkes og anvendes på nytt i møte med ny teknologi, og at det kan være behov for utvikling av nye regler, eller utdypning eller presisering av regelverk, og at dette må skje raskt for å følge den teknologiske utviklingen.

    NFFO støtter derfor representantforslaget om at regjeringen bør legge frem en plan for forsterkning av forskning på kunstig intelligens, og at myndighetene må ta ansvar for å se på hvordan norsk regelverk knyttet til opphavsrett skal tolkes og benyttes i lys av kunstig intelligens, og om det er behov for ytterligere tilpasninger.

  2. Opphavsretten må respekteres
    Norske teknologimiljøer ønsker tilgang til norsk litteratur for å trene opp en norsk språkmodell. En god norsk språkmodell vil være av stor samfunnsmessig betydning av mange grunner, ikke minst vil den sikre at Norge selv bevarer kontroll med det norske språk. Samtidig vet vi at teknologien i framtiden vil bli kommersialisert av andre aktører enn de forskningsmiljøene som utvikler den, og som vil ha store inntekter av treningen.

    Valget vi står overfor, er om utenlandske aktører skal få diktere norsk språk- og kulturforståelse i fremtiden, eller om vi i det minste skal forsøke å gjøre dette selv. Utviklingen på dette området går uhyre raskt. Situasjonen er derfor prekær, ikke bare for de miljøene som ønsker å trene opp en norsk språkmodell, men også for opphaverne til litterære verk. Det kan stå om måneder.

    Den enkelte skribent har opphavsrett til sine verk. Det er kun skribenten selv, eller skribentorganisasjonen vedkommende er medlem av, som kan overdra retten til å bruke et åndsverk til å trene kunstig intelligens. Staten må derfor inngå avtaler om slik bruk. Bruk av opphavsrettslig vernede verk for å trene KI-modeller, uten avtale, er per i dag ulovlig.

  3. Bruk av opphavsrettslig materiale til å trene opp språkmodeller må kompenseres
    Trening av en norsk språkmodell med nyere og samtidig litteratur må forutsette en kompensasjon til opphaverne. Det er nå utviklingen og treningen skjer, det er nå våre åndsverk kan mates inn og bidra til å trene en norskutviklet KI.

    Stortinget må derfor øremerke penger over statsbudsjettet til at forsknings- og teknologimiljøer kan forhandle om å inngå avtaler med opphavere om bruk av deres åndsverk til trening av kunstig intelligens og utvikling av en norsk språkmodell. Et naturlig referansepunkt er det statlige bibliotekvederlaget, som gir vederlag til opphavere for publikums bruk av verk i offentlige bibliotek. I 2024 er bibliotekvederlaget budsjettert med 164,2 millioner kroner. I en prøveperiode med tilgang for avgrensede miljøer, synes det naturlig å ligge noe under dette. Vårt forslag er 100 millioner kroner.

    Vi foreslår at midlene inngår i en tilskuddsordning øremerket utvikling av en norsk språkmodell, og at utdannings- og forskningsinstitusjonene kan søke denne. En alternativ modell er at midlene tildeles en samlet representant for de utdannings- og forskningsinstitusjoner som driver relevante prosjekter. Opphaverorganisasjonene må uansett være representert i tildelingsprosessene. Det bør også vurderes hvilken rolle Nasjonalbiblioteket skal ha i utviklingen.

    Avtalene om bruk av åndsverk inngås mellom opphaverorganisasjonene, og institusjonene som nevnt over, enten direkte med den enkelte forening eller gjennom den kollektive rettighetsorganisasjonen Kopinor, som har mandat til å forhandle og inngå avtaler på vegne av opphaverorganisasjonene. Hjemmelen for en slik løsning er avtalelisensordningen i åndsverkloven § 63, som tillater en representativ forening å inngå avtale på vegne av hele opphavergruppen, uavhengig av medlemskap. Avtalene må være tydelig avgrenset til hvilket materiale som omfattes og hvordan dette kan brukes, og bør forutsette at enkeltopphavere har muligheten til å trekke sine verk fra treningen.
Les mer ↓