Hva som faktisk brukes i domstolene i dag, hva EU-regelverket og norske føringer krever, og hvor støtteverktøy kan gi gevinst uten å gripe inn i dømmende myndighet.
Norges domstoler har innført Microsoft 365 Copilot Chat som et internt støtteverktøy. Innføringen skjedde trinnvis fra høsten 2024 og ble rullet ut til alle ansatte i desember 2024. Bruken er eksplisitt rammet inn som generativ tekststøtte i kontorverktøy: sammenfatning av dokumenter, språkbearbeiding, oversettelse og strukturering av notater. Domstoladministrasjonen har dokumentert erfaringer, styringssignaler og begrensninger, og publisert en åpen beskrivelse av personvernkonsekvenser, overføringer og mottakere. Dette markerer et nøkternt startpunkt: KI som intern skrive- og lesehjelp, ikke som avgjørelsesstøtte for bevis- eller rettsanvendelse.
Høyesterett har samtidig tydeliggjort forventningene til advokater. Etter at Høyesterett i april 2025 mottok et prosesskriv med oppdiktede kilder generert av KI, er advokatveiledningen oppdatert med eget punkt om bruk av kunstig intelligens. Kvalitetssikring av KI-utskrifter og kildekontroll er uttrykkelig pålagt; verktøy kan brukes, men ansvaret for innholdet ligger hos prosessfullmektigen. Det samme gjelder for påberopte rettskilder og faktum. Hendelsen har blitt omtalt i juridisk presse og teknologipresse, men den rettslige kilden er Høyesteretts veiledning.
EU-forordningen om kunstig intelligens (AI Act) setter rammene for offentlig sektor og for leverandører av KI-systemer brukt i domstolene. Forordningen trådte i kraft 1. august 2024, med trinnvis ikrafttredelse: forbudene mot uakseptable risiko-systemer og grunnleggende AI-kompetansekrav gjelder fra 2. februar 2025; reglene for generelle modeller (GPAI) og styringsregimet gjelder fra 2. august 2025; øvrige plikter blir fullt ut gjeldende frem mot 2026–2027, avhengig av kategori. Rammeverket er teknologinøytralt, men i domstolskontekst betyr det at systemer som påvirker rettigheter og rettssikkerhet, i praksis må behandles som høyrisiko med særskilte krav til datasett, transparens, styring, risikostyring og menneskelig kontroll. Norske myndigheter og kunnskapsmiljøer har i 2025 publisert oppdaterte oversikter og tolkninger av disse milepælene.
Europarådets CEPEJ-charter fra 2018 er fortsatt rettesnor for domstoler i Europa. Det angir fem etiske hovedprinsipper: grunnleggende rettigheter, ikke-diskriminering, kvalitet og sikkerhet, åpenhet/upartiskhet, og «under brukerens kontroll». Charteret forutsetter eksterne revisjoner og sertifisering for KI-produkter i justissektoren; CEPEJ utreder pr. 2025 en sertifiseringsordning. For norske domstoler gir charteret et normativt gulv som supplerer AI-forordningen: selv ved støtteverktøy må datakvalitet, revisjonsmulighet og forklarbarhet vurderes.
Personvern- og informasjonssikkerhetsbildet er todelt. For det første gjelder generelle personvernregler ved generativ KI, herunder krav til behandlingsgrunnlag, formålsbegrensning og dataminimering. Datatilsynet har publisert målinger og veiledning som viser forventninger til risikovurderinger, DPIA og organisatoriske tiltak når virksomheter tar i bruk generativ KI. For det andre gjelder skytjenestesikkerhet og tredjelandsoverføringer ved bruk av leverandører som Microsoft. Domstolenes åpne redegjørelse om Copilot presiserer at personopplysninger behandles innenfor Microsofts tjenestegrense, men at leverandøren er amerikansk og at det innebærer overføringsmekanismer som må håndteres etter EUs regelverk. Microsofts egne produktbeskrivelser forklarer tjenestegrensen, kryptering og at Azure OpenAI benyttes innenfor Microsoft 365-grensen. Disse forholdene forutsetter særskilt intern tilgangsstyring, rettighetsstyring i M365 og jevnlige kontroller for å motvirke «over-permissioning».
Sikkerhetsmyndighetenes trusselvurderinger styrker behovet for tilbakeholden og kontrollert bruk. NSMs «Risiko 2025» fremhever et skjerpet trusselbilde, der statlige aktører, innsidetrusler og sammensatte påvirkningsoperasjoner inngår. Kripos’ rapport om cyberkriminalitet for 2025 dokumenterer tiltagende bruk av deepfakes og KI-generert innhold i kriminalitet. I justissektoren har dette to implikasjoner: bevisbildet blir mer krevende å etterprøve, og domstolenes egne produktivitetsverktøy må beskyttes mot datalekkasjer og tilganger som muliggjør misbruk. Dette taler for strenge prosedyrer for kjede-av-bevis, kildekontroll og metadatahåndtering, i tillegg til opplæringstiltak mot sosial manipulering.
I domstolenes kjerneprosesser er grensegangen klarere i 2025 enn for to år siden. KI er ikke besluttende instans. Den brukes ikke til å avgjøre saksanvendelse, bevisvekt eller subsumsjon. Den brukes heller ikke til å foreslå domsutfall. Den plasseres som støtte i dokumentforståelse og språklig presentasjon, og i noen miljøer som hjelp til å orientere seg i rettskilder som allerede foreligger i virksomhetens egne systemer. Både Domstoladministrasjonen og Oslo tingretts åpne omtaler underbygger dette anvendelsesområdet. Det går også igjen at organisasjonen arbeider videre med strategi, policy og retningslinjer for å sikre åpenhet om hva KI brukes til – og hva den ikke brukes til.
Et særspørsmål i Norge er tilgangen til rettsdata. Til forskjell fra enkelte common law-jurisdiksjoner ligger en stor del av norske avgjørelser i systemer med betaling eller avtalebaserte vilkår. Debatten i 2025 om modelltrening og bruk av rettskilder i KI-verktøy viser at Lovdatas vilkår begrenser gjenbruk til KI-formål, og at personvernmyndighetene har advart mot ukontrollert utnyttelse av dommer til trening. For domstolenes interne støttebruk er dette mindre avgjørende, men for økosystemet rundt juridiske KI-verktøy påvirker det kvalitet, dekning og transparens. For domstolenes saksbehandling taler det for et fokus på verktøy som arbeider mot egne, autoritative kilder, ikke uinnsynlige tredjeparts datasett.
Prosessuelle og etiske problemstillinger faller i fire kategorier. Først kommer feilkilder ved generativ språkmodellering: hallusinasjoner, konfidensblanding og uverifiserte referanser. Høyesteretts praksis etter hendelsen i april 2025 gjør det klart at domstolen forventer kildetro anvendelse og at advokater ikke kan skjule seg bak verktøy. Dernest gjelder ikke-diskriminering og skjevheter i datasett. CEPEJ-prinsippene og AI-forordningen krever dokumentert risikostyring, måling og tiltak mot diskriminerende utfall. Tredje kategori er personvern og konfidensialitet, særlig der verktøy potensielt kan trekke inn dokumenter på tvers av teamsider, eposter og fildeling. Her er intern tilgangsstyring, «least privilege» og løpende tilgangsrevisjon minstekrav. Fjerde kategori er bevis og etterprøvbarhet: KI-genererte transkripsjoner, oversettelser eller oppsummeringer må kunne reproduseres, forklares og kontrolleres mot originalmaterialet, ellers kan tilliten til saksforberedelsen svekkes.
Fordeler er likevel tydelige når avgrensingene respekteres. For domstolarbeid som innebærer store dokumentmengder, kan semantisk støtte gi raskere orientering og mer konsistente disposisjoner. Erfaringene fra Domstoladministrasjonen og Oslo tingrett tyder på gevinster i språkbearbeiding, strukturering, oversettelse og dokumentsammendrag. I tillegg kan støtte i presentasjon og protokollskriving frigjøre tid til materiell vurdering. Viktig er likevel at dette gjøres i miljøer som er innelukket, loggført og med sporbar tilgang til originale kilder.
Hvor bør verktøyene brukes i 2025? Internt i domstolene er bruksområdet sikrest i «ikke-avgjørende» ledd: lesestøtte, språklig klargjøring, oversettelse, generering av nøytrale sammendrag som alltid kontrolleres mot original. I administrasjon kan KI-støtte bidra til rutineoppgaver i HR og økonomi når data er avgrenset, men domstolene må da sikre at ingen saksopplysninger krysskobles. I rettsmøter kan tale-til-tekst vurderes for uoffisielle notater og utkast, men ikke som eneste grunnlag for rettsbok eller domspremisser uten kontroll med godkjent transkripsjon. For bevisvurdering, rettsanvendelse og premissformulering bør menneskelig bearbeiding og kildehenvisning være enerådende. Slik avgrensning er i tråd med CEPEJ-prinsippene om «under brukerens kontroll» og med plikten til å sikre kvalitet og ikke-diskriminering.
Hvor bør verktøyene ikke brukes? Ikke til å utlede sannsynlighet for skyld, straffutmåling eller å foreslå domsresultat. Ikke til å sammenfatte vitneforklaringer til bruk direkte som bevisvurdering uten manuell gjennomgang. Ikke til å hente inn åpen data fra åpne KI-tjenester som kan lagre eller gjenbruke prosessmateriale. Ikke til å utforme standardiserte «boilerplate»-premisser som kan reprodusere skjulte skjevheter eller feil rettssetninger. Ikke som mellomledd for deling av dokumenter med parter eller presse; her gjelder etablerte kanaler og saksportaler. Disse negative avgrensningene følger av både AI-forordningens risikotilnærming og domstolenes eget behov for legitimitet og etterprøvbarhet.
Sikkerhetsutfordringer i praksis dreier seg ofte om tilgangsstyring, datastrømmer og leverandørbinding. Erfaring viser at generative verktøy kan gjøre «skyggetilgang» mer synlig, fordi modellen foreslår innhold den finner i organisasjonens graf. Dersom rettighetsarv i SharePoint og Teams ikke er korrekt, kan KI-assistenten overflate innhold til brukere som strengt tatt ikke skulle hatt det. Flere fagmiljøer beskriver dette som «over-permissioning»-risikoen ved Copilot, som kontrolleres med adgangsrevisjoner, «sensitivity labels», DLP og strengere delingsregler. I tillegg kommer leverandørlåsing: når KI-funksjonen følger plattformen, kan det være vanskelig å velge bort enkelte databehandlingsmåter. Domstolenes egne vurderinger og eksterne DPIA-maler fra offentlig sektor belyser disse forholdene.
Bevismessig håndtering av KI-generert eller KI-manipulert innhold er en annen akse. Politiet og fagdirektorater rapporterer om økt forekomst av deepfakes og generert innhold. For domstolene betyr det at metodene for kildekontroll, autentisering og kjede-av-bevis må oppdateres. Tekniske verifikasjoner, hash-verdier, kontekstdata og ekspertuttalelser får økt betydning. I tillegg bør retten være eksplisitt i saksforberedelsen om hvordan parter skal dokumentere opprinnelse og behandlingstrinn for multimediale bevis. Dette er ikke nytt i prinsipp, men omfanget og kvaliteten på manipulasjon gjør oppdaterte retningslinjer praktisk påkrevd.
Forvaltnings- og styringsmessig er det tre nøkkelpunkter per oktober 2025. For det første: åpenhet. Domstolene har etablert åpne nettsider som beskriver bruken av KI, mottakere og overføringer. For det andre: styringsdokumenter. Styresaker, erfaringsoverføringer og planer omtales i offentlige saksframlegg. For det tredje: kompetanse. Offentlige veiledere om bruk av KI-assistenter i arbeidslivet understreker behovet for ledelsesforankring, opplæring og anskaffelseskompetanse. Samlet gir dette et styringsrammeverk som er i bevegelse, men som peker i retning av forsvarlig, begrenset og kontrollerbar bruk.
En fremtidsrettet utfordring er datagrunnlagets lukkethet. Forsknings- og presseomtaler i 2025 peker på at tilgang til rettsavgjørelser og metadata påvirker kvaliteten på juridiske KI-verktøy. Når rettskilder holdes bak betaling eller vilkår som forbyr KI-bruk, begrenses innovasjon, men personvern og rettssikkerhet kan til gjengjeld ivaretas bedre. Balansen fremover blir å sikre anonyme, strukturerte og revisjonsvennlige datasett til forskning og verktøyutvikling, uten å åpne for ukontrollert gjenbruk av identifiserbare domsdokumenter. AI-forordningens krav til datasettkvalitet, dokumentasjon og overvåkning trekker i samme retning: hvis høy-risiko-verktøy noen gang skulle vurderes i rettspleien, vil datastyring og audit-trail være hovedkostnaden.
Erfaringene fra 2024–2025 tilsier derfor en pragmatisk linje. Støtteverktøy i tekst og språk kan gi påviselige gevinster der de er isolert fra beslutningene og underlagt streng tilgangsstyring. Advokatene må fortsatt føre sakene, kildekontrollere og vurdere relevans og vekt. Dommerne må formulere premissene og subsumsjonen, og kunne forklare bevisvurderingen uten henvisning til «svart boks». Samtidig bør domstolene planlegge for håndtering av KI-genererte bevis og for dokumentasjon av egne prosesser når generativ støtte har vært brukt i saksforberedelsen. Det er ikke for å mistenkeliggjøre normal kontorstøtte, men for å sikre at det alltid finnes sporbarhet tilbake til originalkildene og menneskelig kontroll i alle ledd.
Kilder:
– Norges domstoler (Domstoladministrasjonen): «Status og erfaringer etter innføring av M365 Copilot Chat», styresak 23. april 2025; «Kunstig intelligens i Norges domstoler»
– Oslo tingrett: «Digital domstol» i årsmelding 2024
– Høyesterett: Advokatveiledningen (april 2025)
– EU: AI Act – ikrafttredelsestidspunkter og milepæler (EU-kommisjonen/Parlamentet).
– Europarådet (CEPEJ): European Ethical Charter on the use of AI in judicial systems; CEPEJ-arbeid om sertifisering.
– Datatilsynet: Personvernundersøkelsen 2024 (KI-kapittel); «Copilot med personvernbriller på» (NTNU-pilot); tematikk og veiledning om generativ KI i offentlig sektor (sammen med Digdir).
– Microsoft (produktdokumentasjon, for forståelse av tjenestegrense og sikkerhet): «Data, Privacy and Security for Microsoft 365 Copilot».
– Nasjonal sikkerhetsmyndighet: «Risiko 2025» og veiledningsmateriale om sikkerhetsstyring.
– Kripos/Politiet: «Cyberkriminalitet 2025»
– Regjeringen/Digitaliserings- og forvaltningsdepartementet: «Kunnskapsgrunnlag om generativ KI i statlige virksomheter» (2025) og veileder for KI-assistenter i arbeidslivet (2025).
– Relevante oversikter om rettsdata og KI-tilgang i Norge