Bruk av KI i norske domstoler per oktober 2025: status, rettslige rammer, risiko og bruksgrenser

Bruk av ai i norske domstoler, bruk av ki i norske domstoler

Hva som faktisk brukes i domstolene i dag, hva EU-regelverket og norske føringer krever, og hvor støtteverktøy kan gi gevinst uten å gripe inn i dømmende myndighet.

Norges domstoler har innført Microsoft 365 Copilot Chat som et internt støtteverktøy. Innføringen skjedde trinnvis fra høsten 2024 og ble rullet ut til alle ansatte i desember 2024. Bruken er eksplisitt rammet inn som generativ tekststøtte i kontorverktøy: sammenfatning av dokumenter, språkbearbeiding, oversettelse og strukturering av notater. Domstoladministrasjonen har dokumentert erfaringer, styringssignaler og begrensninger, og publisert en åpen beskrivelse av personvernkonsekvenser, overføringer og mottakere. Dette markerer et nøkternt startpunkt: KI som intern skrive- og lesehjelp, ikke som avgjørelsesstøtte for bevis- eller rettsanvendelse.

Høyesterett har samtidig tydeliggjort forventningene til advokater. Etter at Høyesterett i april 2025 mottok et prosesskriv med oppdiktede kilder generert av KI, er advokatveiledningen oppdatert med eget punkt om bruk av kunstig intelligens. Kvalitetssikring av KI-utskrifter og kildekontroll er uttrykkelig pålagt; verktøy kan brukes, men ansvaret for innholdet ligger hos prosessfullmektigen. Det samme gjelder for påberopte rettskilder og faktum. Hendelsen har blitt omtalt i juridisk presse og teknologipresse, men den rettslige kilden er Høyesteretts veiledning.

EU-forordningen om kunstig intelligens (AI Act) setter rammene for offentlig sektor og for leverandører av KI-systemer brukt i domstolene. Forordningen trådte i kraft 1. august 2024, med trinnvis ikrafttredelse: forbudene mot uakseptable risiko-systemer og grunnleggende AI-kompetansekrav gjelder fra 2. februar 2025; reglene for generelle modeller (GPAI) og styringsregimet gjelder fra 2. august 2025; øvrige plikter blir fullt ut gjeldende frem mot 2026–2027, avhengig av kategori. Rammeverket er teknologinøytralt, men i domstolskontekst betyr det at systemer som påvirker rettigheter og rettssikkerhet, i praksis må behandles som høyrisiko med særskilte krav til datasett, transparens, styring, risikostyring og menneskelig kontroll. Norske myndigheter og kunnskapsmiljøer har i 2025 publisert oppdaterte oversikter og tolkninger av disse milepælene.

Europarådets CEPEJ-charter fra 2018 er fortsatt rettesnor for domstoler i Europa. Det angir fem etiske hovedprinsipper: grunnleggende rettigheter, ikke-diskriminering, kvalitet og sikkerhet, åpenhet/upartiskhet, og «under brukerens kontroll». Charteret forutsetter eksterne revisjoner og sertifisering for KI-produkter i justissektoren; CEPEJ utreder pr. 2025 en sertifiseringsordning. For norske domstoler gir charteret et normativt gulv som supplerer AI-forordningen: selv ved støtteverktøy må datakvalitet, revisjonsmulighet og forklarbarhet vurderes.

Personvern- og informasjonssikkerhetsbildet er todelt. For det første gjelder generelle personvernregler ved generativ KI, herunder krav til behandlingsgrunnlag, formålsbegrensning og dataminimering. Datatilsynet har publisert målinger og veiledning som viser forventninger til risikovurderinger, DPIA og organisatoriske tiltak når virksomheter tar i bruk generativ KI. For det andre gjelder skytjenestesikkerhet og tredjelands­overføringer ved bruk av leverandører som Microsoft. Domstolenes åpne redegjørelse om Copilot presiserer at personopplysninger behandles innenfor Microsofts tjenestegrense, men at leverandøren er amerikansk og at det innebærer overføringsmekanismer som må håndteres etter EUs regelverk. Microsofts egne produktbeskrivelser forklarer tjenestegrensen, kryptering og at Azure OpenAI benyttes innenfor Microsoft 365-grensen. Disse forholdene forutsetter særskilt intern tilgangsstyring, rettighetsstyring i M365 og jevnlige kontroller for å motvirke «over-permissioning».

Sikkerhetsmyndighetenes trusselvurderinger styrker behovet for tilbakeholden og kontrollert bruk. NSMs «Risiko 2025» fremhever et skjerpet trusselbilde, der statlige aktører, innsidetrusler og sammensatte påvirkningsoperasjoner inngår. Kripos’ rapport om cyberkriminalitet for 2025 dokumenterer tiltagende bruk av deepfakes og KI-generert innhold i kriminalitet. I justissektoren har dette to implikasjoner: bevisbildet blir mer krevende å etterprøve, og domstolenes egne produktivitetsverktøy må beskyttes mot datalekkasjer og tilganger som muliggjør misbruk. Dette taler for strenge prosedyrer for kjede-av-bevis, kildekontroll og metadatahåndtering, i tillegg til opplæringstiltak mot sosial manipulering.

I domstolenes kjerneprosesser er grensegangen klarere i 2025 enn for to år siden. KI er ikke besluttende instans. Den brukes ikke til å avgjøre saksanvendelse, bevisvekt eller subsumsjon. Den brukes heller ikke til å foreslå domsutfall. Den plasseres som støtte i dokumentforståelse og språklig presentasjon, og i noen miljøer som hjelp til å orientere seg i rettskilder som allerede foreligger i virksomhetens egne systemer. Både Domstoladministrasjonen og Oslo tingretts åpne omtaler underbygger dette anvendelsesområdet. Det går også igjen at organisasjonen arbeider videre med strategi, policy og retningslinjer for å sikre åpenhet om hva KI brukes til – og hva den ikke brukes til.

Et særspørsmål i Norge er tilgangen til rettsdata. Til forskjell fra enkelte common law-jurisdiksjoner ligger en stor del av norske avgjørelser i systemer med betaling eller avtalebaserte vilkår. Debatten i 2025 om modelltrening og bruk av rettskilder i KI-verktøy viser at Lovdatas vilkår begrenser gjenbruk til KI-formål, og at personvernmyndighetene har advart mot ukontrollert utnyttelse av dommer til trening. For domstolenes interne støttebruk er dette mindre avgjørende, men for økosystemet rundt juridiske KI-verktøy påvirker det kvalitet, dekning og transparens. For domstolenes saksbehandling taler det for et fokus på verktøy som arbeider mot egne, autoritative kilder, ikke uinnsynlige tredjeparts datasett.

Prosessuelle og etiske problemstillinger faller i fire kategorier. Først kommer feilkilder ved generativ språkmodellering: hallusinasjoner, konfidensblanding og uverifiserte referanser. Høyesteretts praksis etter hendelsen i april 2025 gjør det klart at domstolen forventer kildetro anvendelse og at advokater ikke kan skjule seg bak verktøy. Dernest gjelder ikke-diskriminering og skjevheter i datasett. CEPEJ-prinsippene og AI-forordningen krever dokumentert risikostyring, måling og tiltak mot diskriminerende utfall. Tredje kategori er personvern og konfidensialitet, særlig der verktøy potensielt kan trekke inn dokumenter på tvers av teamsider, eposter og fildeling. Her er intern tilgangsstyring, «least privilege» og løpende tilgangsrevisjon minstekrav. Fjerde kategori er bevis og etterprøvbarhet: KI-genererte transkripsjoner, oversettelser eller oppsummeringer må kunne reproduseres, forklares og kontrolleres mot originalmaterialet, ellers kan tilliten til saksforberedelsen svekkes.

Fordeler er likevel tydelige når avgrensingene respekteres. For domstolarbeid som innebærer store dokumentmengder, kan semantisk støtte gi raskere orientering og mer konsistente disposisjoner. Erfaringene fra Domstoladministrasjonen og Oslo tingrett tyder på gevinster i språkbearbeiding, strukturering, oversettelse og dokument­sammendrag. I tillegg kan støtte i presentasjon og protokollskriving frigjøre tid til materiell vurdering. Viktig er likevel at dette gjøres i miljøer som er innelukket, loggført og med sporbar tilgang til originale kilder.

Hvor bør verktøyene brukes i 2025? Internt i domstolene er bruksområdet sikrest i «ikke-avgjørende» ledd: lesestøtte, språklig klargjøring, oversettelse, generering av nøytrale sammendrag som alltid kontrolleres mot original. I administrasjon kan KI-støtte bidra til rutineoppgaver i HR og økonomi når data er avgrenset, men domstolene må da sikre at ingen saksopplysninger krysskobles. I rettsmøter kan tale-til-tekst vurderes for uoffisielle notater og utkast, men ikke som eneste grunnlag for rettsbok eller domspremisser uten kontroll med godkjent transkripsjon. For bevisvurdering, rettsanvendelse og premissformulering bør menneskelig bearbeiding og kildehenvisning være enerådende. Slik avgrensning er i tråd med CEPEJ-prinsippene om «under brukerens kontroll» og med plikten til å sikre kvalitet og ikke-diskriminering.

Hvor bør verktøyene ikke brukes? Ikke til å utlede sannsynlighet for skyld, straffutmåling eller å foreslå domsresultat. Ikke til å sammenfatte vitneforklaringer til bruk direkte som bevisvurdering uten manuell gjennomgang. Ikke til å hente inn åpen data fra åpne KI-tjenester som kan lagre eller gjenbruke prosessmateriale. Ikke til å utforme standardiserte «boilerplate»-premisser som kan reprodusere skjulte skjevheter eller feil rettssetninger. Ikke som mellomledd for deling av dokumenter med parter eller presse; her gjelder etablerte kanaler og saksportaler. Disse negative avgrensningene følger av både AI-forordningens risikotilnærming og domstolenes eget behov for legitimitet og etterprøvbarhet.

Sikkerhetsutfordringer i praksis dreier seg ofte om tilgangsstyring, datastrømmer og leverandørbinding. Erfaring viser at generative verktøy kan gjøre «skyggetilgang» mer synlig, fordi modellen foreslår innhold den finner i organisasjonens graf. Dersom rettighetsarv i SharePoint og Teams ikke er korrekt, kan KI-assistenten overflate innhold til brukere som strengt tatt ikke skulle hatt det. Flere fagmiljøer beskriver dette som «over-permissioning»-risikoen ved Copilot, som kontrolleres med adgangsrevisjoner, «sensitivity labels», DLP og strengere delingsregler. I tillegg kommer leverandørlåsing: når KI-funksjonen følger plattformen, kan det være vanskelig å velge bort enkelte databehandlingsmåter. Domstolenes egne vurderinger og eksterne DPIA-maler fra offentlig sektor belyser disse forholdene.

Bevismessig håndtering av KI-generert eller KI-manipulert innhold er en annen akse. Politiet og fagdirektorater rapporterer om økt forekomst av deepfakes og generert innhold. For domstolene betyr det at metodene for kildekontroll, autentisering og kjede-av-bevis må oppdateres. Tekniske verifikasjoner, hash-verdier, kontekstdata og ekspertuttalelser får økt betydning. I tillegg bør retten være eksplisitt i saksforberedelsen om hvordan parter skal dokumentere opprinnelse og behandlingstrinn for multimediale bevis. Dette er ikke nytt i prinsipp, men omfanget og kvaliteten på manipulasjon gjør oppdaterte retningslinjer praktisk påkrevd.

Forvaltnings- og styringsmessig er det tre nøkkelpunkter per oktober 2025. For det første: åpenhet. Domstolene har etablert åpne nettsider som beskriver bruken av KI, mottakere og overføringer. For det andre: styringsdokumenter. Styresaker, erfaringsoverføringer og planer omtales i offentlige saksframlegg. For det tredje: kompetanse. Offentlige veiledere om bruk av KI-assistenter i arbeidslivet understreker behovet for ledelsesforankring, opplæring og anskaffelseskompetanse. Samlet gir dette et styringsrammeverk som er i bevegelse, men som peker i retning av forsvarlig, begrenset og kontrollerbar bruk.

En fremtidsrettet utfordring er datagrunnlagets lukkethet. Forsknings- og presseomtaler i 2025 peker på at tilgang til rettsavgjørelser og metadata påvirker kvaliteten på juridiske KI-verktøy. Når rettskilder holdes bak betaling eller vilkår som forbyr KI-bruk, begrenses innovasjon, men personvern og rettssikkerhet kan til gjengjeld ivaretas bedre. Balansen fremover blir å sikre anonyme, strukturerte og revisjonsvennlige datasett til forskning og verktøyutvikling, uten å åpne for ukontrollert gjenbruk av identifiserbare domsdokumenter. AI-forordningens krav til datasettkvalitet, dokumentasjon og overvåkning trekker i samme retning: hvis høy-risiko-verktøy noen gang skulle vurderes i rettspleien, vil datastyring og audit-trail være hovedkostnaden.

Erfaringene fra 2024–2025 tilsier derfor en pragmatisk linje. Støtteverktøy i tekst og språk kan gi påviselige gevinster der de er isolert fra beslutningene og underlagt streng tilgangsstyring. Advokatene må fortsatt føre sakene, kildekontrollere og vurdere relevans og vekt. Dommerne må formulere premissene og subsumsjonen, og kunne forklare bevisvurderingen uten henvisning til «svart boks». Samtidig bør domstolene planlegge for håndtering av KI-genererte bevis og for dokumentasjon av egne prosesser når generativ støtte har vært brukt i saksforberedelsen. Det er ikke for å mistenkeliggjøre normal kontorstøtte, men for å sikre at det alltid finnes sporbarhet tilbake til originalkildene og menneskelig kontroll i alle ledd.

Kilder:

– Norges domstoler (Domstoladministrasjonen): «Status og erfaringer etter innføring av M365 Copilot Chat», styresak 23. april 2025; «Kunstig intelligens i Norges domstoler»
– Oslo tingrett: «Digital domstol» i årsmelding 2024
– Høyesterett: Advokatveiledningen (april 2025)
– EU: AI Act – ikrafttredelsestidspunkter og milepæler (EU-kommisjonen/Parlamentet).
– Europarådet (CEPEJ): European Ethical Charter on the use of AI in judicial systems; CEPEJ-arbeid om sertifisering.
– Datatilsynet: Personvernundersøkelsen 2024 (KI-kapittel); «Copilot med personvernbriller på» (NTNU-pilot); tematikk og veiledning om generativ KI i offentlig sektor (sammen med Digdir).
– Microsoft (produktdokumentasjon, for forståelse av tjenestegrense og sikkerhet): «Data, Privacy and Security for Microsoft 365 Copilot».
– Nasjonal sikkerhetsmyndighet: «Risiko 2025» og veiledningsmateriale om sikkerhetsstyring.
– Kripos/Politiet: «Cyberkriminalitet 2025»
– Regjeringen/Digitaliserings- og forvaltningsdepartementet: «Kunnskapsgrunnlag om generativ KI i statlige virksomheter» (2025) og veileder for KI-assistenter i arbeidslivet (2025).
– Relevante oversikter om rettsdata og KI-tilgang i Norge

Fører kunstig intelligens til flere selvprosederende parter i norske domstoler?

Fører KI til flere selvprosederende i norske domstoler?, hvilke sakstyper får størst økning i selvprosedering?, påvirker rettshjelpsordningen 2025 valget mellom advokat og selvprosedering?, hvordan virker tvisteloven § 11-5 for selvprosederende?, hva tilbyr Aktørportalen for parter uten fullmektig?, hvilke begrensninger setter Høyesteretts KI-veiledning?, hvordan bruker domstolene Copilot internt?, hva krever CEPEJs etiske charter om KI i rettspleien?, hvilke plikter følger av EU AI Act for domstol-KI?, hvordan håndteres deepfakes som bevis i retten?, hvilke personvernrisikoer peker Datatilsynet på?, hvordan forebygge feil deling i M365 med tilgangsstyring?, hvorfor er kildesjekk kritisk ved KI-genererte prosesskriv?, hvilke prosessrisikoer har selvprosederende uten fullmektig?, hvorfor fungerer advokat som «brannmur» i barnesaker?, kan KI støtte forliksforberedelser uten å svekke rettssikkerhet?, gir småkravsprosessen insentiver til selvprosedering?, hvordan påvirker forbrukertvister valget av selvprosedering?, hva er erfaringene fra jordskifterettenes digitale innsending?, hvor går grensen for forsvarlig bruk av KI i domstolene?

Det korte svaret er at det finnes få harde tall som viser trend for selvprosederende parter i norske domstoler. Det lange svaret er mer sammensatt: KI senker inngangsterskler for skriving og informasjonsinnhenting, men erstatter verken partsrepresentasjonens «brannmur»-funksjon, prosessstrategi i sanntid eller domstolenes krav til kildetro og etterprøvbarhet. Samtidige endringer i rettshjelpsordningen kan trekke i motsatt retning og dempe en eventuell KI-drevet økning. Det mest realistiske per oktober 2025 er en moderat vekst i «KI-assisterte» selvprosederende i en del sakstyper, kombinert med vedvarende behov for advokater i barne- og familiesaker, tunge sivile saker og straffesaker.

Status: hva vet vi – og hva vet vi ikke
Offentlige, systematiske tidsserier for andelen selvprosederende parter på tvers av sakstyper er svakt utviklet. Europarådets CEPEJ-rapporter sammenligner europeiske rettssystemer, men inneholder ikke komplette, komparative tidsserier for selvprosederingsgrad i Norge. Det finnes likevel indikatorer: departementet la til grunn ved småkravsreformen at andelen selvprosederende er høyere i småkrav, og at flere småkravsaker i tingretten kunne øke antallet selvprosederende parter. Dette ble forankret i Prop. 133 L (2018–2019), med henvisning til rettens veiledningsplikt etter tvisteloven § 11-5.

I jordskifterettene har Domstoladministrasjonen åpnet en egen Aktørportal for selvprosederende, først lesetilgang og fra juni 2023 fullverdig innsending. Dette peker i retning av gradvis digital tilrettelegging for parter uten fullmektig, men er foreløpig avgrenset til jordskiftesaker. Det finnes rettspraksis som viser at tilgangsregler til portalen ikke alltid kan påklages som enkeltvedtak, noe som igjen illustrerer at utrullingen er stegvis og sektorvis.

På den finansielle siden trer omfattende endringer i rettshjelpsordningen i kraft 15. oktober 2025. Modellen for behovsprøving endres fra separate grenser for inntekt og formue til en samlet betalingsevnevurdering, med barnefradrag. Det kan gi flere kvalifiserte og styrket tilgang til advokatbistand i saker som tidligere har falt utenfor. Justisdepartementets budsjettproposisjon for 2025–2026 omtaler samme omlegging. Disse grepene trekker isolert sett i retning av færre som «må» prosedere selv av rene kostnadshensyn.

KI i domstolene – rammer som påvirker adferd hos parter
Norges domstoler bruker per i dag KI som internt støtteverktøy (Microsoft 365 Copilot) for oppsummering, språkbearbeiding og strukturering. Det er ikke innført KI for avgjørelsesstøtte av rettsanvendelsen. Dette er eksplisitt avgrenset i Domstoladministrasjonens åpne omtaler. Høyesterett har i april 2025 oppdatert sin advokatveiledning med et eget punkt om bruk av KI og understreket plikten til kildesjekk etter at retten mottok et prosesskriv med oppdiktede kilder generert av KI. For selvprosederende parter betyr dette at verktøy kan hjelpe med utkast og språk, men at domstolene forventer dokumentert kildegrunnlag – samme standard som for advokater.

Utenfor Norge rammes bildet inn av EUs KI-forordning (AI Act), som trådte i kraft i 2024 med trinnvis ikrafttredelse i 2025–2027. Forordningen påvirker både leverandørene av generative KI-tjenester og offentlige brukere. Den skjerper krav til risikostyring, transparens og menneskelig kontroll – rammer som begrenser muligheten for at domstolene åpner for «autonom» KI-behandling av saker. Også CEPEJs etiske charter ligger fast: domstols-KI skal ivareta grunnleggende rettigheter, ikke-diskriminering, kvalitet/sikkerhet, åpenhet og kontroll hos brukeren. Disse premissene taler for at KI i domstolskontekst blir støtteverktøy – ikke en erstatning for prosessfullmektig – i overskuelig fremtid.

Drivkrefter som kan øke selvprosedering

  1. Kostnad og tilgjengelighet. Selv med styrket rettshjelpsordning vil mange falle utenfor. Generative verktøy reduserer transaksjonskostnader for å skrive stevning og tilsvar, samt hjelpe til med struktur og språk. Dette kan gjøre flere komfortable med å prøve selv i enklere formues- eller forbrukersaker, særlig der tvistesummen er lav og kost/nytte-regnestykket for fullmektig er ugunstig. Prop. 133 L peker nettopp på småkravsdommens utforming som et område med høyere selvprosederingsgrad.
  2. Digital fasilitering. Aktørportalen for selvprosederende i jordskifterettene reduserer praktiske barrierer for innsending og innsyn. Dersom portalen skaleres til tingrettene og småkrav, kan dette ha en additiv effekt. Brukervilkårene identifiserer selvprosederende som målgruppe i domstolenes digitale samhandling. Slike plattformer samspiller naturlig med KI-støtte for utkast og struktur.
  3. Informasjons- og verktøyøkosystemet. Parter kan bruke KI til å «oversette» lovtekst til enkel norsk, lage disposisjoner, generere spørsmål til vitner og foreslå motargumenter. Selv om kvaliteten varierer, representerer kombinasjonen av åpne lovkilder og generative modeller en lavterskel veileder som ikke fantes for få år siden.
  4. Prosessuell veiledning fra retten. Tvisteloven § 11-5 pålegger domstolen veiledningsplikt, med særlig hensyn til selvprosederende parter. Når KI senker skrivebarrieren, og retten samtidig bærer en veiledningsplikt, kan summen bli at flere våger å gå i retten uten fullmektig.

Motkrefter som demper selvprosedering

  1. «Brannmur»-funksjonen. I barne- og familiesaker søker mange foreldre advokat nettopp for å redusere direktekontakt med motpart, håndtere maktubalanse og ivareta trygghet under rettsmøter. KI-verktøy kan ikke stå fysisk i retten, ta imot pressede prosessuelle beslutninger i sanntid eller absorbere emosjonell belastning. Dette gjelder også i saker med sårbarhetsdimensjon (vold, kontroll, rus). Selv en perfekt språkmodell kan ikke fylle rollen som mellomledd og prosessuell buffer.
  2. Kildekrav og risiko for «hallusinasjon». Høyesteretts hendelse i april 2025 illustrerer at domstolene ikke aksepterer KI-generert materiell uten kildesjekk. Parter som prosederer selv, bærer hele risikoen ved feil kildebruk. Det taler for fortsatt etterspørsel etter advokatbistand når stakes er høy.
  3. Rettslige og tekniske skranker. AI Act og CEPEJ-prinsippene fordrer forklarbarhet og kontroll. Domstolene har selv valgt en forsiktig linje med KI som kontorstøtte, ikke beslutningsmotor. Uten «smarte» saksportaler som guider bevisføring og rettsbruk i dybden, forblir prosessrisikoen relativt uendret for selvprosederende.
  4. Rettshjelpsreformens motvekt. Når flere får dekket advokat, faller en del økonomiske insentiver for å prosedere selv bort. Virkningen vil først vise seg i praksis – men retningen er klar.

Sikkerhet, personvern og bevis – fallgruver for «KI-selvprosederende»
Konfidensialitet: Mange åpne KI-tjenester lagrer og gjenbruker inndata til modellforbedring. For parter som mater inn sensitive saksopplysninger, kan dette medføre ulovlig deling eller brudd på taushetsplikter i tilknyttede profesjoner. Domstolenes egne retningslinjer for KI-bruk er avgrenset til intern Copilot; selvprosederende står på egen risiko dersom de bruker åpne plattformer.

Over-permissioning i skyverktøy: Selv profesjonelle miljøer sliter med tilgangsstyring. KI-assistenter kan «overflate» dokumenter som egentlig ikke skulle vært delt, dersom underliggende rettigheter er feil. Dersom domstolenes motparter eller medhjelpere utveksler dokumenter via feil kanal, kan det oppstå utilsiktede lekkasjer. Offentlige veiledere for skysikkerhet og Copilot understreker behovet for stram tilgangsstyring, DLP og etikettering – tiltak som selvprosederende sjelden har.

Bevis- og kildekontroll: Økningen i deepfakes og KI-generert materiale øker kostnaden ved å føre multimediale bevis. Politiet og sikkerhetsmyndighetene peker på dette som en reell trussel, som domstolene må møte med krav til metadata, kjede-av-bevis og ekspertuttalelser. En selvprosederende part vil ofte mangle både metode og midler til å sikre og dokumentere kjeden.

Prosessledelse: Tvisteloven pålegger retten å veilede, men ikke å være partsrepresentant. Domstolene kan ikke fylle «manglende advokat». Selvprosederende som støtter seg tungt på KI-utskrifter, risikerer å møte veggen når retten etterspør presis rettskildebruk, subsumsjon og bevisføring – og ikke bare velformulerte tekster.

Fordeler ved KI-assistanse – og hvor den faktisk passer
Tekstlig klarhet: KI egner seg til å gjøre faktum mer lesbart, rydde språk og strukturere anførsler. For domstolene er det en fordel at prosesskriv er forståelige; for parten er det en fordel å få «maler» som samsvarer med formkrav. Domstoladministrasjonens innføring av Copilot internt tyder på at gevinster i lesing og skriving er reelle – samme type gevinst vil en selvprosederende kunne hente i egen kant, gitt at kildene er riktige.

Oppsummering og oversettelse: Verktøy kan gi kjappe resymeer av store dokumenter og oversette vedlegg. Dette «løfter» parter som ellers ville gitt opp.

Forhåndsmekling og forliksforberedelse: KI kan hjelpe en part å få oversikt over posisjoner og krav, formulere realistiske forliksforslag og definere prioriteringer. Dette kan redusere konfliktnivå og øke forliksandel før hovedforhandling.

Men begrensningene er tydelige. KI bør ikke brukes til å «spå» utfall, sette bevisvekt eller bygge premisser uten kildebelegg. Den bør heller ikke brukes som eneste kanal for motparts- og domstolskommunikasjon. Og i saker med maktubalanse, sikkerhetsrisiko eller kompleks bevisførsel bør KI bare være supplement – ikke erstatning for prosessfullmektig.

Scenarioanalyse 2026–2030
Scenario A: Moderat økning i «KI-assisterte pro se». Småkrav, forbruker- og enkle kontraktstvister får høyere selvprosederingsgrad. Aktørportalen rulles gradvis ut i flere domstoler med «selvprosederende-spor». Rettshjelpsreformen tar unna en del etterspørsel i barne- og familiesaker; i de sakene er advokat fortsatt normen. Domstolene opprettholder streng kildedisiplin. Utfallet er en liten nettoøkning av selvprosederende i en avgrenset del av porteføljen. Dette harmonerer med departementets tidligere forventning om høyere selvprosedering i småkrav.

Scenario B: Flat utvikling. Rettshjelpsreformen øker advokatdekningen og spiser opp KI-effekten. Domstolenes krav til kilder og bevis gjør at mange som prøver å prosedere selv med KI-støtte, «snur i døren» etter veiledning fra retten. Aktørportalen forblir nisje (jordskifte m.m.). Nettoeffekten blir minimal på samlet nivå, med lokale variasjoner.

Scenario C: Skjev økning og merarbeid for domstolene. KI avler flere selvprosederende i komplekse saker, men uten at kvaliteten følger med. Retten må yte mer veiledning etter § 11-5, og saksbehandlingstid øker i et segment fordi prosesskriv må rettes opp og bevisførsel struktureres i større grad fra rettens side. Denne «negative» effekten er kjent fra andre jurisdiksjoner når digitale verktøy senker terskler uten å øke prosesskvaliteten tilsvarende. Mottiltak blir strengere portalkrav og mer aktiv prosessledelse.

Hva bør domstolene, advokater og parter tenke på nå
Domstolene: Fortsett den nøkterne linjen. Hold KI i støtte-sonen (lese/skriv), ikke nær avgjørelser. Skaler selvprosederende-funksjoner i portaler der det gir dokumentert effekt på kvalitet og effektivitet. Bygg inn «kilde- og vedleggsjekker» i opplastingsløp for å fange opp åpenbare feil. Sørg for tydelig veiledningstekst om bruk av KI i prosesskriv: erklæring om kildesjekk, henvisning til primærkilder og loggføring.

Advokater: Bruk KI til å øke produktivitet, ikke til å slakke på kildedisiplin. Høyesteretts veiledning er klar: du har ansvaret for innholdet, også når KI har «hjulpet». Vurder «hybrid-modeller» for klienter med svak betalingsevne: fastpris for rådgivning, mens klienten utformer utkast med KI som advokaten kvalitetssikrer. Dette kan redusere kost og likevel bevare brannmur-funksjonen i betente saker.

Selvprosederende parter: Bruk KI for språk og struktur; legg ved primærkilder fra Lovdata/forarbeider; unngå å lime inn genererte oppsummeringer uten kilde. Vær varsom med sensitive opplysninger i åpne KI-tjenester. I saker om barn, vold eller høy konflikt: vurder advokat primært, både av hensyn til egen sikkerhet og prosessrisiko.

Barne- og familiesaker som lakmustest
I saker etter barneloven vil advokatens «brannmur» mot motpart og det prosessuelle uforutsette ofte være den mest etterspurte funksjonen. KI adresserer ikke motmakt i rettsmøter, håndterer ikke konfrontasjon eller forhandlingstaktikk og kan ikke improvisere i lys av vitneførsel som tar uventede vendinger. Veiledningsplikten avhjelper noe, men retten er ikke partsrepresentant. Dette tilsier at en KI-drevet bølge av selvprosedering i slike saker er lite sannsynlig. Snarere kan KI gjøre klienter mer informerte og dermed forbedre samarbeidet med fullmektig – uten å fjerne behovet for fullmektigen.

Konklusjon med en normativ vekt
Det er for tidlig å slå fast en sterk oppadgående trend. De mest solide indikatorene peker mot en forsiktig økning i KI-assistert selvprosedering der sakene er enkle og verdiene lave, mens advokatrollen forblir sentral i saker der «brannmur», prosessstrategi og menneskelig tilstedeværelse betyr mest. Skal denne utviklingen være forsvarlig, krever den tre parallelle tiltak: (i) bedre, autoritative kilder og maler i domstolenes kanaler for selvprosederende, (ii) tydelige KI-retningslinjer for parter – ikke bare for advokater – om kildebruk og personvern, og (iii) en rettshjelpsordning som avlaster selvprosedering der risikoen er høy. Det er slik vi får de reelle gevinstene av KI – uten å bytte ut rettssikkerhet med blankt papir og vellydende, men tomme, genererte formuleringer.


Kilder :
– CEPEJ, «Evaluation of judicial systems 2024 (data 2022)»
– Prop. 133 L (2018–2019): småkrav, forventet høyere selvprosederingsgrad, koblet til tvisteloven § 11-5.
– Tvisteloven § 11-5 (Lovdata): rettens veiledningsplikt, særlig hensyn overfor selvprosederende.
– Domstoladministrasjonen: Aktørportalen for selvprosederende (jordskifterett), brukerhåndbok og kunngjøringer om innsending.
– DA, Årsmelding 2023: omtale av elektronisk samhandling med selvprosederende og status for portaler.
– Midtre Hålogaland tingrett omtalt i Rett24 om klagerett på portaltilgang
– Regjeringen.no: Endringer i rettshjelpsordningen trer i kraft 15. oktober 2025; Prop. 1 S (2025–2026)
– Norges Høyesterett: Advokatveiledningen (april 2025), punkt 19 «Bruk av KI-verktøy».
– EU AI Act – ikrafttredelse og rammer for offentlig sektor
– CEPEJ, «European Ethical Charter on the use of AI in judicial systems».