AI i styrerommet: hva forskning og praksis faktisk viser
AI er på vei inn i styrerommet, både som støtte i forberedelser og oppfølging, og som mer aktiv del av styreprosessen. Internasjonal forskning peker på gevinster som bedre forberedelser, tydeligere risikobilde og mer presise vedtak. Samtidig viser undersøkelser at mange styrer mangler kompetanse, tydelige retningslinjer og god kontroll.
I denne artikkelen ser vi på hvordan styrer har tatt i bruk AI i sitt arbeid, hvilke risikoforhold dere bør være særlig oppmerksomme på, og hva dere kan gjøre for å ta i bruk AI på en trygg og effektiv måte.
AI tar plass rundt styrebordet
I 2014 utnevnte det hongkongbaserte selskapet Deep Knowledge Ventures en algoritme til styremedlem, med stemmerett i investeringsbeslutninger. Den gangen ble det sett på som et PR stunt. Algoritmen analyserte data etter parametere satt av mennesker og leverte anbefalinger styret kunne diskutere. Den var nyttig fordi den jobbet raskt, men få trodde virtuelle styremedlemmer ville bli vanlig.
Det er nå over ti år siden Deep Knowledge Ventures begynte å utforske bruk av kunstig intelligens i styrearbeid. Siden den gang har teknologien gjort store fremskritt, særlig etter at OpenAI lanserte ChatGPT høsten 2022. Selv om dette fortsatt ikke er utbredt, finnes det nå flere eksempler på selskaper som tester AI i styrefunksjoner.
Et eksempel på det er Samruk-Kazyna National Wealth Fund, Kasakhstans statlige investeringsfond. I oktober 2025 ble det publisert en artikkel der de opplyste at SKAI, et system bygget rundt en nasjonal språkmodell, har fått stemmerett i styret. Ifølge Samruk Kazyna analyserer SKAI internt og eksternt regelverk, styrevedtak tilbake til 2008 og annen virksomhetsdokumentasjon.
Et annet eksempel er Abu Dhabis største børsnoterte selskap, International Holding Company (IHC). I 2024 lanserte de Aiden Insight, et virtuelt menneske som styreobservatør. Aiden har ikke stemmerett, men deltar i diskusjoner, og bidragene loggføres i den offisielle protokollen. Forventede gevinster er bedre beslutningsstøtte, sterkere dataanalyse og økt innovasjonstakt.
Det finnes altså stadig flere eksempler på at AI er på vei inn i styrerommet, også som deltaker i selve styrearbeidet. Det er likevel et stykke igjen før dette blir vanlig praksis. Samtidig viser forskning at AI i økende grad er et tema som hører hjemme i styrerommet i selskaper som tar styrearbeidet på alvor.
Hva sier forskningen om AI i styrerommet?
Vi ser en tydelig økning i hvordan AI integreres i virksomheters drift og beslutningsprosesser. Spørsmålet er om styrene klarer å holde tritt med utviklingen.
Flere globale undersøkelser belyser bildet. Noen sentrale kilder vi viser til i denne artikkelen er “Can AI Boards Outperform Human Ones?” og "How Pioneering Boards Are Using AI" i Harvard Business Review (HBR), “Global AI Confessions Report: CEO edition” fra Dataiku/Harris, "A Pulse Check on AI in the Boardroom" fra Diligent Institute og Corporate Board Member (CBM) samt “Governance of AI: A critical imperative for today’s boards”, fra Deloitte Insights.
Ifølge Diligent Institute og Corporate Board Member ser styremedlemmene AI som den største strategiske muligheten akkurat nå. Hele 64 prosent har AI som en av sine viktigste prioriteringer, foran temaer som oppkjøp og strategiske partnerskap. Samtidig viser undersøkelsen at bruken i styrearbeidet ofte er praktisk og avgrenset. 50 prosent bruker generativ AI til møteforberedelser, 39 prosent til å oppsummere innsikt og 26 prosent til å sammenligne seg med andre virksomheter. Bare 13 prosent bruker teknologien til mer avanserte oppgaver, som å forutsi utviklingen eller følge risiko i sanntid.
I en global undersøkelse fra Dataiku og Harris blant 500 administrerende direktører svarer 63 prosent at styret deres krever målbare resultater av selskapets AI satsing, og 96 prosent av disse mener at forventningene er rimelige. Videre oppgir 94 prosent at en AI-agent kan gi like gode eller bedre råd enn minst ett styremedlem. Halvparten av CEOene mener at AI kan erstatte tre til fire medlemmer av ledergruppen i arbeidet med strategisk planlegging. Samtidig mener 87 prosent at standardiserte AI-agenter, kjøpt "rett fra hyllen", kan være like effektive som spesialtilpassede og domenetilpassede løsninger. Deltakerne anslo også at om lag 35 prosent av AI-prosjektene deres først og fremst handler om optikk, altså "AI vasking", heller enn reell effekt. I tillegg oppgir 94 prosent at ansatte bruker generativ AI-verktøy uten godkjenning eller tilsyn.
HBR refererer til funn der flertallet oppgir at de av og til bruker AI til private formål, men sjelden eller aldri i profesjonelt styrearbeid. Deloitte Insights viser at 14 prosent har AI på agendaen i hvert styremøte, 25 prosent to ganger i året, og 16 prosent årlig. Nesten halvparten oppgir at AI ennå ikke har vært tema i styret.
De globale undersøkelsene spriker noe, men peker i samme retning. Mange selskaper beveger seg i et tempo som er tilpasset interne endringsprosesser, snarere enn teknologiens utviklingstakt.
Ny forskning på bruk av AI i norske styrerom
Hvordan ligger Norge an? For å finne svar skal Orgbrain og Norges Handelshøyskole, NHH, gjennomføre en nasjonal undersøkelse i første kvartal 2026, for å kartlegge hvordan norske styrer faktisk bruker AI, og hva som hindrer trygg og effektiv bruk. Undersøkelsen skal kartlegge hvor utbredt AI er i styrearbeid, hvilke verktøy som brukes, hva de brukes til, og hvilke gevinster, risikoer og barrierer styremedlemmer opplever.
Datainnsamlingen vil danne grunnlag for en nasjonal database om bruk av AI i styrerom, og blir den første i sitt slag i Norge. Resultatene vil resultere i en forskningsrapport rettet mot styrer, eiere, ledere og andre beslutningstakere, og vil også legge grunnlag for videre akademiske publikasjoner, faglige analyser og utvikling av nye digitale løsninger for styrearbeid.

Fra NHH og Orgbrain sin undersøkelsen "AI i styrerommet".
Slik støtter AI styrearbeidet
Selv om global forskning viser at bruken av AI i styrerom fortsatt er i en tidlig fase, peker utviklingen tydelig i én retning. Teknologien er allerede moden nok til å gi konkret støtte i styrearbeidet, og flere bruksområder er både praktiske og enkle å ta i bruk. Dette reiser spørsmålet om hva AI faktisk kan bidra med i et styre her og nå.
Mange styremedlemmer har testet AI privat, men få bruker det aktivt i styrearbeidet. Det er forståelig, men det er nettopp i forberedelser og oppfølging at teknologien ofte kan gi raskest verdi. Styrearbeid handler i stor grad om dømmekraft, erfaring og skjønn, og det kan kjennes uvant å la en maskin bidra i dette arbeidet. Samtidig er det nettopp her AI kan tilføre stor verdi.
Et styre møtes relativt sjelden og har ofte begrenset tid til å sette seg inn i komplekse saker. Mye av arbeidet består derfor i å tolke og sammenfatte informasjon som allerede er bearbeidet av administrasjonen. Det kan gjøre styret sårbart for informasjonsasymmetri, altså forskjellen i innsikt mellom administrasjonen og styret. Her kan AI fungere som et kompenserende verktøy. Ved å analysere store datamengder raskt kan en språkmodell trekke ut trender, avvik og mønstre som ellers ville krevd timevis av manuell innsats.
Et praktisk eksempel er møteforberedelser. Ved å bruke et sikkert, lukket miljø kan styremedlemmene be AI forklare uklare avsnitt, peke på risiko, teste antakelser og foreslå konkrete oppfølgingsspørsmål. Slik øker forståelsen av sakene og kvaliteten på diskusjonene. AI kan også brukes i selve møtet, for eksempel til å teste alternative scenarier, sammenligne beslutningsforslag eller hente frem relevant bakgrunnsinformasjon på sekunder.
Slike løsninger er ikke perfekte og vil trolig bruke tid på å bli utbredt. Det AI allerede behersker godt, er administrative oppgaver. Forskning peker særlig på gevinster i planlegging, protokollføring, dokumentasjon og analyse. Harvard Business Review beskriver at selskaper eksperimenterer med automatisert protokollutkast, agendaoppsett og møtedokumentasjon. Dette frigjør tid til strategiske diskusjoner og bidrar til høyere kvalitet og bedre etterlevelse i etterarbeidet.
Fungerer AI som styremedlemmer?
Både i praksis og i internasjonale eksempler ser vi at AI gradvis får en rolle i styrearbeid. Noen bruker teknologien som støtte i forberedelser og oppfølging. Andre tester mer aktive oppsett, der AI får en tydelig rolle i selve drøftingen. Det reiser et naturlig spørsmål. Hva skjer når AI settes i en styrelignende situasjon og vurderes etter de samme kravene som mennesker?
En studie gjennomført av Wharton sitt Mack Institute og INSEAD sammenlignet et fleragents AI-styre med seks menneskelige styrer. Alle behandlet samme sak, med samme saksmateriale og samme møtestruktur. Vurderingene ble gjennomført som en blindtest, både av eksperter på styrearbeid og ved hjelp av AI baserte evalueringer, uten at vurdererne visste om transkripsjonen stammet fra et møte med mennesker eller et AI-styre.
Resultatet var tydelig. AI-styret fikk toppscore på fem av kriteriene, henholdsvis beslutningskvalitet, faktabruk, rettferdig og inkluderende prosess, kollektiv læring og styreleders prestasjon. Vurdererne beskrev beslutningene som klare, strukturerte og handlingsrettede, med tydelige forutsetninger og konkrete neste steg. Samtidig kom det nyanser. De AI-baserte evalueringene ga noe lavere score på gjennomførbarhet, og ekspertene vurderte dybden i drøftingen noe lavere enn det de beste menneskelige styrene leverte på sitt beste. Vurdererne pekte også på at de menneskelige styrene i mindre grad benyttet sakspapirene, og oftere gikk glipp av muligheter til å forankre argumentene i data.
De menneskelige styrene scoret lavere på alle kriterier. Flere ble omtalt som mindre fokuserte, svakere forankret i sakspapirene og mer preget av diskusjon enn avklaring. Det ble også pekt på at mange styrer i mindre grad oversatte strategiske valg til konkrete mål, tiltak og risikoreduserende grep.
Mye av forklaringen ligger i selve prosessen. AI-styret holdt strukturen gjennom hele drøftingen, oppsummerte underveis, fordelte ordet mer systematisk og presset samtalen frem mot konklusjoner. Det betyr ikke nødvendigvis at AI alltid tar bedre beslutninger enn mennesker. Det betyr at prosessen kan bli mer konsistent og lettere å etterprøve når den måles mot faste kriterier og når ingen i rommet har personlige hensyn, status eller politikk.
Begrensningene er likevel viktige. AI er svakere på relasjoner, kultur, verdier, etikk og legitimitet. Det er ofte disse faktorene som avgjør om en beslutning får eierskap, tåler motstand og faktisk lar seg gjennomføre. AI kan bidra med struktur og analyse, men den kan ikke ta ansvar, bygge tillit eller bære de menneskelige konsekvensene av valgene som tas.
Konklusjonen blir derfor nyansert og praktisk. AI bør ikke erstatte mennesker i styrerommet. Brukt riktig kan teknologien styrke forberedelser, skjerpe faktagrunnlaget, avdekke blindsoner og gjøre beslutninger mer operative. Studien peker ikke mot et styre uten mennesker, men mot et styre som tar større ansvar for kvaliteten i egen prosess, og som bruker AI som et verktøy for å få mer ut av den tiden styret faktisk har sammen.
Styrets nye beslutningsgrunnlag
AI kan gi styret raskere oversikt ved å sammenstille sentrale datapunkter og løfte frem avvik, trender og tidlige risikosignaler. I løpende oppfølging kan definerte indikatorer overvåkes, og styret kan varsles når terskler brytes. Slik flyttes oppmerksomheten fra manuell sammenstilling til strategi, verdiskaping og risikohåndtering. Forutsetningen er at innsikten kvalitetssikres, og at styret forstår hvorfor anbefalinger oppstår, før de brukes i beslutninger.
Samtidig følger det et ansvar med denne typen beslutningsstøtte. Styret må ha kontroll på sikkerhet, skjevheter og kvalitet før innsikten kan brukes trygt.
Risiko ved bruk av AI i styrerommet
Selv om det finnes reelle utfordringer ved bruk av AI i styrearbeid, er de fleste forholdsvis enkle å håndtere med riktig forståelse, bevissthet og gode prosesser. Mange styrer kvier seg fordi de er usikre på hvordan teknologien kan kontrolleres, men erfaringer fra virksomheter som har startet forsøk viser at dette lar seg løse.
Den vanligste bekymringen gjelder informasjonssikkerhet. Styredokumenter inneholder ofte sensitiv informasjon om strategi, økonomi og personforhold, og mange frykter lekkasje ved bruk av AI-verktøy. Risikoen må tas på alvor, men den er sjelden unik for AI. Lekkasjer kan like gjerne oppstå via e-post eller ved feil deling av dokumenter. Moderne AI løsninger kan dessuten kjøres lokalt eller i lukkede miljøer uten deling med tredjepart, på samme måte som øvrige styredokumenter lagres i skyplattformer eller på egne servere. Med riktige sikkerhetsinnstillinger og prosedyrer blir risikoen lav.
En annen utfordring er skjevheter i datagrunnlaget. AI-modeller lærer av tidligere data, og dersom treningsdataene inneholder systematiske skjevheter, kan anbefalingene bli preget av det samme. For styret kan det bety at analyser og scenarier ikke fullt ut gjenspeiler virkeligheten. I slike tilfeller bør AI resultater suppleres med menneskelig vurdering og eksterne kilder. Styret bør derfor stille kritiske spørsmål til hvordan data er valgt, hvilke antakelser som ligger til grunn, og hvordan konklusjonene kan etterprøves.
En tredje, mer subtil risiko handler om forankring i fortiden. AI baserer seg på mønstre i eksisterende data, mens styrearbeid handler om å forme fremtiden. Hvis AI brukes ukritisk, kan den forsterke tidligere tankesett og beslutninger, i stedet for å utfordre dem. Strategisk innovasjon krever at styret ser forbi historiske trender, og her har menneskelig kreativitet og intuisjon fortsatt et fortrinn.
Hvordan risikoene kan håndteres
Styrene som lykkes best med å ta i bruk AI, går systematisk til verks. Første steg er å etablere et tydelig rammeverk for ansvarlig bruk. Det bør omfatte retningslinjer for databehandling, personvern, kvalitetssikring og etiske vurderinger. Styret må definere hva AI skal brukes til, hvem som har tilgang, og hvordan resultater skal valideres før de legges til grunn for beslutninger.
Kvalitetssikring og validering handler også om etterprøvbarhet. AI kan peke på en god beslutning, men styret må forstå hvorfor. Be derfor om forklaringer som viser hvilke data som er brukt, hvilke indikatorer som er vektet, hvilke antakelser som ligger til grunn og hvilke alternativer som er vurdert. God praksis er at AI alltid gir grunnlag og etterprøvbarhet. Be om kilder og dokumenter, mål og kriterier, usikkerhet og mulige feilkilder, samt anbefaling med relevante alternativer og hva som kan endre anbefalingen.
Et annet viktig tiltak er kompetansebygging. Erfaring viser at skepsis ofte avtar når styremedlemmer får praktisk opplæring og prøver verktøyene på egne problemstillinger. Flere styrer har gode erfaringer med felles workshops der de utforsker relevante bruksområder. Slik opplæring gir økt trygghet, bedre dialog og en felles forståelse av teknologiens rolle.
Styret bør også vurdere en intern AI revisjon. Det krever ikke nødvendigvis en fast intern ekspert, men jevnlige vurderinger av hvordan AI brukes, hvilke resultater den gir, og om det oppstår utilsiktede konsekvenser. På samme måte som økonomi og informasjonssikkerhet revideres, bør også AI bruken kontrolleres regelmessig.
Styreleder må gå foran. Når styreleder selv bruker og forstår teknologien, sender det et tydelig signal til styret og administrasjonen. Det bygger en kultur for læring og eksperimentering og reduserer frykten for å gjøre feil.
Til slutt er det viktig at bruk av AI kan skje innenfor trygge rammer, med riktig kontekst, for eksempel ved å ta i bruk en styreportal med AI-funksjonalitet. Integrert AI gir trygg bruk i riktig kontekst. Styret får bedre presisjon, sporbarhet og en sammenhengende arbeidsflyt fra forberedelser til protokoll og oppfølging. Samtidig reduseres behovet for åpne verktøy, og etterlevelse og sikkerhet blir enklere å håndtere.
Orgbrains tilnærming til AI i styrerommet
De fleste styrer må før eller siden ta stilling til hvordan AI skal brukes i arbeidet. Erfaring fra både forskning og praksis peker i samme retning. AI bør ikke behandles som et sideprosjekt, men som en naturlig del av styrets videre utvikling. Målet er ikke bare effektivisering, men å styrke styrets rolle som strategisk rådgiver, kontrollorgan og verdiskaper.
Orgbrain skal gjøre styrearbeidet enklere, bedre og tryggere. Når vi integrerer AI i styreportalen, gjør vi det med tydelige prinsipper for ansvarlighet og sikkerhet. Vi samarbeider med fagmiljøer, blant annet NHH, og tilbyr praktisk veiledning slik at styret kan ta funksjonene i bruk på en trygg måte, uavhengig av digital erfaring.
Et grunnpremiss er at bruken må skje innenfor kontrollerte rammer. For datalokasjon og behandlingskontroll drifter vi AI-modeller i Microsofts EU og EØS regioner, eller lokalt på egne servere ved behov. Løsningen kan også tilpasses virksomheter med særskilte krav til skjerming av sensitiv informasjon.
Vi bygger AI funksjonaliteten trinnvis, i takt med behov og modenhet. Allerede i 2023 lanserte vi funksjoner for tekstbehandling og støtte til utforming av møteagendaer og protokoller. Neste fase, som nå testes med utvalgte kunder, omfatter oppgavehåndtering, blant annet automatisk forslag til protokoll basert på innebygd møtetranskribering. Vi tilbyr også møteanalyse, med innsikt i møtedynamikk som taletid og balanse i deltakelse. Dette kan for eksempel brukes som del av en styreevaluering.
Etter møtet foreslår løsningen oppgaver og aktiviteter, slik at vedtak enklere kan omsettes til handling. AI bidrar også til å identifisere risiko knyttet til temaene som er diskutert. Videre vil vi bruke AI mer direkte som beslutningsstøtte. Ambisjonen er at hvert styre skal få en digital assistent som kjenner selskapets dokumentasjon, struktur og historikk, og som kan være en trygg samtalepartner for styreleder og daglig leder.
Orgbrain ønsker å ta posisjon som en ledende aktør i Norden på AI i styrerommet, og vi vil løpende lansere ny funksjonalitet etter hvert som teknologien modnes og vi får erfaring med hvordan kundene våre ønsker å bruke AI i styrearbeidet.
Slik kommer dere i gang
Start i det små og test i kontrollerte former, før dere utvider.
- Velg ett bruksområde med lav risiko, for eksempel referat, protokollutkast eller enkel møteanalyse.
- Avklar hvilke deler av møtet som kan brukes som grunnlag for transkribering og protokollutkast, og hvilke saker dere ikke vil ha med. Avgjør også om lyd og transkribering skal lagres, eller bare brukes som grunnlag for resultatene.
- Avtal en enkel kontrollrutine. Avklar hvem som kvalitetssikrer før innhold deles, lagres eller brukes videre.
- Kjør en kort pilot i ett møte eller over en kort periode, og vurder kvalitet, tidsbesparelse og eventuelle risikopunkter.
- Utvid gradvis når dere ser stabil nytte, og juster innstillinger og arbeidsform underveis.
Praktisk tips: Mange kommer raskest i gang med møtebasert AI, der innsikten knyttes til agenda og møtedokumenter, og der tilgang og lagring kan styres.
Et nytt kapittel i styrerommet
Et tiår etter at Deep Knowledge Ventures utnevnte en algoritme som styremedlem, er kunstig intelligens ikke lenger et eksperiment, men et verktøy som gir reell verdi. Teknologien er mer moden, datagrunnlaget er bedre, og flere styrer har nå både kompetanse og løsninger som gjør det mulig å forenkle prosesser og heve kvaliteten i styrearbeidet.
Styrets ansvar for å forstå risiko og muligheter er større enn noen gang. AI kan avlaste administrative oppgaver og gi nye perspektiver, men det krever nysgjerrighet, kritisk sans og vilje til å lære. Styrer som tar dette på alvor, står sterkere i møte med økt kompleksitet og hardere konkurranse.
AI i styrerommet handler like mye om kultur og lederskap som om teknologi. Gevinsten kommer når AI brukes til å løse kjente oppgaver bedre, samtidig som styret styrker kjernen i godt styrearbeid, menneskelig dømmekraft og ansvar.
Vil du vite mer eller ta en uforpliktende prat, kontakt salg@orgbrain.no. Er du allerede kunde, kontakt support@orgbrain.no.
Ofte stilte spørsmål
AI brukes som beslutningsstøtte ved å analysere store datamengder, foreslå spørsmål, oppsummere dokumenter og synliggjøre risiko. I enkelte tilfeller deltar AI også som styreobservatør eller rådgiver uten stemmerett.
Bruken øker, men de fleste styrer er fortsatt i en tidlig fase. Undersøkelser viser at mange styremedlemmer tester AI privat, men få bruker teknologien aktivt i styrerommet.
Forskningen peker på bedre beslutningsgrunnlag, mer effektive forberedelser, tydeligere risikobilde og mer presis dokumentasjon. AI bidrar særlig i analysearbeid og struktur.
Ja. Studier viser at AI kan identifisere trender og svakheter raskere enn mennesker. Menneskelig dømmekraft er likevel nødvendig for å forstå kontekst og vurdere anbefalingene.
AI fungerer godt til oppsummeringer, møteforberedelser, scenariostøtte, protokollutkast, dokumentanalyse og identifisering av risiko. Teknologien frigjør tid til strategi og diskusjon.
De viktigste risikoene er datalekkasje, feil grunnlag i analyser, skjevheter i treningsdata og ukritisk tillit til modellens anbefalinger. Dette kan håndteres med gode rutiner og sikre løsninger.
Bruk sikre, lukkede løsninger som ivaretar personvern. Definer tydelige retningslinjer for bruk, sørg for opplæring og gjennomfør jevnlige vurderinger av datagrunnlag og resultater.
Integrert AI i en styreportal er tryggere fordi data behandles i riktig kontekst og innenfor kontrollerte rammer. Åpne verktøy gir høyere risiko for feil lagring og uautorisert deling.
Nei. AI kan styrke grunnlaget for gode beslutninger, men kan ikke erstatte menneskelig dømmekraft, erfaring, ansvar og relasjonsbygging. AI fungerer best som støtte.
Start med små piloter, for eksempel møteoppsummeringer eller protokollutkast. Gi styremedlemmene en praktisk innføring og legg AI inn i eksisterende verktøy som styreportalen.
Du vil kanskje også like
Disse relaterte artiklene
Hva kan du forvente i styrehonorar?
Fra papir til pixel: Hvorfor styrerommet trenger en digital oppgradering nå!