Til forsiden
Chat med oss
14-04-2026

AI-sikkerhet: Slik gjør kunstig intelligens angriperne farligere - og hva virksomheter må gjøre nå

En AI-modell avdekket nylig tusenvis av sikkerhetshull som ingen hadde oppdaget på 27 år. Hackere uten teknisk kompetanse opererer plutselig på ekspertnivå. Og dine egne ansatte deler sannsynligvis bedriftsinformasjon med ukontrollerte AI-tjenester, uten å vite det. Vi ser nærmere på hvordan kriminelle utnytter AI, og hva norske virksomheter bør gjøre for å beskytte seg.

Christian Brosstad
Christian Brosstad
Direktør marked og kommunikasjon
Andre Lambertsen, Cisco, Kato Kristiansen, Atea og Christian Brosstad, Atea

 

 

Sårbarhetene hadde ligget uoppdaget i 27 år 

En av de mest omtalte lanseringene i tech-verden de siste ukene er AI-modellen Claude Mythos fra Anthropic. Selskapet beskriver den selv som «langt foran alle andre AI-modeller» på cybersikkerhet, og nettopp derfor tør de ikke å lansere den kommersielt.

”Med den type modeller er vi nok ganske nærme å kunne lage et fullautomatisert angrep uten at mennesker er inne i loopen.”

— Kato Kristiansen, IT-sikkerhetssjef i Atea

I stedet er modellen gjort tilgjengelig for utvalgte teknologiselskaper gjennom det som kalles «Project Glasswing». Målet er å bruke Mythos til å tette sikkerhetshull før noen rekker å utnytte dem.

En av sårbarhetene ble funnet i BSD, et operativsystem regnet som ett av de best sikrede som finnes. Sårbarhetene hadde ligget uoppdaget i 27 år. I et sandkasse-miljø klarte modellen dessuten å identifisere at den var isolert og bygge en plan for å bryte seg ut.

- Med den type modeller er vi nok ganske nærme å kunne lage et fullautomatisert angrep uten at mennesker er inne i loopen, sier Kato Kristiansen, IT-sikkerhetssjef i Atea.

 

Angriperne logger inn, de bryter seg ikke inn

Den viktigste innsikten vi har fra godt sikkerhetsarbeid endrer seg ikke, selv om truslene gjør det. De fleste angrep starter fortsatt med en kompromittert brukerkonto.

”Vi kan ikke forvente at vanlige ansatte skal klare å detektere dette på egenhånd. Phishing meldingene ser nå mer perfekte ut.”

— Kato Kristiansen, IT-sikkerhetssjef i Atea

AI gjør dette dramatisk enklere. Angripere bruker nå AI til å kartlegge virksomheten din automatisk; din rolle, kolleger, organisasjonsstruktur, og skriver skreddersydde phishing-meldinger det er nesten umulig å avsløre. André Lambertsen, løsningsarkitekt i Cisco, og Kristiansen har til sammen 50 års erfaring fra IT-sikkerhetsbransjen.

- Vi kan ikke forvente at vanlige ansatte skal klare å detektere dette på egenhånd. Phishing meldingene ser mer perfekte ut, både avsender, kontekst og innhold, sier Kristiansen.

Det som tidligere var dårlig norsk med merkelige lenker, har blitt presisjonsvåpen. Ferdige angrepsoppskrifter selges åpent på nettet. Microsoft rapporterte at de blokkerte fire milliarder dollar i svindel og falske transaksjoner i løpet av et år. Mye av dette er antakeligvis laget ved hjelp av AI-verktøy.

 

Skygge-AI: Dine ansatte lekker data nå

Her er noe mange ledere ikke vet: ansatte bruker sannsynligvis allerede AI-verktøy du ikke har godkjent. De laster opp anbud, kundedata og interne dokumenter til kommersielle tjenester uten noen kontroll fra virksomhetens side.

Informasjon som legges inn i tredjepartsmodeller kan potensielt bli en del av treningsgrunnlaget til disse modellene og tilgjengelig for andre. Selv uten direkte eksport, lekker bruddstykker av konfidensiell informasjon på måter som er vanskelige å spore.

- Veldig mange bedrifter ønsker å tillate AI-bruk, men svært få mener de har god nok kontroll til at de faktisk bør gjøre det, sier Kristiansen.

Løsningen er ikke å forby AI. Det toget har gått. Løsningen er å ta kontroll. Hvis ansatte ikke får gode, godkjente verktøy, finner de sine egne.

 

AI-agenter: Nyttig teknologi med ukontrollert risiko

AI-agenter er systemer som ikke bare svarer på spørsmål, men som utfører handlinger. Agentene leser e-post, bestiller møter, henter dokumenter. Bruken eksploderer. Kontrollen henger etter.

Et nye brukt eksempel er en agent som leste innkommende e-post og ble lurt av instruksjoner skrevet i usynlig tekst å en nettside. Agenten utførte instruksjonene, hentet sensitive data og sendte dem videre. Det hele skjedde uten at noen mennesker var involvert.

Det er stor forskjell på AI-assistenter og AI-agenter. En ansatt som får et feil svar fra en chatbot, tar en dårlig beslutning. En agent som gjør noe feil, «utfører» potensielt skadelige handlinger, med tilgang til e-post, interne systemer og betalingsinformasjon.

- Mange bedrifter opparbeider seg en teknisk gjeld dag for dag. Når du har hundrevis av agenter som snakker med hverandre i din infrastruktur, blir kartleggingen en kjempeutfordring, sier Kristiansen.

 

Hva du bør gjøre helt konkret nå

  1. Kartlegg AI-bruken i virksomheten din: Ikke hva du tror er i bruk, men hva som faktisk brukes. Hvilke verktøy, hvilke avdelinger og hvilke data har agentene tilgang til?
  2. Ikke kjøp nye AI-løsninger før du får oversikt over hva du allerede har. Grunnleggende sikkerhetshygiene gir fortsatt mest beskyttelse. Det handler om oppdaterte systemer, MFA på alle kontoer og ryddig tilgangsstyring. Ikke hopp til avanserte AI-forsvarssystemer før dette er på plass.
  3. Klassifiser dataene dine: Sensitiv informasjon bør merkes slik at den automatisk blokkeres fra å havne i eksterne AI-tjenester. Dette steget hoppes over av altfor mange.
  4. Ta kontroll over agentene: Ha oversikt over hvilke agenter som er i infrastrukturen din. Hvem eier dem, og hva har de tilgang til? Begrens det til det som er strengt nødvendig.

 

Vurder 24/7-overvåkning

Angrep skjer ikke mellom åtte og fire. Tidsvinduet fra angrep til oppdagelse er kritisk. Dette tidsvinduet krymper stadig. Stadig flere norske virksomheter setter dette ut til profesjonelle aktører med døgndrift.

 

Hvem angripes?

En vanlig misforståelse er å tro at man er for liten eller uinteressant til å bli angrepet. Det stemmer ikke.

- En angriper velger alltid minste motstands vei til pengene. Det avgjørende er ikke størrelsen på bedriften, men hvor gode forsvarsverker du har, sier Kristiansen.

”Angriperne trenger bare å lykkes en gang. Vi må lykkes hele tiden.”

— Andre Lambertsen, Cisco

Og selv om du ikke er det primære målet, kan du brukes som springbrett mot en større aktør. Det betyr at ditt nettverk og omdømme settes på prøve.

Norske virksomheter må gå fra reaktiv til proaktiv sikkerhet. Ifølge Gartner har sikkerhetsleverandører som ikke gjør denne overgangen, utspilt sin rolle innen få år. Tidsvinduet fra angrep til skade er nå ned på millisekunder. Dette er for raskt for menneskelig respons alene.

- Angriperne trenger bare å lykkes en gang. Vi må lykkes hele tiden, sier Lambertsen.

 

Ofte stilte spørsmål om AI og cybersikkerhet

 

  • Hva er skygge-AI, og hvorfor er det farlig? Skygge-AI er AI-verktøy ansatte tar i bruk uten at virksomheten har godkjent eller kontrollert dem. Risikoen er at interne dokumenter, kundedata og forretningskritisk informasjon lastes opp til eksterne tjenester uten innsyn eller datasikkerhetskontroll. Informasjonen kan potensielt bli en del av treningsgrunnlaget til kommersielle modeller og tilgjengelig for andre.
  • Er små og mellomstore bedrifter også utsatt for AI-drevne cyberangrep? Ja, angripere velger alltid minste motstands vei, og ikke nødvendigvis det største målet. SMB-er med svak identitetsforvaltning og manglende multifaktor-autentisering (MFA) er attraktive mål. Enten som primærmål eller som springbrett mot større aktører i samme leverandørkjede.
  • Hva er AI-agenter, og hvilken sikkerhetsrisiko utgjør de? AI-agenter er systemer som utfører handlinger autonomt. De kan lese e-post, hente dokumenter, kjøre prosesser. Dette i motsetning til chatboterl, som bare svarer på spørsmål. Risikoen oppstår når agenter gis for vide tilganger uten tilstrekkelig overvåkning og dataklassifisering. En kompromittert agent kan eksfiltrere sensitiv informasjon uten menneskelig inngripen.
  • Hva bør en leder gjøre først for å styrke AI-sikkerheten? Start med å kartlegge hvilke AI-verktøy som faktisk brukes i virksomheten. Ikke bare se på hva som er godkjent, men også faktisk hva som er i bruk. Deretter må du klassifiser sensitive data, innføre MFA på alle kontoer, og sørge for at ingen agenter har bredere tilganger enn strengt nødvendig. Grunnleggende sikkerhetshygiene gir fortsatt mer beskyttelse enn avanserte AI-forsvarssystemer.

 

Vil AI-drevne cyberangrep bli fullt automatiserte?

Ikke ennå, men vi er nær. Per i dag orkestrerer mennesker fortsatt de siste stegene i de mest sofistikerte angrepene. Med modeller som kan finne nulldagssårbarheter og skrive angrepskode autonomt, er tidshorisonten for fullautomatiserte angrep kortere enn de fleste tror.
 


Denne artikkelen er basert på podkasten «Teknologi og mennesker» av Atea og Oslo Business Forum. Gjester er André Lambertsen (Cisco) og Kato Kristiansen (Atea).