Deepfake-svindel: Et voksende problem for både privatpersoner og bedrifter

Publisert 10. september 2025

Deepfake-teknologi – kunstig intelligens brukt til å manipulere bilder, video og lyd – er ikke lenger science fiction. Som mange allerede har oppdaget, er dette nå en del av hverdagen, og svindlerne bruker teknologien aktivt. Både privatpersoner og bedrifter i Norge utsettes allerede for forsøk. Økokrim advarer om at dette er et kraftig voksende problem, og at vi snart vil se det overalt: i annonser, i telefonsamtaler, i e-poster og i videomøter.

En mørk maske med to hull til øynene i en rød sirkel, på hvit bakgrunn.

Eksempler mot privatpersoner

1) Kjendiser i falske annonser

Kjente nordmenn er blitt misbrukt i investeringsannonser på sosiale medier. Deepfake-bilder og videoer viser dem «anbefale» kryptosatsinger eller andre investeringer, og lenker videre til falske rådgivere som presser på for innbetalinger. Svindlerne utnytter kjente ansikter nettopp fordi vi har tillit til dem.

2) Stemmekloning i familiesvindel

I et TV 2-omtalt tilfelle ble stemmen til en forbrukerøkonom klonet og brukt i en samtale med moren hennes – i et forsøk på å lure til seg penger. Det viser hvor personlig og overbevisende deepfake kan fremstå.

3) «Sextortion» med manipulerte bilder

Kripos advarer om en sterk økning i utpressing med KI-genererte nakenbilder. Uskyldige bilder eller skjermdumper manipuleres og brukes til å presse ofre, særlig unge menn, til å betale.

Eksempler mot bedrifter

1) DNB-ledelsen i falskt videomøte

Kriminelle forsøkte i 2025 å gjennomføre en avansert svindel ved å bruke deepfake-video og AI-stemmer som skulle forestille DNBs konsernledelse under et videomøte, for å be om utbetalinger på ca. 24 millioner kroner. Heldigvis ble forsøket stoppet i tide.

2) Arup – svindlet for rundt 270 mill. kroner

Arup (et britisk ingeniør- og rådgivningsselskap med prosjekter i over 140 land) rapporterte en deepfake-video-svindel der en ansatt trodde han var i videomøte med ekte ledere – men det var kunstig genererte stemmer og ansikter. Resultatet: en overføring på rundt 270 millioner kroner til falske konti.

3) Bedrift i UAE lurt via stemmekloning

En avdelingsleder ble lurt til å overføre rundt 370 millioner kroner til svindlerkontoer, etter initiativ fra en manipulert «stemme» fra direktøren og troverdige e-poster.

4) Hongkong-selskap svindlet for ca. 265 mill. kroner

En ansatt ble kalt inn til et videomøte med «CFO og kolleger». Alle deltakerne var deepfake-generert, og den ansatte ble lurt til å overføre ca. 265 millioner kroner. Hendelsen trekkes frem av Økokrim som et varsko om hva norske virksomheter kan forvente.

5) Forsøk på å lure WPP med WhatsApp og Teams

WPP (et britisk reklame- og PR-konsern, verdens største i sin bransje med over 100 000 ansatte globalt) ble forsøkt lurt gjennom en kombinasjon av falsk WhatsApp-konto, stemmekloning og et manipulert Teams-møte som skulle forestille selskapets toppsjef. Kun årvåkenhet fra en ansatt hindret utbetalingene.

Et problem som vokser eksplosivt

  • Ifølge Signicat (et norsk selskap som leverer digitale ID- og sikkerhetsløsninger til banker og finansinstitusjoner i hele Europa) har deepfake-svindelforsøk økt med over 2000 % på tre år.
  • Økokrim og Nordea understreker at norske virksomheter er like utsatte som de som allerede har blitt rammet internasjonalt.
  • Med stadig enklere tilgang til AI-verktøy vil de fleste nordmenn – privat eller i jobb – snart oppleve et svindelforsøk basert på deepfake.

Slik beskytter du deg

For privatpersoner

  • Stol aldri blindt på stemmer, bilder eller videoer.
  • Sjekk alltid avsender og verifiser via en uavhengig kanal.
  • Ved utpressing: Ikke betal. Dokumenter og kontakt politiet.

For bedrifter

  • Innfør to-personkontroll ved utbetalinger.
  • Etabler rutiner for verifisering av muntlige/visuelle instrukser.
  • Bruk «safe words»/ekstra kontrollspørsmål i kritiske situasjoner. Tren ansatte jevnlig.

Kilder

NRK (Økokrim), Nordea (case Hongkong), The Guardian (Arup), The Guardian (WPP), Signicat (statistikk), VG (DNB-forsøket)


Det som tidligere var science fiction, er nå en høyaktuell trussel for oss alle.
Ta kontakt med oss ved mistanke om svindel eller hvis du ønsker å dele eksempler – jo mer vi vet, jo bedre beskyttelse kan vi yte.

 

Legg til en kommentar

Trygg Handel vil aldri spre/selge deres epost videre til tredjepart eller på annen måte bruke deres epost til annet enn til direkte kommunikasjon