Klare råd mot ny svindel

Svindelmetoden er utbredt i utlandet. Nå er den på vei til Norge: – Vi må stole mindre på hverandre, sier teknologiekspert.

NYE METODER: Tidligere har man sett at man bruker denne metoden på videoer, slik at ansikter til personen blir byttet ut med en annens. Nå må vi passe oss for en ny type svindel. Foto: Helge Tjelta / TV 2
NYE METODER: Tidligere har man sett at man bruker denne metoden på videoer, slik at ansikter til personen blir byttet ut med en annens. Nå må vi passe oss for en ny type svindel. Foto: Helge Tjelta / TV 2

Utviklingen av kunstig intelligens (KI) går i rasende tempo.

Nå er ekspertene bekymret for en at en ny svindelbølge vil spre seg over landet.

«Deepfake» er en teknologimetode som misbrukes i svindel.

Tidligere har man sett at man bruker denne metoden på videoer, slik at ansikter til personen blir byttet ut med en annens.

Denne metoden kan også brukes på stemmer, slik at svindlere kan lure dine nærmeste, gjennom telefonsamtaler.

Hvordan kan man unngå dette? Les teknologiekspertens klare råd lenger ned i saken.

Mener det er en naturlig utvikling

Politiet, Datatilsynet og andre eksperter TV 2 har snakket med, har ikke sett konkrete saker i Norge om deepfake-svindel gjennom telefon.

– Men vi har indikasjoner på at det skjer, sier avdelingsdirektør for forebygging og etterretning i Økokrim, Lone Pettersen.

FØLGER MED: Lone Pettersen, avdelingsdirektør for forebygging og etterretning i Økokrim, påpeker «deepfake» og kunstig intelligens som trusselfaktorer for nye svindelmetoder. Foto: Økokrim
FØLGER MED: Lone Pettersen, avdelingsdirektør for forebygging og etterretning i Økokrim, påpeker «deepfake» og kunstig intelligens som trusselfaktorer for nye svindelmetoder. Foto: Økokrim

Hun sier at de ser kriminelle nettverk i økende grad benytter seg av nye teknologiske metoder til å begå økonomisk kriminalitet, og at det er reell fare for at deepfake-metoden blir brukt i større omfang.

– Ja, det er det. Kunstig intelligens og utvikling av ny teknologi åpner opp for muligheter, men også sårbarheter, dersom teknologien benyttes av kriminelle, sier Pettersen til TV 2.

Også Datatilsynet ser at denne metoden vil kunne være en personverntrussel, der man kan lage falske hendelser, uttalelser og så videre.

– Dessverre anser vi dette som en naturlig utvikling, sier direktør for teknologi, analyse og sikkerhet, Veronica Jarnskjold Buer.

Trenger kun enkle lydklipp

Gründer og AI-ekspert Dag-Inge Aas sier stemmesvindelen kan være ganske overbevisende.

VÆR OBS: Snart kan man bli oppringt av en stemme som høres kjent ut, som du stoler på, som vil lure deg. Foto: Erik Edland / TV 2
VÆR OBS: Snart kan man bli oppringt av en stemme som høres kjent ut, som du stoler på, som vil lure deg. Foto: Erik Edland / TV 2

– Likevel, av de testene jeg har gjort på norsk, er ikke dette spesielt overbevisende. Ennå, sier han til TV 2.

Eksperten sier man kan lage etterligninger av stemmer av enkle lydklipp.

– Dette kan for eksempel komme fra et intervju i TV eller radio, fra videoer man poster på sosiale medier, eller i noen tilfeller telefonopptak. Jo bedre og klarere kilden er, jo enklere er det å kopiere.

Han mener det er ett hinder for svindlere i dag: Selskaper som for eksempel er fremtredende på denne teknologien, støtter mange språk, men ikke norsk.

– Den underliggende modellen man bruker som basis må være trent på norsk uttale. Både svensk og dansk er tilgjengelig i dag. Det er bare et tidsspørsmål når norsk blir tilgjengelig. sier Aas til TV 2.

Ekspert advarer

NY TRUSSEL: Teknologiekspert Hans-Petter Nygård-Hansen sier også vi står overfor en trussel. Foto: Frode Sunde / TV 2
NY TRUSSEL: Teknologiekspert Hans-Petter Nygård-Hansen sier også vi står overfor en trussel. Foto: Frode Sunde / TV 2

Teknologiekspert Hans-Petter Nygård-Hansen sier man snart kan bli oppringt av en stemme som høres kjent ut, som du stoler på, som vil lure deg.

Han lister opp forskjellige scenarioer:

– Det kan være alt fra at noen av dine nære angivelig har havnet i en alvorlig ulykke, til at barnet ditt ringer deg midt på natten på «lånt» telefon, der de ber deg om å vippse noen kroner til taxi, fordi de har mistet telefonen sin.

Selv om disse eksemplene kanskje ikke høres reelle ut, vil han advare.

– Man må forberede seg på det verste. Selv om vi enn så lenge ikke kjenner til eksempler i Norge, betyr ikke det at vi kan slappe av, sier han til TV 2.

Slik kan du unngå å bli svindlet gjennom «deepfake»:

  • Avtal egne sikkerhetsspørsmål med dine nærmeste. Dersom du blir oppringt, og du er i tvil, kan du stille spørsmålet kun dere to kan svaret på. På denne måten kan du verifisere samtalen og stemmen.
  • Dersom du blir oppringt fra et ukjent nummer, og det er en dramatisk situasjon, be dem ringe deg på FaceTime eller video. Ved å gjøre slik, kan du se hva som foregår, før du tar en beslutning. Er det en svindler, vil de garantert ikke gå over til videosamtale.

Kilde: Teknologiekspert Hans-Petter Nygård-Hansen.

Norge spesielt utsatt

En Telenor-reklame om stemmesvindel går på TV i disse dager. Selv om Telenor ikke har tall på konkrete eksempler på «deepfake»-svindel gjennom falsk stemmebruk, er de sikre på at dette vil komme raskt.

– Jeg vil bli overrasket om vi ikke ser eksempler i løpet av et års tid.

Det sier Bjørn Taale Sandberg, som er strategidirektør for Telenors virksomhet i Finland. Han har vært tidligere forskningsdirektør i bedriften.

Ifølge han er tradisjonelle svindelmetoder fortsatt en større reell trussel. Likevel er det utfordringer knyttet til teknologiutviklingen.

– Det gjelder hastigheten i utbredelsen av GPT-bruk, som er raskest voksende teknologi noensinne og enkeltheten for utviklere.

Derfor ønsker de å advare.

– Norge er et samfunn preget av høy tillit, derfor kan det være enklere å få folk på kroken enn i en del andre land. Vi tror at økt kunnskap er en viktig nøkkel for å unngå at flere bli svindlet. sier Sandberg.

PASS PÅ: – Med denne teknologien kan kriminelle enkelt bytte ut en stemme med en annen, sier Bjørn Taale Sandberg i Telenor Foto: Martin Phillip Fjellanger / Telenor
PASS PÅ: – Med denne teknologien kan kriminelle enkelt bytte ut en stemme med en annen, sier Bjørn Taale Sandberg i Telenor Foto: Martin Phillip Fjellanger / Telenor

– Forbered deg på det verste

Teknologiekspert Hans-Petter Nygård-Hansen mener alle bør snakke om denne type teknologi rundt middagsbordet.

– Vi har gode fjellvettregler og vi har også fornuftige nettvettregler. Med utviklingen av kunstig intelligens og «deepfake»-teknologi, blandes det virtuelle og virkelige liv sammen.

Han mener teknologiutviklingen går i et rasende tempo, hvor det som er «science fiction» i dag, blir «science fact» i morgen.

– Vi må dessverre stole mindre på hverandre. Planlegg for det beste, men forbered deg på det verste Det er en av mange konsekvenser av teknologiutviklingen.

Se Nygård-Hansens eksempelvideo her: