Sagen om russiske og kinesiske svindlere, der udnytter ChatGPT, viser, hvordan generative AI-værktøjer i stigende grad misbruges til svindel og påvirkningsoperationer. Nye trusselsrapporter viser, at organiserede netværk med forbindelse til Rusland og Kina brugte ChatGPT til at producere svindelindhold, falsk dokumentation og koordinerede budskabskampagner. Selvom AI-systemer indeholder indbyggede sikkerhedsforanstaltninger, fortsætter målrettede aktører med at teste deres grænser.

Sikkerhedsanalytikere advarer om, at AI ikke behøver at bryde ind i systemer for at forårsage skade. Når teknologien bruges til at automatisere overtalelse, identitetssvindel og indholdsproduktion, kan den markant øge omfanget og effektiviteten af traditionelle svindelmetoder.

Hvordan svindlere brugte ChatGPT

Efterforskere har konstateret, at ondsindede aktører brugte ChatGPT til at generere store mængder overbevisende tekst til forskellige svindelordninger. Disse omfattede romancesvindel, falske investeringsmuligheder og såkaldte genopretningssvindler rettet mod tidligere ofre. AI’en hjalp med at formulere beskeder, der lød naturlige og personlige, hvilket øgede troværdigheden og engagementet.

Et netværk skal have udarbejdet markedsføringsmateriale for en falsk eksklusiv datingside. Svindlerne brugte AI-genereret indhold til at kontakte velhavende personer og opbygge tillid over tid. Efter at have etableret en følelsesmæssig relation fremsatte de økonomiske anmodninger forklædt som investeringsmuligheder eller akutte personlige behov.

I andre tilfælde genererede angribere falske juridiske dokumenter og formelle breve. De udgav sig for at være advokatfirmaer, efterforskere og finansielle genopretningsbureauer. Ved at producere professionelt udformet kommunikation forsøgte de at overbevise ofre om, at tabte midler kunne gendannes mod et forudbetalt gebyr.

AI udførte ikke svindlen direkte. Den accelererede dog produktionen af indhold og gjorde det muligt for operatører at håndtere flere samtaler samtidigt.

Påvirkningsoperationer og koordineret kommunikation

Ud over økonomisk svindel observerede forskere forsøg på at bruge ChatGPT i påvirkningskampagner. Nogle konti med tilknytning til russiske og kinesiske aktører genererede opslag på sociale medier med henblik på at forme narrativer og forstærke geopolitiske budskaber. AI’en hjalp med at udarbejde kommentarer, justere tone og tilpasse sproget til forskellige målgrupper.

Disse kampagner byggede på netværk af konti, som distribuerede AI-genereret indhold på tværs af platforme. Målet var ikke nødvendigvis teknisk kompromittering, men kontrol over fortællingen og manipulation af engagement. Ved at automatisere budskabsskabelsen reducerede aktørerne den tid og de ressourcer, der krævedes for at opretholde koordineret aktivitet.

OpenAI og andre AI-leverandører rapporterede, at de lukkede konti involveret i sådanne operationer. De bemærkede også, at visse forsøg på at generere åbenlyst skadeligt eller vildledende materiale blev blokeret af indbyggede sikkerhedsforanstaltninger.

Hvorfor dette er vigtigt

Sagen om russiske og kinesiske svindlere, der udnytter ChatGPT, afspejler en bredere ændring i cyberkriminalitetens metoder. Generativ AI sænker barrieren for at producere overbevisende indhold i stor skala. Angribere behøver ikke længere avancerede skrivefærdigheder eller store teams for at skabe troværdige manuskripter og dokumenter.

Denne udvikling øger både mængden og sofistikeringen af social manipulation. Ofre kan få stadig sværere ved at skelne mellem legitim kommunikation og AI-genereret bedrag. Efterhånden som modellerne forbedres, bliver grænsen mellem autentisk og fabrikeret interaktion vanskeligere at identificere.

Organisationer må derfor styrke bevidsthedstræning, verifikationsprocesser og systemer til opdagelse af svindel. Samtidig står AI-leverandører over for pres for at forbedre misbrugsdetektion og adfærdsanalyse frem for udelukkende at stole på nøgleordsfiltrering.

Konklusion

Sagen om russiske og kinesiske svindlere, der udnytter ChatGPT, viser, hvordan generativ AI kan forstærke eksisterende cyberkriminelle strategier. Selvom AI-systemer indeholder sikkerhedsforanstaltninger, fortsætter ondsindede aktører med at eksperimentere med prompt-teknikker for at omgå begrænsninger. Myndigheder, teknologileverandører og virksomheder må reagere hurtigt. Uden lagdelte forsvar og stærkere tilsyn vil AI-assisteret svindel og påvirkningskampagner fortsætte med at udvikle sig og vokse.


0 svar til “Russiske og kinesiske svindlere udnytter ChatGPT til at skalere bedragerioperationer”