OpenAI har forbudt en gruppe Kina-relaterede ChatGPT-konti, der angiveligt forsøgte at udvikle AI-drevne overvågningssystemer.
Ifølge interne undersøgelser brugte brugerne ChatGPT til at generere forslag, scripts og kode til at spore aktivitet på platforme som X, Facebook, Instagram og YouTube.
Kontiene var aktive i kinesiske arbejdstimer og anvendte primært kinesisk sprog i alle forespørgsler.
OpenAI konkluderede, at aktiviteten brød med virksomhedens retningslinjer for national sikkerhed og misbrug, som forbyder brug af AI til statslig overvågning eller undertrykkelse.
Misbrug gennem “Peer Review”-operationen
De blokerede konti ser ud til at være knyttet til en kampagne kaldet “Peer Review”.
Netværket brugte ChatGPT til at forbedre kode, fejlfinde overvågningsværktøjer og endda skabe markedsføringsmateriale til sporingsteknologier.
Forskere fortæller, at gruppen fokuserede på at analysere online-diskussioner, protestbevægelser og politisk modstand uden for Kina.
Deres aktiviteter mindede om statstilknyttede påvirkningsoperationer, der er designet til at styre narrativer og indsamle efterretninger om global offentlig opinion.
OpenAIs trusselsanalyseafdeling identificerede netværkets adfærd gennem brugsdata og indholdsanalyse.
Efter bekræftelse fjernede virksomheden straks adgangen og lukkede alle relaterede konti.
Et voksende mønster af statsligt misbrug
Blokeringen af disse Kina-relaterede ChatGPT-konti følger tidligere tiltag mod brugere fra Rusland, Nordkorea og Iran.
Disse konti forsøgte at bruge ChatGPT til phishing, påvirkningskampagner og ondsindet automatisering.
OpenAI overvåger løbende mistænkelig aktivitet og bruger AI-baserede værktøjer til at opdage koordineret misbrug.
Virksomheden udtalte, at der ikke er fundet beviser for, at modellerne har skabt nye offensive kapaciteter for statslige aktører, men understregede, at årvågenhed er afgørende, efterhånden som misbruget udvikler sig.
AI-regulering og sikkerhedsmæssige konsekvenser
Hændelsen fremhæver den voksende spænding mellem innovation og kontrol i det globale AI-landskab.
Regeringer og virksomheder skal balancere åben adgang med behovet for at forhindre misbrug fra autoritære regimer.
Sikkerhedseksperter advarer om, at generativ AI kan fremskynde udviklingen af overvågning ved at automatisere analyse, oversætte opsnappet data og skabe falske onlineprofiler i stor skala.
Sådant misbrug kan true ytringsfriheden, især i lande med streng censur.
Konklusion
Blokeringen af Kina-relaterede ChatGPT-konti viser OpenAIs klare holdning mod misbrug af AI.
Ved at lukke disse overvågningsrelaterede operationer bekræfter virksomheden sit engagement i ansvarlig brug af kunstig intelligens.
Efterhånden som AI bliver mere udbredt globalt, skal platforme være opmærksomme på manipulationsforsøg, der kan forvandle teknologi til kontrolredskaber.
Hændelsen minder om, at etisk tilsyn skal udvikles lige så hurtigt som teknologien selv.


0 svar til “OpenAI blokerer Kina-relaterede konti”