OpenAI har utestengt en gruppe Kina-tilknyttede ChatGPT-kontoer som angivelig forsøkte å utvikle AI-drevne overvåkingssystemer.
Ifølge interne undersøkelser brukte brukerne ChatGPT til å generere forslag, skript og kode for å spore aktivitet på plattformer som X, Facebook, Instagram og YouTube.

Kontoene var aktive i kinesisk arbeidstid og brukte hovedsakelig kinesisk språk i alle forespørsler.
OpenAI konkluderte med at aktiviteten brøt med selskapets retningslinjer for nasjonal sikkerhet og misbruk, som forbyr bruk av AI til statlig overvåking eller undertrykkelse.


Misbruk gjennom “Peer Review”-operasjonen

De utestengte kontoene ser ut til å være knyttet til en kampanje kalt “Peer Review”.
Nettverket brukte ChatGPT til å forbedre kode, feilsøke overvåkingsverktøy og til og med produsere markedsføringsmateriale for overvåkningsteknologi.

Forskere sier at gruppen fokuserte på å analysere nettdiskusjoner, protestbevegelser og politisk motstand utenfor Kina.
Handlingene deres lignet statstilknyttede påvirkningsoperasjoner designet for å kontrollere narrativer og samle etterretning om global opinion.

OpenAIs trusselanalytiske avdeling identifiserte nettverkets oppførsel gjennom bruksmønstre og innholdsanalyse.
Etter bekreftelse fjernet selskapet umiddelbart tilgangen og stengte alle relaterte kontoer.


Et mønster av statlig misbruk

Avstengingen av disse Kina-tilknyttede ChatGPT-kontoene følger tidligere tiltak mot brukere fra Russland, Nord-Korea og Iran.
Disse forsøkene omfattet bruk av ChatGPT til phishing, påvirkningskampanjer og ondsinnet automatisering.

OpenAI overvåker regelmessig mistenkelig aktivitet og bruker AI-baserte verktøy for å avdekke koordinert misbruk.
Selskapet uttalte at det ikke har funnet bevis for at modellene har utviklet offensive kapasiteter for statlige aktører, men understreket at årvåkenhet er avgjørende etter hvert som truslene utvikler seg.


AI-regulering og sikkerhetsimplikasjoner

Hendelsen illustrerer den økende spenningen mellom innovasjon og kontroll i det globale AI-landskapet.
Myndigheter og selskaper må balansere åpen tilgang med behovet for å hindre misbruk fra autoritære regimer.

Sikkerhetseksperter advarer om at generativ AI kan akselerere utviklingen av overvåking ved å automatisere analyse, oversette avlyttet data og skape falske profiler i stor skala.
Slike misbruk kan true ytringsfriheten, særlig i land med streng sensur.


Konklusjon

Utestengingen av Kina-tilknyttede ChatGPT-kontoer viser OpenAIs tydelige holdning mot misbruk av AI.
Ved å stanse disse overvåkingsrelaterte operasjonene bekrefter selskapet sitt engasjement for ansvarlig AI-bruk.

Etter hvert som AI får større global utbredelse, må plattformer være på vakt mot manipulasjonsforsøk som kan gjøre avanserte verktøy til kontrollmidler.
Hendelsen minner om at etisk tilsyn må utvikles like raskt som teknologien selv.


0 svar til “OpenAI blokkerer Kina-tilknyttede kontoer”