OpenAI har förbjudit en grupp Kina-kopplade ChatGPT-konton som påstås ha försökt skapa AI-drivna övervakningssystem.
Enligt interna utredningar använde användarna ChatGPT för att generera förslag, skript och kod för att spåra aktivitet på plattformar som X, Facebook, Instagram och YouTube.

Kontona var aktiva under kineska kontorstider och använde främst kinesiska i alla förfrågningar.
OpenAI slog fast att deras aktiviteter bröt mot företagets nationella säkerhets- och missbrukspolicy, som förbjuder att AI används för statlig övervakning eller förtryck.


Missbruk genom operationen ”Peer Review”

De förbjudna kontona verkar vara kopplade till en kampanj kallad ”Peer Review”.
Nätverket använde ChatGPT för att förbättra kod, felsöka övervakningsverktyg och till och med skapa marknadsföringsmaterial för spårningsteknik.

Forskare uppger att gruppen fokuserade på att analysera onlinediskussioner, proteströrelser och politiskt motstånd utanför Kina.
Deras aktiviteter speglade typiska statligt kopplade påverkansoperationer utformade för att styra narrativ och samla in underrättelser om global opinion.

OpenAIs hotanalysavdelning identifierade nätverkets beteende genom användningsmönster och innehållsanalys.
När bekräftelsen kom stängde företaget omedelbart av tillgången och raderade alla relaterade konton.


Ett växande mönster av statligt missbruk

Avstängningen av dessa Kina-kopplade ChatGPT-konton följer tidigare åtgärder mot användare från Ryssland, Nordkorea och Iran.
Dessa hade försökt använda ChatGPT för phishing, påverkanskampanjer och skadlig automatisering.

OpenAI övervakar regelbundet misstänkt aktivitet och använder AI-drivna verktyg för att upptäcka koordinerat missbruk.
Företaget uppgav att man inte funnit bevis för att modellerna skapat nya offensiva funktioner åt statliga aktörer, men betonade att ständig vaksamhet är avgörande när hoten utvecklas.


AI-reglering och säkerhetsimplikationer

Incidenten belyser den växande spänningen mellan innovation och kontroll i den globala AI-miljön.
Regeringar och företag måste balansera öppen tillgång mot risken för missbruk av auktoritära regimer.

Säkerhetsexperter varnar för att generativ AI kan påskynda utvecklingen av övervakning genom att automatisera analys, översätta avlyssnad data och skapa falska profiler i stor skala.
Sådant missbruk kan hota yttrandefriheten, särskilt i länder med strikta censurlagar.


Slutsats

Avstängningen av Kina-kopplade ChatGPT-konton visar OpenAIs tydliga hållning mot missbruk av AI.
Genom att stänga dessa övervakningsrelaterade operationer bekräftar företaget sitt engagemang för ansvarsfull AI-användning.

När AI sprids globalt måste plattformar vara vakna för manipulationsförsök som kan förvandla teknik till kontrollverktyg.
Händelsen påminner om att etisk tillsyn måste utvecklas lika snabbt som teknologin själv.


0 svar till ”OpenAI blockerar Kina-kopplade konton”