Tiltakene for psykisk helse i GPT-5.2 står nå i fokus etter at OpenAI har lansert en oppdatert versjon av sin flaggskipmodell, samtidig som granskingen øker rundt hvordan AI-systemer responderer på brukere i emosjonell krise. Utrullingen skjer mens OpenAI møter juridisk press knyttet til påstander om at tidligere ChatGPT-modeller ikke i tilstrekkelig grad klarte å dempe eller avlede skadelige samtaler.

Tidspunktet understreker de økende forventningene til sterkere sikkerhetskontroller i generative AI-plattformer.

Hva OpenAI har endret i GPT-5.2

OpenAI opplyser at GPT-5.2 innfører forbedrede deteksjonsmekanismer som er utviklet for tidligere å identifisere tegn på emosjonell krise, selvmordstanker og alvorlig psykisk belastning i samtaler. Når slike signaler oppdages, skal modellen endre atferd, bort fra åpne dialoger og over mot tryggere og mer kontrollerte svar.

Selskapet beskriver oppdateringen som et skifte der forsiktighet prioriteres fremfor engasjement. I praksis innebærer dette å begrense spekulative eller forsterkende svar og i stedet veilede brukere mot ekstern hjelp i den virkelige verden, fremfor å fortsette sensitive utvekslinger med AI-systemet.

Utvidede beskyttelser for sårbare brukere

Et sentralt fokus i tiltakene for psykisk helse i GPT-5.2 er alderssensitiv håndtering og forbedret kontekstuell risikoforståelse. OpenAI har fremhevet sterkere beskyttelse for yngre brukere og tydeligere sikkerhetsbarrierer når samtaler involverer vrangforestillinger, paranoia eller emosjonell avhengighet.

Modellen er også utformet for å unngå å validere skadelige oppfatninger eller fremstille seg selv som en erstatning for profesjonell hjelp. Endringene gjenspeiler langvarig kritikk om at samtalebasert AI utilsiktet kan forsterke farlige narrativer når beskyttelsesmekanismer er utilstrekkelige.

Juridisk press avdekker sikkerhetshull

Lanseringen av GPT-5.2 kommer etter at det er reist et søksmål om uaktsomt drap, der det hevdes at interaksjoner med tidligere versjoner av ChatGPT bidro til et tragisk drap–selvmord. Søksmålet påstår at chatboten ikke klarte å avbryte eller omdirigere samtaler i en periode med alvorlig psykisk ustabilitet.

OpenAI bestrider anklagene, men saken har forsterket debatten om hvilket ansvar AI-utviklere har når systemene deres samhandler med sårbare personer. Den reiser også spørsmål om hvordan ansvar bør fordeles når skade oppstår uten direkte menneskelig involvering.

Bredere konsekvenser for AI-utvikling

Eksperter påpeker at ingen AI-systemer kan erstatte kvalifiserte fagpersoner innen psykisk helse. Samtidig øker forventningene til ansvarlig atferd i takt med at samtalemodeller tas i bruk i stadig større omfang.

Tiltakene for psykisk helse i GPT-5.2 signaliserer et skifte mot mer tilbakeholdne AI-responser i høyrisikosituasjoner. Lignende tilnærminger forventes å bli standard i bransjen etter hvert som regulatorer, domstoler og brukere stiller strengere krav til tydelige grenser.

Konklusjon

Tiltakene for psykisk helse i GPT-5.2 gjenspeiler en økende erkjennelse av at generativ AI må balansere kapasitet med tilbakeholdenhet. Selv om oppdateringen representerer et forsøk på å redusere skade, viser de pågående juridiske utfordringene hvor krevende det er å håndtere emosjonell risiko i stor skala. Hvor effektivt disse tiltakene fungerer i praksis, vil forme fremtidige forventninger til AI-sikkerhet og ansvarlighet.


0 svar til “OpenAI innfører sterkere sikkerhetstiltak etter at GPT-5.2 vekker bekymringer om psykisk helse”