Metas AI-botpolicy är under hård kritik när den amerikanske senatorn Josh Hawley inleder en utredning om hur företagets chatbottar interagerar med minderåriga. Utredningen följer på läckta dokument som tyder på att Metas bottar kunde engagera sig i olämpliga, till och med romantiska, konversationer med barn. Dessa avslöjanden har väckt starkt ramaskri och förstärkt kraven på striktare tillsyn.
Läckta riktlinjer väcker oro
Kontroversen bröt ut när interna dokument visade riktlinjer som tillät chatbottar att använda känsligt språk med minderåriga. Ett exempel antydde till och med att bottar kunde ge komplimanger om ett barns kropp med romantiska undertoner. Även om Meta tog bort formuleringen efter kritik, belyste läckan allvarliga brister i företagets säkerhetsstrategi. Kritiker menar att detta visar att företaget prioriterade snabbhet och innovation framför barns skydd.
Senator Hawleys krav
Som svar skickade senator Hawley ett formellt brev till VD Mark Zuckerberg. Han begärde utkast till riktlinjer, interna riskbedömningar och tillsynsrapporter kopplade till AI-bottarnas interaktioner med minderåriga. Utredningen söker också detaljer om Metas kommunikation med tillsynsmyndigheter samt dokumentation av eventuella ändringar efter den offentliga granskningen.
Hawley hävdar att föräldrar har rätt till transparens och att Meta måste hållas ansvarigt för att ha utsatt barn för fara. Syftet med utredningen är att avslöja hur sådana riktlinjer kunde godkännas och om företagsledningen ignorerade potentiella risker.
Offentlig och politisk kritik
Läckan av riktlinjerna utlöstes kraftig kritik från båda politiska läger. Lagstiftare krävde omedelbara reformer för att förhindra ytterligare skada. Även offentliga personer reagerade – artisten Neil Young tog bort sin närvaro från Facebook i protest. Kritiker anklagar Meta för att ha misslyckats med att prioritera säkerhet, trots åratal av varningar om farliga plattformsdesignval.
En bredare debatt om AI-säkerhet
Detta fall bidrar till en växande debatt om AI-reglering. Lagstiftare och barnskyddsorganisationer menar att chatbottar innebär unika risker för minderåriga. Lagstiftning som Kids Online Safety Act, som antogs 2024, återspeglar det ökande trycket på teknikföretag att bygga in skyddsmekanismer i sina produkter.
Metas misstag visar hur snabbt AI-verktyg kan orsaka skada utan tydliga skyddsräcken. Tillsynsmyndigheter ser nu detta fall som en varningssignal för hela branschen.
Slutsats
Metas AI-botpolicy granskas nu som aldrig förr. Senator Hawleys utredning sätter press på företaget att avslöja hur systemen fungerar och vilka skydd som finns på plats. Utfallet kan forma framtida lagstiftning och tvinga fram stora förändringar i hur AI interagerar med sårbara användare. Genom att bemöta dessa frågor öppet kan Meta återuppbygga allmänhetens förtroende – eller riskera ytterligare skador på sitt rykte.


0 svar till ”Meta AI-botpolicy granskas av senaten på grund av oro för barns säkerhet”