Fyra chattläckor från populära ai-tjänster
Publicerad: 2025-08-07
Senast ändrad: 2025-08-07
Vem kan läsa våra ai-chattar? Den frågan har aktualiserats vid fyra tillfällen under den gångna sommaren. Rättstvister, sårbarheter och misstag har gjort att ai-chattar inte varit så privata än användarna trott.
Molnbaserade ai-tjänster är numera en naturlig del av svenska företags digitala verktygslådor. Ai-tjänsterna för med sig många produktivitetshöjande fördelar. De kan korrekturläsa, översätta, transkribera, programmera, researcha och mycket mer därtill. Uttrycket ”jag frågade ChatGPT” hörs snart lika ofta som ”jag googlade”.
Användningen av molnbaserade ai-tjänster introducerar samtidigt nya risker för dataläckor. Det är därför viktigt att företaget har en ai-policy och tydliga riktlinjer kring vilka ai-tjänster som är tillåtna. Läs mer om detta i vår guide ”välj rätt ai-policy för företaget ”.
Risken för att ai-chattar sparas och lämnas ut
När data skickas till en molnbaserad ai-tjänst blir datan tillgänglig för tjänsteleverantören. Tjänsteleverantörens avtal reglerar deras åtkomst till datan på juridisk väg, men rent teknisk kan tjänsteleverantören nästintill alltid komma åt datan (läs mer om undantag i den ovanlänkade guiden).
I början av sommaren blev frågan högaktuell. På grund av en rättstvist mellan OpenAI (ChatGPT) och New York Times tvingades OpenAI att spara alla chattar, inklusive raderade chattar, på obestämd tid.
Right now, the court order forces us to retain consumer ChatGPT and API content going forward. That said, we are actively challenging the order, and if we are successful, we’ll resume our standard data retention practices.
– Brad Lightcap, verksamhetschef (2025-06-05)
Beslutet påverkar gratisversionen av ChatGPT samt Plus-, Pro- och Team-abonnemangen. Enterprise- och Edu-abonnemangen är undantagna. Företag som inte har tecknat sig för någon av de sistnämnda abonnemangen måste ha OpenAI:s datalagringsskyldigheter i åtanke, framför allt när det gäller personuppgifter.
Risken för att ai-chattar läcker via sårbarheter
Ett annan risk som har uppmärksammats under sommaren är risken för att data läcker på grund av sårbarheter. I mitten av juli avslöjade Techcrunch att en säkerhetsforskare hos säkerhetsföretaget Appsecure hade hittat en dataläckande sårbarhet i Metas ai-chattbot.
Metas ai-chattbot låter inloggade användare redigera sina chattpromptar. Varje chattprompt tilldelas ett unikt nummer. Appsecures säkerhetsforskare upptäckte att han kunde byta ut numret på sin egen chattprompt så att Metas servrar skickade tillbaka någon helt annan användares chattprompt.
Meta åtgärdade sårbarheten i januari. I en kommentar till Techcrunch sade Meta att de inte hade några bevis för att sårbarheten hade utnyttjats.
Risken för att ai-chattar läcker av misstag
Under sommaren har vi också fått två exempel på hur ai-chattar har läckts av misstag.
Det första exemplet kom i mitten av juni. Då varnade bland annat cybersäkerhetsspecialisten Rachel Tobac för att Meta AI-användare offentliggjorde sina privata ai-chattar genom appens så kallade Discovery-flöde (ej tillgängligt i Sverige). Användarna verkade ha missförstått Discovery-funktionen och inte insett att den gjorde att deras chattar blev tillgängliga för hela världen.
Tobac hittade bland annat chattar om medicinska problem, otrohetsaffärer och begångna brott. Hon noterade också att chattarna innehöll personuppgifter såsom bostadsadresser.
Det andra exemplet uppmärksammades förra veckan. ChatGPT hade en funktion som lät användare dela ai-chattar med andra användare genom att skapa publika länkar. Användarna gavs samtidigt möjligt att välja om chattarna skulle få indexeras av publika sökmotorer såsom Google.
Tyvärr verkade många användare aktivera publik indexering av misstag, vilket gjorde att deras chattar dök upp i sökresultaten hos bland annat Google och Bing. Genom att dra nytta av sökmotorernas webbplatsfiltrering kunde vem som helst söka efter nyckelord i alla indexerade chattar.

Oavsiktligt delade chattar dök upp i publika sökresultat.
I fredags meddelade OpenAI att skulle stänga av funktionen och att de skulle försöka få de redan indexerade chattarna bortplockade från sökmotorerna.
Ultimately we think this feature introduced too many opportunities for folks to accidentally share things they didn't intend to, so we're removing the option. We're also working to remove indexed content from the relevant search engines. This change is rolling out to all users through tomorrow morning.
– Dane Stuckey, informationssäkerhetschef (2025-08-01)
SSF rekommenderar kombination av ai-policy och utbildningsinsatser
SSF rekommenderar att alla företag skaffar en ai-policy som tydligt beskriver vilka ai-tjänster som är tillåtna samt vilken data som medarbetarna får överföra till tjänsterna i fråga.
SSF rekommenderar även att utbilda alla medarbetare i hur de använder tjänsterna, så att medarbetarna förstår och är medvetna om de förenade riskerna. ChatGPT gör det exempelvis fortfarande möjligt att skapa publika länkar. Publika länkar är inte lösenordsskyddade, så alla som får tag i en chattlänk kan också läsa den tillhörande chatten.
Företag som använder Team- och Enterprise-versionerna av ChatGPT kan begränsa eller stänga av delningsfunktionen för att reducera risken för delningsrelaterade misstag.