ChatGPT verkar kunna läcka ut privata samtal [Uppdaterad]

Postat:
15:14 - 2024-01-30
Skribent:
| Lars A
Kommentarer:

Chattbottar påpekar att användare inte ska lämna ut privata uppgifter, men vad som skrivs ska för den sakens skull inte behöva läcka ut till andra. Enligt en ChatGPT-användare Arstechnica varit i kontakt med delade ChatGPT plötsligt andras samtal, genom att placera de externa samtalen i historiken.

Konversationerna innehöll bland annat användarnamn och lösenord för ett supportsystem som någon ogenomtänkt hade lämnat ut till ChatGPT under en felsökning. ChatGPT har haft liknande buggar och integritetsfadäser tidigare, som när chattbotten började visa titlar från någons chatthistorik för andra användare.

Många företag har idag en policy som förbjuder anställda från att använda chattbottar (annat än eventuell intern chattbott), just på grund av risken att proprietär eller känslig data läcker ut.

Uppdatering: Enligt OpenAI har ingen data läckt ut; personen har istället blivit hackad.