Chattbottar som drivs av stora språkmodeller har en tendens att presentera felaktigheter som fakta. Problemet förstärks av att chattbottarna kan säga saker som inte stämmer på ett självsäkert och självklart vis, utan tvivel.
Även om både OpenAI och Google påpekar att chattbottarna kan ha fel tar många användare för givet att vad de säger är sant. Enligt en undersökning av Newsguard har ingen förbättring skett av OpenAI:s ChatGPT eller av Google Bard under det senaste halvåret gällande felaktigheter.
Newsguard testade hundra slumpmässigt utvalda bekräftade myter i både ChatGPT och Bard. ChatGPT spred vidare 98 av de hundra myterna, medan Bard inte var fullt lika illa genom att fortplanta 80 av hundra felaktigheter.