Google-anställd: Chattbotten Bard är sämre än värdelös

Postat:
20:02 - 2023-04-19
Skribent:
| Lars A
Kommentarer:
10

Vissa Google-anställda var inte nådiga efter att ha provat Bard innan chattbotten introducerades och började betatestas av vanliga användare. Personal ska bland annat ha kallat Bard för en ”patologisk lögnare”, ”pinsam” och ”sämre än värdelös, snälla låt bli att lansera”.

Rapporten om Google-anställdas skepsis kommer från Bloomberg som tagit del av skärmdumpar. Trots dessa invändningar lanserades Bard, även om lanseringen för all del var begränsad och endast ett fåtal personer idag har tillgång till chattbotten.

Den interna kritiken är dock inte nödvändigtvis omfattande då Bloomberg bara har tagit del av invändningar från 18 anställda och före detta anställda på Google. Belackarna menar att Google kompromissat med kvaliteten på chattbotten för att inte hamna på efterkälken och för att kunna konkurrera med OpenAI och Microsoft.

Enligt rapporten har avdelningen som ansvarar för säkerheten och de etiska innebörderna av nya Google-produkter blivit tillsagd att inte ställa sig i vägen för AI-satsningarna. Källan påstår att Googles team som studerar etiken kring AI känner sig maktlöst och missmodigt. Chefer sägs även ha struntat i en intern rapport som ansåg att Bard inte var redo och inte borde lanseras eftersom den kan orsaka skada.

Google säger i en kommentar till Bloomberg att ansvarsfull artificiell intelligens är företagets högsta prioritet. Sökjätten är knappast ensam om dessa initiala problem i chattbottar, då de återfinns både i ChatGPT och i Bing (som kunde bli fullkomligt galen). Utvecklarnas inställning tycks vara att bristerna spelar mindre roll så länge de varnar om att chattbottarna kan ha fel och säger att de är ”experiment”.