Google-assistenten kommer bli bättre på att förstå oss

Postat:
20:18 - 2022-05-11
Skribent:
| Lars A
Kommentarer:
9

Google-assistenten kommer bli bättre på att förstå oss, även när vi pratar som folk gör mest med små pauser, rättningar och utfyllnadsord. För att lyckas med detta bygger Google nya kraftfulla tal- och språkmodeller som förstår nyanserna i mänskligt tal.

Inlägget nämner samtidigt Googles egna Tensor-chipp vilket har specialanpassats för att hantera lokal maskininlärning blixtsnabbt. Systemkretsen sitter i Pixel 6 och Pixel 6 Pro och förväntas även sitta i Pixel 6a.

Looking ahead, Assistant will be able to better understand the imperfections of human speech without getting tripped up — including the pauses, “umms” and interruptions — making your interactions feel much closer to a natural conversation.

En annan nyhet relaterad till Google-assistenten är ”look and talk” för Nest Hub Max. Användare kommer helt enkelt kunna titta på enhetens skärm och ställa en fråga, utan att först behöva säga ”hey google”. Finessen är valfri och kan utnyttja både ansikts- och röstigenkänning för att verifiera användarens identitet.

I början är ”look and talk” endast tillgänglig i USA på engelska.