Google har inlett ett samarbete med amerikanska chipptillverkaren Movidius med målet att Androidmobiler ska få maskinintelligens utan hjälp av beräkningskraft i molnet. Genom Movidius fristående och strömeffektiva chipp MA2450 kan enheterna identifiera exempelvis ansikten och objekt i realtid, helt på egen hand.
Liknande teknik finns redan i Google Translate, men tanken är att Androidenheter inte bara ska kunna läsa av text i omgivningen utan alla objekt – förstå att en hund är en hund, att en blomma är en blomma, känna igen bekanta ansikten, och så vidare. Plattformen kan även identifiera olika ljud.
Movidius har tidigare samarbetat med Google på Project Tango – ett mobilsystem som registrerar omgivningen i 3D. Tekniken kan vara särskilt fördelaktig för personer med synfel.
This agreement enables Google to deploy its advanced neural computation engine on Movidius’ ultra-low-power platform, introducing a new way for machine intelligence to run locally on devices. Local computation allows for data to stay on device and properly function without internet connection and with fewer latency issues. This means that future products can have the ability to understand images and audio with incredible speed and accuracy, offering a more personal and contextualized computing experience.