Vi testar Lens Blur-funktionen i Googles nya kamera-app

Postat:
13:58 - 2014-04-21
Skribent:
| Lars A
Kommentarer:
63

Tillverkare och utvecklare försöker på olika vis kompensera för mobilkamerors relativt klena optik och sensorer. Genom algoritmbaserade filter och effekter är tanken att vi ska få ett resultat som bättre motsvarar det från en systemkamera. Ett vanligt trick är att försöka ge bilder mer djup och sätta motiv i fokus genom att bakgrunden blir suddig – en så kallad bokeh-effekt.

Effekten kommer i stort sett av sig själv med systemkameror men kräver än så länge mjukvara för mobiler. Nya toppmodeller har inbyggda funktioner för detta. I fallet HTC One M8 finns dessutom en extra kamerasensor som bland annat fångar djupinformation och låter fokus flyttas i efterhand.

lg-g2-google-kamera-lens-blur-9
lg-g2-google-kamera-lens-blur-8lg-g2-google-kamera-lens-blur-7

En av huvudnyheterna i Googles nya kamera-app är något företaget kallar för ”linsoskärpa”, även om vi föredrar engelska benämningen Lens Blur. Appen går att installera på alla Androidenheter som kör Android 4.4. I vanliga fall krävs stor lins och bländare för att få till bokeh, men Google Kamera har ambitionen att ge alla smartphones en liknande effekt.

Tekniken tillåter att fokus flyttas i efterhand, precis som i One M8 och Nokia Refocus. Användare kan efter bilden har tagits välja mellan simuleringen av olika bländarstorlekar och rentav nå surrealistiska tilt-shift-effekter. Det är möjligt tack vare algoritmer och genom att användaren behöver dra kameran sakta uppåt, med motivet alltjämt i fokus, när bilden fångas. Appen tar då en rad fotografier.

lg-g2-google-kamera-lens-blur-6
lg-g2-google-kamera-lens-blur-5lg-g2-google-kamera-lens-blur-4lg-g2-google-kamera-lens-blur-3

Därefter skapas en 3D-modell som innehåller djupinformation för omgivningen i bilderna, genom något som kallas Structure-from-Motion (SfM). Nedan illustreras hur informationen om de olika avstånden sparas och sedan bearbetas. Nästa steg är att beräkna djupet för varje pixel genom Multi-View Stereo-algoritmer, som fungerar ungefär som människans syn med två ögon.

lens-blur-google-kamera-3

Genom att veta ett objekts plats i två olika bilder kan objektets 3D-position trianguleras. Hur vet då Google vilken pixel i ena bilden som motsvarar samma pixel i en annan? De kollar helt enkelt hur lika pixlarna är genom RGB-värden och Sum of Absolute Differences (SAD). Därefter följer en serie optimeringar för att i bästa fall skapa ett lyckat slutresultat.

lens-blur-kamera
lg-g2-google-kamera-lens-blur-2lg-g2-google-kamera-lens-blur-1
lg-g2-google-kamera-lens-blur-10

Allt detta låter tjusigt, men hur fungerar det i praktiken? I vanlig ordning ser resultaten bättre ut på mobiler än på stora, högupplösta monitorer – men vi gillar Lens Blur. Största invändningarna vi har är att effekten ibland ser artificiell ut precis kring randen där motivet möter den suddiga bakgrunden. Resultatet blir även ibland mer intressant än verklighetstroget, vilket kan vara både en fördel och nackdel. Vi invände först mot bildernas låga upplösning, men det går att öka storleken i appens inställningar.

Fotografierna i artikeln är tagna med LG G2 och Sony Xperia Z1 Compact, förutom Googles egna exempelbilder. Lens Blur kan i vår mening vara en rolig finess att leka med, som ibland ger spexiga tilt-shift-liknande resultat. Google Kamera finns gratis i Play Store, men kräver som sagt KitKat.

Har ni testat funktionen och hur tycker ni i så fall att den fungerar? Exempelfoton får mer än gärna delas i kommentarsfältet!

lens-blur-google-kamera-2 lens-blur-google-kamera-1

Skriv fritt men var god följ vår kommentarspolicy. Tack!