24p är 23.976 bilder i sekunden, och kör du med 24p på din TV via Bluray går den i 24hz. Kolla upp input lag kontra uppdateringsfrekvens innan du uttalar dig.
Vad filmen går i för FPS spelar ingen roll. Skärmen uppdateras med angiven specifikation. Däremot, som du säger, så är det bluray (och inte TV-skärmen) som sänker HZ:en. TV-skärmen uppdateras dock fortfarande 100 gånger per sekund.
Lyssna inte på tomtarna här utan kolla på avforums.com och i andra hand på minhemmabio.se så får du korrekta svar och inte åsikter.
Du förstår inte principen. En TV-skärms HZ är helt oberoende av vad det är för något på någon uppspelarapparat.
Du verkar själv ha för mycket kunskap ifrån Google min vän. Svensk tv är renderat i 27fps och film är renderat i 24fps. Sen bestämmer TV:n hur snabbt bilden ska uppdateras, i detta fallet 100 gånger per sekund. Vill du ändra på något?
Om du tar din 100/200hz TV och kör en bluray med 24p kommer blurayen "override:a" din TV och sänka *00Hz till 24Hz
Vilken multipel ger 100Hz från 24 eller 27? Vill man ha en bra bild som TS var inne på ska man strunta i Hz, och bry sig mer om 24p och input lag.
Du märker självklart skillnad på 50 och 100 Hz. Enklast för att få dig själv övertygad är att gå in till Elgitanten, Media Markt eller SIBA för att titta på en 50 respektive en 100 Hz TV. Du ser skillnad. Rent generellt så ger 100 Hz högre detaljrikedom vid rörelser. Detta tjänar man naturligtvis på i sportsammanhang men naturligtvis också i vanliga filmer. Och Hz är uppdateringsfrekvens. Vid panoreringar där mycket av bilden täcks av samma färg syns det imo tydligast. Jag menar absolut att det är värt de extra kronorna. Plasma räknar på ett helt annat vis och kan således inte mätas på exakt samma vis som en LCD eller LED. Där snackar vi pixelvändningar och det är rätt enkelt att mäta upp 600 Hz på en plasma med sub-vaddetnukallas. En plasma kan dock hacka som en gammal 50 Hz TV ändå. Det viktigaste är att du är nöjd med din TV. Gå in till ett varuhus och titta på en TV-vägg där de lirar ut samma signal till alla apparater. Då ser du bäst skillnad. Fråga också säljarna. De är inte farliga.
Och därmed styrker du mitt eget inlägg där jag menar att skärmens HZ är helt oberoende av någon uppspelningsapparat.
Om du ändå bara kollar film och lite TV så behöver du inte 100Hz då räcker det om du kollar bilden på TV:n och 'r du nöjd med allt med bilden så köp den 100Hz+ är ju främst om man typ kopplar in dator och liknande för att spela mycket och ja snabba rörelser (kan tänkas att HD-tv kanske sänds i högre Hz?) Hade jag varit dig och haft dom här kriterierna så hade jag gått till en butik och bara brytt mig om t.ex hur många HDMI jag kan tänkas behöva och om bilden är bra och priset rätt förstås Förstår att du blir förvirrad, blir själv lite förvirrad av detta
Utan att vara allt för insatt vågar jag mig på att Hz-diskussionen när man pratar LCD-skärmar är ungefär likadan som megapixeldiskussionen när det kommer till kameror, det vill säga irrelevant. (...eller ett bra sätt för stormarknaderna att klämma ur ett par kronor till ur dåligt informerade konsumenter)
Ja, frekvensen är hur ofta TV:n uppdateras och har igentligen ingenting att göra med en films bitrate. Däremot så finns det ingen anledning att ha en uppdateringsfrekvens på 100 Hz om materialet man spelar upp inte får någon vinning av det.
Helt otroligt att folk verkligen tror att högre upplösning = bättre kamera. Jag förklarade för en kompis senast igår då hon gnällde på att hennes kamera hade bara 8 MP och att detta skulle vara anledningen till dåliga bilder. Jag förklarade för henne att för att du ens skulle kunna uppleva 8MP var du tvungen att köpa en bildskärm för en halv miljon kronor och att om du så hade haft 50 MP så hade det inte blivit en bättre bild för det. Problemet ligger i att hon inte vet hur man tar bra kort. Ska inte säga att jag vet det, men skyller inte på upplösningen på korten.
Megapixeldiskussionen är inte irrellevant alls. För oss som plåtar gör det ganska stor skillnad vid utskrift och cropmöjligheter om en kamera har 5 Mpx eller 21 Mpx.
Fast vid utskrift gör det ganska avsevärd skillnad. Siffrorna är på ett ungefär och mer en riktlinje på vilken storlek utan kvalitetsförlust som de olika upplösningarna har. 4mp 19 x 14 cm 5mp 21 x 16 cm 6mp 23 x 18 cm 7mp 26 x 19 cm 8mp 27 x 20 cm 9mp 32 x 22 cm 10mp 30 x 23 cm 12mp 36 x 24 cm 16mp 42 x 28 cm och så vidare...
Jag orkar inte citera alla och påpeka flera felaktigheter. Så jag ställer det som en fråga, "håller" väl med ViLANDER. Är det inte helt enkelt att skärmen/TVn uppdateras 100 ggr i sekunden. Oavsett vilken bild det är. Att bilden "den hämtar" är samma bild som frame:en innan är skit samma för skärmen eftersom den uppdaterar sig själv så ofta. Så säg att TV sänds i 50Hz kommer den visa samma bild två gånger hela tiden. Lite "enkelt" sagt. Så visst, den uppfattade effekten bör då inte skilja eftersom källan ändå bara genererar "50 bilder i sekunden". Eller är jag helt ute och cyklar för jag är trött? Har svårt att se att man skulle kunna se sådan stor skillnad, och kolla på tv i affären är i princip att köpa grisen i säcken eftersom man inte har någon koll på hur de sköter settingsen. För övrigt verkar man inte kunna sätta en uppdateringsfrekvens på ögat då det beror på en mängd olika faktorer utöver att "frekvensen" är lägre i periferin. Stress, biologiska faktorer, sakerna är många.