ksolvik
Aktiv
Innlegg: 8
Registrert: 27.08.2006
E-post
Max_Power
Aktiv
Innlegg: 33
Registrert: 21.08.2006
E-post
Det der lukter svidd. Samsungen har merkbart ferre farger.
knutinh
Hjemmekinoekspert
Innlegg: 128
Registrert: 22.07.2005
E-post
DVD, DVI og eksisterende HDMI har for øyeblikket 3x8 bit, og gir derfor 24 millioner farge-kombinasjoner. Ingen display har tilgang på mer informasjon enn dette, og selv om kommende HD-DVD og HDMI 1.3 standarder vil tillate noe høyere luma-nøyaktighet så vil ingen av dagens tv-er kunne vise dette bildet med mer enn 8bit nøyaktighet såvidt jeg vet.*)
Bits på tv-er har blitt et marketing hysteri. Det har tilsynelatende vært endel dårlige modeller der ute som har gitt dårligere oppløsning enn kilden, enten pga dårlig dsp/algoritmer eller fysiske begrensninger i panelet.
Mitt råd er å se totalt bort fra antall milliarder farger og oppgitt kontrast. Oppsøk butikken og vurder bildene side om side.
Hvis de bare hadde vært i stand til å reprodusere ekte 8-bit (24 millioner farger) spredt over et fornuftig dynamikkområde så tror jeg at de fleste av oss hadde vært fornøyd mesteparten av tida. Veldig få klagde jo på fargeoppløsningen for DVD avspilt på CRT med 8 bit (og siden DVD er komprimert vil den nok i mange situasjoner være under 8 bit). Men 12bit luma vil selvsagt kunne være fordelaktig når skjermteknologien bare catcher opp.
mvh
Knut
*) Det er teoretisk mulig at de har slik båndbredde på analoge komponentinnganger, men dagens HDMI-standard tillater såvidt jeg vet ikke mer enn 8 bits per farge. Jeg tror dog ikke at de opererer med slik nøyaktighet på analoge innganger og de fleste brukere vil uansett bruke digitale oppkoblinger pga stabilitet og HDCP
ksolvik
Aktiv
Innlegg: 8
Registrert: 27.08.2006
E-post
forstår jeg det rett ? - 16 bit er bedre enn 13 bit.. ergo Samsung lyver om 550 milliarder farger
knutinh
Hjemmekinoekspert
Innlegg: 128
Registrert: 22.07.2005
E-post
"ksolvik" skrev:forstår jeg det rett ? - 16 bit er bedre enn 13 bit.. ergo Samsung lyver om 550 milliarder farger
16bit er bedre enn 13 bit. Begge tvene har tilgang på informasjon som faktisk er 8bits derfor er også bildet reelt sett 8 bits begge lyver.
Specs er mangelfull informasjon som er valgt ut for å stille det aktuelle produktet i et godt lys slik at utekniske selgere kan overbevise utekniske kjøpere om at de har gjort et godt kjøp.
Det beste man gjør er å kreve en oppstilling side ved side i butikken (eller enda bedre hjemme hos deg) med enten fabrikkinstillinger eller korrekt kalibrert bilde på begge (siste er best). For så apparatene med: dårlig kabel-tv, DVD og HD-signaler. Helst "ekte" video, altså ikke tegnefilm. Gjerne en film med mange mørke scener og en med bevegelse (sport).
mvh
K
knutinh
Hjemmekinoekspert
Innlegg: 128
Registrert: 22.07.2005
E-post
Ellers:
"vanlig" 3x 8bit RGB gir antall mulige fargekombinasjoner:
2^24 = 16777216 = 16,7 millioner
3x 13 bit RGB gir antall mulige fargekombinasjoner:
2^(13+13+13) = 549755813888 = 550 milliarder
3x 16bit RGB gir antall mulige fargekombinasjoner:
2^(16+16+16) = 281474976710656 = 300000 milliarder
for å få tallet 29 milliarder må man i nærheten av
2^(35) = 34359738368 = 34 milliarder
Det kan man f.eks få ved litt under 12 bit rgb, eller kanskje ved 16bit luma og 9-10 bit per chromakomponent i et YUV-system.
Men nå har jeg glemt hvorfor vi driver med denne tall-leken? Hvem bryr seg om hvilke fiktive tall markedsavdelingen har satt sammen når ingen av skjermene er i nærheten uansett?
-k
ksolvik
Aktiv
Innlegg: 8
Registrert: 27.08.2006
E-post
Ok, da skjønner jeg, takk for alle svar