Daar het voorheen 720p @ 50fps was is het nu 1080i @ 25fps net zoals VTM HD.

Als je niet weet hoe de encoding is gedaan kan je dat niet zomaar zeggen. Indien men registreerd aan 1080p en dit converteerd naar 1080i is er geen enkel probleem (want dan zijn de twee interlaced frames van hetzelfde oorspronjkelijke frame en merk je er niets van).selder schreef:Liever 720p dan 1080i, zéker tijdens actiescenes... En nog meer met zo'n lage bandbreedte...
Uh. Wie gaat die moeite doen?r2504 schreef:
Als je niet weet hoe de encoding is gedaan kan je dat niet zomaar zeggen. Indien men registreerd aan 1080p en dit converteerd naar 1080i is er geen enkel probleem (want dan zijn de twee interlaced frames van hetzelfde oorspronjkelijke frame en merk je er niets van).
Dat is iets waar jij niet van wakker moet liggen... dat is aan de bron of bij de broadcaster.selder schreef:Uh. Wie gaat die moeite doen?
Nogmaals... als je niet weet naar wat je kijkt kan je hier niet over oordelen. Vroeger was de meeste camera hardware te traag om 1080p te doen, men deed dan twee beelden aan 540 lijnen (na elkaar, met de gekende verschuiving) om tot 1080i te komen. Vandaag is de camera hardware wel snel genoeg om 1080p te registreren en doet men één 1080p beeld wat men splitst in twee 540 beelden (wat jou TV uiteindelijk terug omzet in één beeld met 1080 lijnen... maar zonder de verschrikkelijke verschuiving).selder schreef:Trouwens, alles wat ik al ooit van 1080i gezien heb is al steeds slechtere kwaliteit dan 720p geweest.
Eén woord... bandbreedte ! Een 1080p signaal vraagt nu éénmaal dubbel zoveel als een 1080i signaal.degrotejan schreef:Hmm, ik begrijp gewoon niet waarom men anno 2013 nog steeds met interlacing werkt.
inderdaad. wat is het nut van VTM in HD?Electribe schreef:Of het nu SD, HD of zelfs Ultra HD is, zolang Telenet en Belgacom blijven vasthouden aan die belachelijk lage bitrates zal het steeds een blokjesfestijn zijn in snelle scenes.
Als bandbreedte de echte reden was, kon men evengoed de resolutie en bitrate wat lager zetten, of met variabele framerate beginnen werken.r2504 schreef:Eén woord... bandbreedte ! Een 1080p signaal vraagt nu éénmaal dubbel zoveel als een 1080i signaal.
Telenet mag niet zo maar de bbc of npo zenders in HD gaan uitzenden zonder daar extra voor te betalen, vermoed ik. Zolang de vraag daarnaar kleiner is dan die van vtm zal je het moeten doen met de kotmadam in HD (of whatever dat ze tegenwoordig uitzenden)toerist schreef:offtopic :hebben ze daarvoor onze analoge zenders allemaal weggesmeten om ons te verplichten te kijken naar VTM in hoogste kwaliteit?
is niet door kwaliteit beeld te verhogen dat kwaliteit programma's verhoogt hoor
Beide hebben evenveel pixels (interlaced over twee beelden dan wel), maar progressive is aan 50 fps, terwijl interlaced slechts aan 25 fps is.degrotejan schreef:Een 1080i signaal vraagt trouwens niet de helft van de bandbreedte als een 1080p zoals jij beweert
De MPEG-2 standaard (en volgens mij h.264 ook) gaan interlacede beelden nooit zomaar als full-frame gaan encoderen, dat zou volgens mij lelijke ghosting-effecten opleveren (zeker met die lage bitrates van telenet). Deze worden eerst uit elkaar gehaald. Probleem is volgens mij dat je dan met een tekort aan informatie zit om een goede fft te kunnen uitvoeren, waardoor aanzienelijk hogere bitrates nodig zijn voor dezelfde kwaliteit, maar ik zou het moeten opzoeken om zeker te zijn.r2504 schreef:Misschien dat progressive een betere compressie heeft... maar die is zeker niet dubbel zo efficient als interlaced.
Ik denk dat dergelijke discussies boven ons petje gaan trouwens... tenzij hier iemand encoders ontwikkeld.degrotejan schreef:De MPEG-2 standaard (en volgens mij h.264 ook) gaan interlacede beelden nooit zomaar als full-frame gaan encoderen, dat zou volgens mij lelijke ghosting-effecten opleveren (zeker met die lage bitrates van telenet). Deze worden eerst uit elkaar gehaald. Probleem is volgens mij dat je dan met een tekort aan informatie zit om een goede fft te kunnen uitvoeren, maar ik zou het moeten opzoeken om zeker te zijn.
Dus jij zou liever 1080p aan 4 Mbps hebben dan 1080i aan 8 Mbps ? Moest het zo eenvoudig zijn dan zouden we ondertussen wel allemaal 1080p gebruiken veronderstel ik.degrotejan schreef:als bandbreedte het probleem is, dan kun je evengoed de resolutie/bitrate wat lager zetten.
De consument weet hier gewoon niets vanaf... laat staan dat het een kwelling is. Ik kom regelmatig nog op plaatsen waar mensen hun decoder hebben aangesloten via SCART (en dan nog wel in composite ook) en volgens hun HDTV hebben omdat ze het HD logo in beeld zien !degrotejan schreef:Interlacing in het digitale tijdperk is gewoon een kwelling voor consument en producent die reeds voor menige verwarring heeft gezorgd.
Opnieuw, de meerkost aan bandbreedte is geen factor twee. Wat men bv. ook kon gedaan hebben is transmissie met 540 fullframe beeldlijnen, maar dat zou te eerlijk geweest zijn vermoed ik. Bijkomend voordeel is dan ook dat je minder bibbering op het scherm zou hebben als je bv. een traag bewegend camerabeeld hebt. Dat laatste was een van de voorbeelden die de vrt aanhaalde als argument om voor 720p te gaan. Ik ben eerlijk gezegd verrast dat ze nu terugkomen op deze beslissing.r2504 schreef:Dus jij zou liever 1080p aan 4 Mbps hebben dan 1080i aan 8 Mbps ? Moest het zo eenvoudig zijn dan zouden we ondertussen wel allemaal 1080p gebruiken veronderstel ik.
En hoe ga je de consument binnen een paar jaar gaan vertellen dat hun full-hd tv nu eigenlijk toch niet echt "full" genoeg is om 1080p te kunnen weergeven? Hoe ga je de leek uitleggen waarom zijn dvd-rips die vervelende horizontale lijntjes bevatten als hij ze op zijn pc afspeelt? Hoe ga je de leek uitleggen waarom zijn televisieopnames wazig zijn bij snelle actiescenes? Je geeft zelf aan hoe moeilijk de mensen het al hebben om in te zien dat ze geen digitale kwaliteit via peritel zullen krijgen. Toegegeven, de situatie is nu vele beter dan pakweg 10 jaar geleden, toen een goede real-time deinterlacer gewoon niet bestond (hulde voor de makers van yadif).r2504 schreef: De consument weet hier gewoon niets vanaf... laat staan dat het een kwelling is. Ik kom regelmatig nog op plaatsen waar mensen hun decoder hebben aangesloten via SCART (en dan nog wel in composite ook) en volgens hun HDTV hebben omdat ze het HD logo in beeld zien !
Hangt er van af wat de bron is. Voor hollywoodfilms staat het meestal in 1080p24 of 1080p25.apestaart schreef:En hoe zit dat met de weergave van blu-ray discs, hebben die ook een beeldresolutie van 1080p?
Heb je daar enige bron van... ik wil er een deel in meegaan maar he blijft wel een meerkost.degrotejan schreef:Opnieuw, de meerkost aan bandbreedte is geen factor twee.
Vanwege de reden die ik al verschillende keren gepost heb... vroeger filmde men met camera's in 1080i wat zorgde voor twee beelden op een verschillend tijdstip... vandaag gebruikt men 1080p camera's en split men het beeld terug in twee (maar beide beelde zijn van hetzelfde tijdstip zodat er ook geen probleem is als je ze terug gaat samenvoegen).degrotejan schreef:Bijkomend voordeel is dan ook dat je minder bibbering op het scherm zou hebben als je bv. een traag bewegend camerabeeld hebt. Dat laatste was een van de voorbeelden die de vrt aanhaalde als argument om voor 720p te gaan. Ik ben eerlijk gezegd verrast dat ze nu terugkomen op deze beslissing.
Nogmaals... de consument snap hier niets van en het laat hem ook gewoon koud. Geef hem morgen een oud analoog toestel, zet het UHD logo ergens op het scherm en hij zal zeggen dat z'n beeld fantastisch is ! De mensen die het verschil wel kennen weten ook wel waarover het gaat.degrotejan schreef:En hoe ga je de consument binnen een paar jaar gaan vertellen dat hun full-hd tv nu eigenlijk toch niet echt "full" genoeg is om 1080p te kunnen weergeven?
De beelden in het archief zijn gewoon de native versies... en vroeger was dat interlaced om dat progressive apparatuur gewoon te duur was. Hetzelfde probleem heb je nu trouwens ook met UHD, en wat zal weer het volgende zijn ?degrotejan schreef:Voor programmamakers is dit eveneens een kwelling. Hoe moet de vrt zijn beelden nu opslaan in hun archief? Hoe moet een tvmaker zijn postprocessing doen? Interlaced, of niet? Conversie van progressive naar interlaced is niet moeilijk, de weg terug is dat helaas wel.
Citaat uit de x264 manual:r2504 schreef: Heb je daar enige bron van... ik wil er een deel in meegaan maar he blijft wel een meerkost.
http://www.afterdawn.com/glossary/term. ... eld_coding-tff
Enable interlaced encoding and specify the top field is first. x264's interlaced encoding uses MBAFF, and is inherently less efficient than progressive encoding. For that reason, you should only encode interlaced if you intend to display the video on an interlaced display (or can't deinterlace the video before sending it to x264). Implies --pic-struct.
Als dat waar is (ik heb zelf geen telenet hd tv thuis), dan is wat men uitzend eigenlijk geen 1080i/25, maar 1080p/25 in een 1080i/25 carrier (t.t.z. je hebt geen 50 unieke fields/sec meer). In dat geval heb je inderdaad geen bibberend beeld meer, maar uw temporele resolutie is wel gehalveerd. Het is kiezen tussen twee kwaden.r2504 schreef: Vanwege de reden die ik al verschillende keren gepost heb... vroeger filmde men met camera's in 1080i wat zorgde voor twee beelden op een verschillend tijdstip... vandaag gebruikt men 1080p camera's en split men het beeld terug in twee (maar beide beelde zijn van hetzelfde tijdstip zodat er ook geen probleem is als je ze terug gaat samenvoegen).
Dat vind ik jammer, en eigenlijk is dat ook gewoon de mensen bedriegen. Mensen kopen een `HD TV' in de gedachte dat ze vooruitgang hebben, en dan krijgen ze uiteindelijk een beeld dat in sommige gevallen zelfs inferieur is aan dat van vroeger. Enfin, het is inderdaad niet de eerste keer dat de audio/video industrie de consument een oor aannaait.r2504 schreef: Nogmaals... de consument snap hier niets van en het laat hem ook gewoon koud. Geef hem morgen een oud analoog toestel, zet het UHD logo ergens op het scherm en hij zal zeggen dat z'n beeld fantastisch is ! De mensen die het verschil wel kennen weten ook wel waarover het gaat.
Video resampling en temporele decimatie is op zich al erg genoeg, maar het probleem is dat toekomstige standaarden interlacing niet meer zo goed gaan ondersteunen. Dan zit je daar met een archief vol materiaal dat eerst geconverteerd moet worden vooraleer je het kan uitzenden. Als je zoals de BBC bv. je archief ook wilt commercialiseren heb je er alle belang bij om een uniforme standaard te hebben.r2504 schreef: De beelden in het archief zijn gewoon de native versies... en vroeger was dat interlaced om dat progressive apparatuur gewoon te duur was. Hetzelfde probleem heb je nu trouwens ook met UHD, en wat zal weer het volgende zijn ?
Maar 1080p blijft overhead... welke men dan gaat reduceren door een grotere compressiefactor te gebruiken waardoor je inderdaad een subjectief idee kan vormen over de beeldkwaliteit.degrotejan schreef:Ik kan niet direct een artikel vinden die een concreet getal plakt op de meerkost, maar allen geven ze aan dat er serieuze verliezen zijn voor het 1080i geval.
Ik beweer ook niet dat het DE reden was, vergeet trouwens niet dat in die tijd men niet beschikte over de encoders die we vandaag de dag hebben. De belangrijkste reden was volgens mij dat de electronica voor 1080p materiaal toen gewoon onbetaalbaar was.degrotejan schreef:Opnieuw: mijn punt is dat interlacing een slechte methode is om bandbreedte te besparen, en het lijkt me daarom ook sterk dat men inderdertijd interlacing in de standaard heeft opgenomen om die redenen.
Is het dat niet steeds ?degrotejan schreef:Het is kiezen tussen twee kwaden.
Standaarden zijn altijd tijdelijk... tot er de volgende standaard is !degrotejan schreef:heb je er alle belang bij om een uniforme standaard te hebben
Maar als je bij progressief beeld een even goede SNR hebt bij lagere bitrate is dat geen probleem.r2504 schreef:Maar 1080p blijft overhead... welke men dan gaat reduceren door een grotere compressiefactor te gebruiken waardoor je inderdaad een subjectief idee kan vormen over de beeldkwaliteit.
Het was 20 jaar geleden reeds duidelijk dat interlacing vele problemen geeft bij digitale transmissie. Het consortium die indertijd de standaard heeft vastgelegd was dan wel vrij kortzichtig. Daar ik weiger te geloven dat die ingenieurs kortzichtig waren, kan ik alleen maar concluderen dat dit om commerciële en protectionistische redenen was.r2504 schreef:Ik beweer ook niet dat het DE reden was, vergeet trouwens niet dat in die tijd men niet beschikte over de encoders die we vandaag de dag hebben. De belangrijkste reden was volgens mij dat de electronica voor 1080p materiaal toen gewoon onbetaalbaar was.
Niet noodzakelijk. Een goede temporele en spaciale resolutie is best mogelijk. Maar momenteel is het noch het één, noch het ander. Blijkbaar verkiest men kwantiteit over kwaliteit.r2504 schreef:Is het dat niet steeds ?
Surround of stereo is amper een verschil in bandbreedte (maar vermoedelijk wel in de rechten).ringlord schreef:Als ik mocht kiezen tussendan koos ik het eerste
- 720p en Surround
- 1080i en Stereo
Zou het ook niet te maken kunnen hebben met de licensiekosten voor dolby digital + de aparatuur die daarvoor nodig is?r2504 schreef:Zoals ik al schreef kost de aankoop van een film/serie MET surround volgens mij meer dan louter de stereo versie.
Blijkbaar zien de zenders geen voordeel in de meerkost.