varför hände det inte? –

Om du någonsin har undrat hur det är möjligt att vi inte har sett det definitiva språnget till HDR-skärmar, lämnar SDR åt sidan, fortsätt läsa och du kommer att hitta anledningen.

Vad är HDR och hur skiljer det sig från SDR?

HDR är en akronym för High Dynamic Range, det bygger på att öka antalet bitar per RGB-komponent från 8 bitar till 10 bitar eller till och med 12 bitar, men HDR är inte baserat på att öka chroma och därmed antalet färger, utan snarare deras ljusstyrka, vilket ger mer ett högt intervall av ljusstyrka och kontrast för varje färg och deras bästa representation.

Men medan 24-bitars färgskärmar snabbt ersatte bildskärmar med lägre färgupplösningar, är detsamma inte sant för HDR-baserade bildskärmar, där vi fortfarande kan hitta ett stort antal av dem som inte stöder dem. Övergången genomfördes således aldrig fullt ut.

En anledning är att HDR är svårt att marknadsföra på en skärm som inte stöder detta färgområde, varför det i en tidevarv av internetmarknadsföring är svårt att visa vad som är baserat på den visuella uppfattningen av människor och vad de inte kan se . …

Krom och ljusstyrka

Varje pixel som renderas på skärmen är förlagrad i en bildbuffert som lagrar värdena för tre RGB-komponenter: röd, grön och blå. Men det speciella med denna metod för att lagra information är att inte bara kromaticitet bevaras, utan också nivån av ljusstyrka, vilket är nivån av färg eller ljusstyrka för denna färg.

På äldre TV-apparater som inte hade färg representerades bilder av ljusstyrkavärden, och när färg dök upp separerades de två värdena. Men när det gäller datoranvändning, även om CRT-skärmar har använts i nästan tre decennier, faktiskt på nivån för intern representation i bildbufferten, representerades båda på samma sätt.

Länge var maxrepresentationen i färg 24 bitar av färg, vilket ger 16,7 miljoner olika kombinationer, denna typ av skärm kallas SDR-skärmar för att skilja dem från HDR-skärmar som stödjer mer information per pixel, från 10 och till och med upp till 12 bitar per komponent.

HDR och grafikåtergivning i realtid

HDR kan representeras på två sätt:

  • Det första är att lägga till fler bitar per komponent till alla pixlar i bildbufferten.
  • Det andra är att lägga till en ny komponent.

Båda lösningarna är vettiga när det kommer till att spela upp stillbilder och videofiler, men i fallet med GPU:er som används för att rendera 3D-scener i realtid blir det mer komplicerat eftersom det innebär att alla GPU:er de manipulerar pixeldata med å ena sidan, och å andra sidan måste de som överför samma data förbättra sin noggrannhet.

Det finns därför ett behov av GPU:er med ett stort antal transistorer, och det betyder att GPU:er är större vid samma effekt, eller mindre kraftfulla om storleken bibehålls. Tillverkarens beslut? För det andra leder det till att spelprestanda i HDR-läge är lägre än vid rendering i SDR.

GPU:er designades aldrig för HDR, utan SDR

Om vi ​​ökar antalet informationsbitar per pixel, logiskt när vi flyttar data genom renderingen, kommer vi att upptäcka att den erforderliga bandbredden kommer att vara mycket högre, vilket kan leda till en prestandaminskning om mellan minnet i vilket data lagras och enheten som bearbetar det, de rör sig inte tillräckligt snabbt.

Men. Att flytta information inom processorn är dyrt, speciellt när vi pratar om strömförbrukning, vilket är en av anledningarna till att ingen GPU på senare år har förberetts för att hantera värden per pixel över 8 bitar per komponent. Eftersom den viktigaste faktorn i designen av nya processorer är den största förutsättningen för prestanda på lång sikt effekt per watt.

Om, som andra teknologier, GPU:er var designade för HDR, då skulle denna teknik vara helt standardiserad, och nu skulle all PC-hårdvara och mjukvara utvecklas för HDR, dessutom skulle den användas av alla.

Relaterade artiklar

Back to top button