Minne mellan RAM och CPU för förbättrad prestanda –

För några dagar sedan hade Apple ett patent som nämnde användningen av Cache DRAM i en av dess framtida processorer, ett koncept som, även om det kan låta exotiskt, inte är det, så vi ska avmystifiera det.

DRAM som cache, kontrovers

Allt nuvarande RAM som används utanför processorn är av typen DRAM eller Dynamic RAM, medan minnet som används inuti processorerna är statiskt RAM eller SRAM. Båda fungerar ungefär likadant när det gäller dataåtkomst, men de är inte samma i hur de lagrar en del minne.

DRAM är mycket billigare, men kräver till sin natur konstant uppdatering, och dess åtkomsthastighet är långsammare än SRAM, så det används vanligtvis inte i processorer. Å andra sidan skalar den mindre bra än DRAM, så även om IBM har använt DRAM som sista nivås cache i sina HPC-processorer, POWER, kommer de att använda SRAM i nästa generation. Minne.

Begreppet cache-minne, som är förknippat med SRAM-minne, sammanfaller alltså i princip inte med begreppet DRAM, och även om vi har att göra med IBM-processorer kommer vi inte att prata om att använda DRAM-minne som en cache inuti processorn.

DRAM-cache och HBM-minne som exempel

DRAM-cache är konceptet att lägga till ett extra lager till minneshierarkin mellan processorns sista lagercache och huvudsystemminnet, men byggt genom DRAM med en snabbare åtkomsthastighet och lägre latens än DRAM som används som huvudminne.

Ett sätt att uppnå detta är att använda HBM som en DRAM-cache, vilket är en typ av DRAM där olika minneskretsar staplas och ansluts vertikalt med hjälp av en kabel som kallas TSV, eller loop-through-vägar. kisel genom att de passerar genom mikrokretsarna. Denna typ av anslutning används också för att bygga 3D-NAND-minne.

Eftersom anslutningen är vertikal behövs en adapter som är en bit elektronik i form av ett kort som ansvarar för kommunikationen mellan processorn och HBM-minnet. Både CPU eller GPU/GRAFISK PROCESSOR är installerad på den angivna adaptern, vilket på grund av det lilla avståndet gör att HBM-minne kan fungera som en typ av DRAM med lägre latens än klassiska DDR- och GDDR-minnen.

Det bör förtydligas att om DRAM var närmare processorn, eftersom 3DIC-konfigurationen placerar den något ovanför den, skulle latensnivån jämfört med HBM-minne vara lägre, och därför är åtkomsthastigheten högre, på grund av det faktum att elektroner har färdats en kortare sträcka.

Vi använde HBM-minne för att ge dig en idé, men alla typer av minne fungerar som ett exempel i en 2.5DIC-konfiguration.

Men standardmellanlägget räcker inte

Nästa problem är att cachen inte fungerar på samma sätt som RAM, eftersom processorns datahämtningssystem inte kopierar instruktionsraderna från RAM en efter en, utan snarare minnessystemet. Cachen kopierar minnesbiten där den aktuella kodraden är på den sista nivån i cachen.

Den sista nivån lagrar processorcachen, som används av alla kärnor, men när du kommer närmare den första nivån blir de mer privata. Det bör förtydligas att, i fallande ordning, innehåller varje cachenivå ett fragment av föregående cache. När processorn letar efter data, letar den efter dem i stigande ordning av cachenivåer, där varje nivå har mer kapacitet än den förra.

Men för att HBM-minnet ska bete sig som ett cacheminne behöver vi ett element som kopplar processorn till det specificerade minnet, en mellanenhet för att ha den nödvändiga kretsen för att bete sig som ett cacheminne. Således kan en konventionell omvandlare inte användas och ytterligare kretsar måste läggas till den för att tillåta HBM:n att bete sig som en sekundär minnescache.

Relaterade artiklar

Back to top button