När du köper ett grafikkort är det svårt att fatta beslut när det finns specifikationer på databladet som vrider tungan när du försöker läsa dem. Pixel shaders, CUDA-kärnor, strömprocessorer, VRAM och minnesgränssnittets bredd kan förvirra många människor som inte är datavetenskapskandidater. Den goda nyheten är att du inte behöver behålla en examen i datavetenskap för att förstå dessa specifikationer. Om du vill köpa ett grafikkort och dess specialblad läser som Klingon eller gamla nordiska runor, är den här artikeln för dig.

Base Clock & Boost Clock

Om du är bekant med processorer, är du redan bekant med klockans koncept. Om du inte är det klockan i huvudsak dikterar hur fort din GPU kommer att köra uppgifter. Basklockan i ett grafikkort är den hastighet som den går utan optimering. Det här är bara dess drift-mode.

Ökad klockhastighet anger hur snabbt GPU kommer att bearbeta information när du kör mycket grafikintensiva operationer. Kortet överklockar sig tillfälligt efter behov så länge GPU inte använder den maximala spänningen som den kan använda och det lider inte av alltför stora temperaturer. Att förstärka när GPU-enheten redan är vid 96 grader Celsius, smälter det till exempel snabbt. Självklart, om din GPU är överallt över 85 grader, har du många fler saker att oroa sig över än dess förmåga att öka klockan.

Memory Interface / Bus Width & Memory Speed

Med ett grafikkort är GPU hästen som driver vagnen. Men hur är vagnen? Hur mycket kostar det? Det är här där minnet kommer in. Vägen till vilken data reser är känd som minnesbussen. Ju bredare bussen är, ju mer data kommer att resa på en gång. En 256-bitars buss tillåter GPU att skicka data vid 256 bitar per cykel. Minneshastigheten är en mätning av hur mycket av denna data som reser per sekund. Båda dessa värden är monumentala för att bestämma hur snabbt ditt kort faktiskt är. GPU-klockan och mängden minne betyder ingenting om bussen inte är tillräckligt bred.

Trots en snabb GPU och en hög mängd minne har vissa kort inte en buss som är tillräckligt bred för att skicka all den informationen fram och tillbaka i stunder av intensiv stress. Detta leder till låga frameratproblem till följd av flaskhalsning av data . Som namnet antyder händer flaskhalsning när det finns mycket data som väntar på att skickas men kanalen den skickas genom är inte tillräckligt stor för att rymma belastningen.

Shadersna

På senare tid har grafikkort undvikit att visa specifikationerna för sina shaders. Det är inte för att de har något att dölja men för att det inte längre är så stort problem längre. Pixel shaders hanterar djupet, kartläggningen och färgen på varje pixel. Vertex-shaders omvandlar 3D-vertikaler till ett 2D-format för visning. Geometry shaders utför mycket tunga grafiska beräkningar som tesselation. Dessa specifikationer visas inte nödvändigtvis på alla grafikkorts specifikationer och du får inte ha problem med dem så länge du får ett kort som inte är för gammalt.

VRAM

Ta bort "V" i VRAM och det är vad det är ett snyggt ord för. VRAM representerar helt enkelt mängden grafisk information som kan lagras på ett grafikkort under ett spel eller annan rendering.

CUDA Cores eller Streaming Processors

Båda dessa saker är likartade. Nvidia använder CUDA-kärnor och AMD använder streamingprocessorer. Var och en av dessa representerar en kärna på GPU som hjälper till med återgivning. CUDA särskiljer sig i att det också kan användas för sambehandling på din dator. SETI @ Home kan till exempel utnyttja dina CUDA-kärnor för att utföra komplex matte. Adobe Premiere Pro använder CUDA för GPU-assisterad rendering. Vissa codecs kan också dra nytta av NVENC, Nvidias kodare, för att omvandla video till H.264 MPEG-video mycket snabbare än din CPU-burk.

Om du fortfarande känner dig lite förvirrad om grafikkortets specifikationer, snälla diskutera det vidare i en kommentar nedan!