I spelvärlden har det varit ett senare drag av stora förlag att släppa sina spel med 64-bitars support. World of Warcraft, trots att den kördes i flera år på 32-bitars, patchades för 64-bitars support. Många har bestämt att detta är det sätt som spelningen skulle gå vidare. Men varför är exakt 64-bitars support så viktigt för vissa spel? Med utgåvan av EAs The Sims 4 med 32-bitars support var det en del debatt om spelet skulle ha expanderat till 64 bitar, åtminstone för maskiner som var kompatibla. Varför är detta?

Vad gör 64-bitars support?

För att förstå varför folk önskar stöd för 64-bitars spel och applikationer, måste vi förstå vad 64-bitars betyder. Din CPU hanterar uppgifter med en viss maximal bitbredd. CPU: n har register som är fasta i vissa storlekar (8-bitars, 16-bitars, 32-bitars och 64-bitars). Det största registret bestämmer vad som är det största numret som kan skickas direkt till CPU utan extra instruktioner. I 32-bitars processorer är det 2, 147, 483, 647 eller 4, 294, 967, 295. Det beror på om du använder signerade heltal (som tillåter negativa värden) eller deras osignerade (positiva värden) ekvivalenter.

64-bitars processorer tillåter mycket, mycket större antal att passera in i CPU (det maximala värdet är 18.446.744.073.709.551.615 för osignerade heltal).

Den grundläggande idén att du ska kunna ta bort från detta är att 64-bitars CPU: er tillåter mycket större antal när du utför snabba beräkningar och hämtar adresser i minnet. Därför stöder 32-bitars processorer endast upp till 4 GB minne. Talar om minne

Du får större adressrum.

När ett spel skulle börja skjuta gränserna för minnet för systemet som körde det, skulle det vara ett tryck för att försöka arbeta inom dessa begränsningar, vilket innebar att det inte var några problem att kaka saker som tecken och föremål. Låt oss ta The Sims 4 till exempel. När spelstaten ändras måste den ladda om alla tecken precis som du gör när du laddar spelet först. Det cachar inte dem (vilket skulle göra laddningstiderna mycket snabbare) eftersom minnet är begränsat till 4 GB i sin 32-bitars arkitektur. Även om det körs på en 64-bitars CPU, spelas själva spelet på ett sätt som endast stöder CPU: s underlägsna 32-bitars register.

Kort sagt, spel som har 64-bitars support kan cache mycket större bitar av dess data. Det betyder att du får snabbare laddningstider och kanske njuter av saker som autosave i spel som traditionellt är minneshåriga.

Det finns potential för dubbel precision beräkningar.

I 32-bitars arkitekturer är hanteringen av decimalpunkter mycket besvärlig. I de flesta fall är dock de sju decimala siffrorna du är tillåtna tillräcklig. Men vad händer om du försöker lagra ett mycket högt precisionsvärde? Spel utvecklas och kräver i många fall mer än sju decimalpunkter för att beräkna något (som sönderfallshastigheten vid vilken energi går ner, eller något liknande). I 64-bitars arkitekturer kan du tilldela dubbla precisionsvarvtal, så att du kan arbeta med upp till 16 decimaler.

Ja, du kunde göra det i 32-bitars processer, men det krävde en lösning där värdet faktiskt skulle vara två minnesminnena fast ihop med kanaltape. Det här processorerna körs igenom fler instruktioner bara för att montera värdena i ett korrekt decimaltal. Det betyder att ett nummer som 4.2592039521510 skulle uppta två olika platser i ditt RAM, istället för att vara ett enda värde.

Grafikkort fungerar med olika regler.

Trots hela konfronten med 32-bitars vs 64-bitars i spel finns det en sak som jag tror att du borde veta: Det här har inget att göra med grafik. Du ser att grafikkort har utvecklats väsentligt för att inkludera bitbredder som är mycket större än vad dina CPU-enheter har (många av dem har bitbredder upp till 256 bitar!). Vad 64-bitars CPU-stöd gör för dina spel är att de kan skapa bättre beslutsfattande motorer som fungerar med ditt minne mer effektivt. Grafiken kommer fortfarande vara densamma, men spelet kommer att bli smartare och mer intuitivt.

Om du känner att det finns något att lägga till i den här diskussionen, vänligen lämna en kommentar nedan!