8, 16, 32 bits consoles … wat betekent het? [gesloten]

Gesloten. Deze vraag is off-topic . Het accepteert momenteel geen antwoorden.

Reacties

  • Wat weet je ervan dat je besturingssysteem voor 32 of 64 is? Als je begrijpt wat dat betekent, geldt hetzelfde voor consoles. Consoles hebben processorarchitecturen met nog meer bits: GameCube heeft 128 bits (een verdubbeling van het aantal bits in moderne pcs, kwadratuur van de ALU- en adrescapaciteit dan moderne pcs)
  • I ' stem om deze vraag af te sluiten omdat het niet ' gaat over het maken van een spel, maar eerder over trivia uit de industrie. Het kan on-topic zijn op Arqade .
  • In feite soortgelijke vragen zijn daar al gevraagd.
  • @JoshPetrie Ik ' heb onofficieel gestemd om deze vraag te heropenen. Dit lijkt iets wat game-ontwikkelaars zouden moeten weten.
  • Waarom zouden we off-topic vragen niet VERPLAATSEN in plaats van ze te SLUITEN? Dan blijven ze open, mensen die ze raken uit zoekopdrachten worden niet naar een doodlopende weg geleid en de inspanningen van onze gebruikersbasis worden gerespecteerd.

Antwoord

Het verwijst meestal naar de CPU-architectuur. De bit-grootte van een CPU is in grote mate versimpeld, is de grootte van de getallen waarmee hij in één bewerking berekeningen kan uitvoeren. Een 8bit CPU kan werken met getallen tot 256, een 16bit CPU met getallen tot 65536 en een 32bit CPU met getallen tot 4294967296. Elk van deze CPUs kan nog steeds worden gebruikt om berekeningen met grotere getallen te maken, maar er zijn meerdere bewerkingen nodig om doe dat.

De derde generatie gameconsoles voor thuis was overduidelijk een tijdperk van pure 8-bits systemen. De marktleider van die generatie was de NES, de runner-ups waren het Sega Master System en de Atari 7800. Alle systemen gebruikten door en door 8bit-architecturen.

De vierde generatie, gewoonlijk de 16- genoemd. bit generatie, is een beetje wazig. De twee dominante systemen waren de Sega Mega Drive (ook bekend als Genesis voor Noord-Amerika) en de SNES. Beide systemen werden op de markt gebracht als 16-bits systemen. Maar de Motorola 68000 CPU van de Sega Mega Drive was technisch gezien een 32-bit CPU, ook al communiceerde deze via een bus die slechts 16 bit breed was. Nu zou je kunnen zeggen “duh, dus het is de busgrootte die telt”. Maar de Ricoh 5A22 16-bits CPU die door de SNES werd gebruikt, had alleen een 8-bits databus. Dus welke technische definitie je ook gebruikt, de Mega Drive is een 32-bits systeem of de SNES is een 8-bits systeem.

In de vijfde generatie waren de drie concurrerende systemen de Sony Play Station (32-bits CPU), de Sega Saturn (twee 32-bits CPUs die SEGA-marketing soms optelde tot 64-bits wat technisch nogal onzinnig is) en de Nintendo 64 (64bit CPU). Dit is de generatie waarin het tellen van bits niet meer zinvol was omdat zelfs de marketingafdelingen van de verschillende bedrijven het niet meer eens waren in welke generatie ze zich bevonden.

Over het algemeen kan het aantal bits van een CPU worden vergeleken met het aantal cilinders van een auto. Meer is meestal beter, maar het is alleen geen zinvol getal om te vergelijken hoe krachtig verschillende modellen zijn.

Answer

Om wat meer details te geven, een hoger bit archiet cture zorgt er voornamelijk voor dat er meer geheugen kan worden gebruikt. Het maakt het ook mogelijk om gegevens met een hogere precisie op te nemen. Het was echter een beetje een verkeerde benaming, er werd algemeen aangenomen dat hogere bitsystemen beter waren (en dat geldt tot op zekere hoogte), maar het werd vaak gebruikt wanneer dat niet het geval was. Bijvoorbeeld, volgens de 6e generatie gameconsole Wikipedia-pagina , die generatie werd de “128 bit” -generatie genoemd. De belangrijkste consoles gebruikten echter feitelijk:

  • X-box – 32 bit.
  • Game Cube – 32/64 bit.
  • Playstation 2- 64 bit (met een “fudge” -factor, waardoor 128 bit vectoren)

Het is vermeldenswaard dat er een enorm verschil is van een 8 bit tot 16 bit en 16 tot 32 bit. Er is een kleiner verschil van 32 tot 64 bit. , er zijn niet veel praktische voordelen voor dagelijks gebruik. Dit wordt vermeld in het hetzelfde artikel hierboven vermeld . Hier zijn een paar praktische limieten van de verschillende bitgroottes:

  • 8 bit – Dit beperkt de kleuren ernstig, tot slechts 255 Het beperkt ook de complexiteit van de instructies die kunnen worden uitgevoerd.
  • 16 bit – Maakt veel meer kleur mogelijk, maar laat nog steeds niet echt echte kleuren toe, maar ziet er realistischer uit. Maakt complexere instructies mogelijk.Heeft nog steeds niet echt genoeg om echte 3D-verwerking uit te voeren, maar is verder voldoende voor de meeste doeleinden.
  • 32 bit – De enige echte beperking is de ram, die beperkt is tot 4 GB. Dit was geen significante factor tot ongeveer 2010. Biedt voldoende verwerkingskracht om 3D-systemen te beheren. 32 bit staat ook “echte” kleur toe, die gewoonlijk 8 bits voor elke kleur gebruikt, plus 8 bits voor het alfakanaal.

Opmerkingen

  • Merk op dat de meeste CPUs kunnen hogere waarden verwerken dan hun bit-heid, ze ' zijn daarbij gewoon langzamer. De belangrijkste beperkende factor is meestal niet het aantal kleuren per pixel, maar eerder de totale hoeveelheid geheugen die kan worden gebruikt voor het opslaan van deze pixels (en eventuele andere game- / programmagegevens). Het aantal (gelijktijdige) kleuren verminderen door een kleurenpalet te gebruiken, is slechts een tijdelijke oplossing om een heel frame in het geheugen te kunnen opslaan.

Antwoord

Het aantal bits hier vertegenwoordigt de CPU-architectuur.

Een 32-bits spelconsole maakt gebruik van een 32-bits centrale verwerkingseenheid.

Opmerkingen

  • Hoewel dit de algemeen aanvaarde uitleg is, is deze technisch niet helemaal juist. De Sega Mega Drive werd gewoonlijk een 16-bits generatiesysteem genoemd (zelfs door SEGA-marketing), hoewel het de Motorola 68000 CPU gebruikte die technisch gezien een 32-bits CPU was (maar met een 16-bits externe bus).

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *