Dans la première partie de notre regard sur 50 ans de jeux vidéo, nous avons vu comment les expérimentations des ingénieurs des années 1960 et 1970 ont donné naissance aux machines à sous dans les salles d’arcade et à la maison. Alors que la technologie informatique s’améliorait lentement et que les prix baissaient, la plate-forme de choix est passée des consoles aux ordinateurs bon marché, puis aux consoles.
Ces changements, cependant, sont venus lentement – il a fallu 20 ans pour passer d’une poignée de points et de lignes sur l’écran à un festin visuel de couleurs, de sprites et d’effets vifs. Les boîtes dans lesquelles les jeux étaient expédiés affichaient toujours des graphismes ultra-réalistes ou prétendaient être les meilleures à ce jour, mais cela n’a jamais empêché les développeurs de repousser les limites de ce qui pouvait être réalisé avec le hardware disponible.
Le gameplay prévalait toujours, mais cela n’a pas empêché les créateurs de jeux de rechercher le sens le plus profond d’immersion et de réalisme : la 3D.
« Les boîtes dans lesquelles les jeux étaient expédiés affichaient toujours des graphismes ultra-réalistes ou prétendaient être les meilleures à ce jour »
La poursuite commence
Nous commençons ce voyage à travers les décennies de jeux vidéo en revenant sur la scène telle qu’elle était il y a 40 ans. À cette époque, les ordinateurs personnels 8 bits et les consoles de jeu se vendaient comme des petits pains par une froide journée d’hiver. Cependant, les meilleurs jeux pouvaient encore être trouvés dans les salles d’arcade à travers le pays.
Après avoir connu un énorme succès avec Asteroids en 1979, Atari a cherché à pousser la technologie utilisée dans ces jeux un peu plus loin. Ce qui distinguait ce titre de la majorité des jeux de cette période était l’utilisation de graphiques vectoriels – des images créées par des séquences de lignes plutôt que par des pixels colorés (également appelés graphiques raster).
Cela nécessitait l’utilisation de processeurs et de moniteurs spécialisés, mais les ventes d’astéroïdes ont clairement montré qu’il y avait un potentiel de profit en utilisant cette technologie. Et ainsi, Battlezone est né.
Sorti vers la fin de 1980, ce «simulateur» de char à la première personne a été bien accueilli mais pas tout à fait le succès commercial espéré par Atari. Mais pour notre voyage, c’est le point de départ idéal, car c’était le premier jeu commercial à proposer des graphismes 3D complets, bien que sous forme vectorielle filaire.
Sorti vers la fin de 1980, ce «simulateur» de char à la première personne a été bien accueilli, mais pas tout à fait le succès commercial espéré par Atari. Cependant, pour notre voyage, c’est le point de départ idéal, car c’était le premier jeu commercial à offrir des graphismes 3D complets, bien que sous forme vectorielle filaire.
Il y en a eu d’autres avant lui, bien sûr, comme Maze War (1973) et Spasim (1974), qui s’attribuent à juste titre le mérite d’être les tout premiers jeux 3D. Mais les deux étaient des projets universitaires, plutôt que des jeux pour le grand public.
Étonnamment, le premier jeu à proposer des graphismes 3D utilisant la rastérisation n’est pas venu des ingénieurs d’Atari ou de Sega. Cet honneur particulier revient à deux personnes qui travaillent avec l’ordinateur domestique ultra-abordable Sinclair ZX81. 3D Monster Maze (1981) peut ne pas sembler remarquable selon les normes d’aujourd’hui, mais fuir un énorme T-rex dans un labyrinthe claustrophobe avait certainement son propre charme.
Les progrès de la technologie de rendu signifiaient qu’il ne fallut pas longtemps avant que les triangles pixellisés n’entrent en scène, et encore une fois, c’était Atari en tête du peloton. I, Robot (1984) était un flop commercial, en raison de son gameplay terne, mais rien d’autre ne présentait des polygones solides et plats à l’époque (et pendant quelques années après également).
Le meilleur exemple de tech-over-content à cette époque était le jeu de plateforme-puzzler Alpha Waves (1990). Son monde 3D entièrement rendu se vantait d’une interaction environnementale et de l’utilisation d’un découpage basé sur la profondeur de la vue (c’est-à-dire que les objets éloignés de la caméra n’étaient pas dessinés).
Les éditeurs de jeux s’aventurant dans le monde de la 3D étaient relativement peu nombreux, car les consommateurs étaient plus intéressés par les sprites 2D colorés, associés à un gameplay engageant.
Le chant du cygne du 16 bits
Passons rapidement à l’endroit où nous avons conclu la partie 1 de nos 50 ans de jeux vidéo – Sega et Nintendo se battaient face à face sur le marché des consoles, Genesis/Mega Drive du premier menant la lutte contre le SNES du second, grâce aux jeux comme Sonic le hérisson.
Avec des millions de propriétaires des deux consoles dans le monde, les éditeurs cherchaient désespérément à proposer la prochaine «application tueuse», et dans le monde des jeux de combat, Midway a pris cela presque littéralement avec Mortal Kombat (1992). Louées et vilipendées à parts égales pour ses superbes graphismes et son action violente, les versions console du jeu d’arcade à succès ont clairement démontré le public que Sega et Nintendo visaient.
Les ports des deux plates-formes ont été censurés, remplaçant le gore par de la sueur et des larmes, et atténuant considérablement les mouvements de finition viscéraux. Cependant, alors que Sega autorisait l’utilisation d’un simple code de triche pour restaurer les effets d’origine, l’approche familiale de Nintendo a abouti à une position beaucoup plus ferme.
Peu importait que la version SNES soit supérieure en termes de graphisme et d’audio – les joueurs voulaient du gore, et Sega l’a fait. La controverse de Mortal Kombat et la campagne de marketing de plusieurs millions de dollars ont abouti à plus de 6 millions d’exemplaires vendus en moins d’un an.
Du début au milieu des années 90, Nintendo et Sega ont publié des jeux qui se sont vendus en nombre incroyable. Sur la SNES, seuls quatre titres se sont finalement déplacés à plus de 25 millions d’exemplaires combinés. Sur Genesis/Mega Drive, le succès est un peu plus mitigé, mais Disney’s Aladdin (1993) atteint tout de même les 4 millions, et de nombreux titres sportifs, ainsi que des suites de Sonic et Mortal Kombat, enregistrent des ventes à six chiffres.
Malgré ces chiffres, les deux sociétés étaient pleinement conscientes de l’évolution du paysage dans l’univers du jeu vidéo en ce qui concerne les graphismes, et elles ont reconnu que le trône du jeu 16 bits et 2D allait être remis en question par un nouveau venu en plein essor.
En 1993, Sega a lancé Virtua Fighter, le premier jeu de combat commercial basé sur des polygones sous forme d’arcade, et un jeu de combat fantastique à part entière. Cependant, il n’y avait pas de console sur le marché capable de rendre justice à une version domestique. Pour résoudre ce problème, Sega a développé et finalement publié le module complémentaire 32X vers la fin de 1994.
Un design disgracieux, les composants internes du 32X ont considérablement amélioré les capacités de rendu du Genesis / Mega Drive, notamment avec la gestion des polygones. Cependant, il n’a pas attiré beaucoup d’attention de la part des éditeurs de jeux et s’est finalement avéré être un flop commercial.
Nintendo a collaboré avec le personnel des développeurs britanniques Argonaut Software pour concevoir le coprocesseur Super FX, qui a été intégré dans les cartouches de jeu concernées – dont la première était Star Fox (1993). Ses graphismes polygonaux 3D primitifs ont été une percée pour les consoles, et le jeu était extrêmement populaire.
Mais tout comme le 32X, l’utilisation de la puce Super FX était très limitée (bien que l’utilisation de puces d’accélération graphique supplémentaires était relativement courante dans les cartouches SNES). La société s’est concentrée sur les sprites 2D pour les visuels, et les ventes de titres comme Final Fantasy VI (ci-dessous), Donkey Kong Country (tous deux en 1994) et Chrono Trigger (1995) ont facilement justifié cette décision.
Ces trois jeux représentaient l’apogée de l’ère 16 bits, non seulement pour leur conception graphique, leur gameplay et leur narration, mais également pour la quantité de travail et de développement nécessaires à la création de ces chefs-d’œuvre.
Rétrospectivement, elles marqueraient également la transition rapide vers un nouveau paradigme.
Le 32 bits et la 3D deviennent lentement la norme
En 1991, le fondateur d’Electronic Arts, William « Trip » Hawkins, a décidé que le moment était venu pour un autre fabricant de hardware de jeu et multimédia. Soutenue par les géants de la technologie LG, Panasonic et AT&T, ainsi que par les sociétés de médias MCA et Time Warner, la société 3DO a été créée. À peine deux ans plus tard, à l’automne 1993, le multijoueur interactif 3DO au titre accrocheur est arrivé sur les tablettes pour la somme alléchante de 700 $.
Ce qui distinguait cette console des autres, outre son prix excessif, était le fait que les jeux étaient expédiés sur CD-ROM plutôt que sur cartouches. Il arborait un processeur principal ARM60 entièrement basé sur RISC 32 bits, ainsi qu’une foule d’autres puces personnalisées.
Bien qu’il ne soit pas un concurrent de la vieille garde, il a marqué le premier pas dans la prochaine ère du jeu. Atari a suivi, un mois plus tard, avec sa première plate-forme 32 bits appelée Jaguar. Bien que commercialisé comme une machine 64 bits en raison de son blitter 64 bits, il s’agissait en fait d’un système 32 bits.
Malgré les meilleures capacités 3D de toutes les consoles, aucune des plates-formes ne s’est particulièrement bien vendue. L’offre 3DO était beaucoup trop chère en raison de son modèle de production sous licence et des frais de licence de développement de jeux très bas. D’un autre côté, la Jaguar était difficile à programmer et à utiliser, grâce à sa conception de contrôleur épouvantable.
Gex (1995, 3DO) et Aliens vs Predator (1994, Jaguar) étaient bons pour démontrer de quoi les machines étaient capables mais n’ont pas fait grand-chose pour faire aimer les consoles aux joueurs. Il en était de même pour la Sega Saturn.
Cette console 32 bits est apparue un an après la Jaguar mais était extrêmement complexe à l’intérieur, arborant neuf puces de traitement distinctes. Naturellement, c’était plus cher que la plate-forme Atari, bien que beaucoup moins cher que l’offre 3DO. Même si son catalogue de jeux offrait une vaste gamme de ports d’arcade Sega fidèles, son lancement bâclé et sa concentration hardware sur les sprites, plutôt que sur les polygones, en faisaient une console difficile à aimer.
Les consommateurs et les développeurs privilégiant toujours le monde 16 bits, le marché de la 3D avait besoin de quelque chose de différent pour vraiment faire avancer les choses. Entrez en scène à gauche, Sony avec ses consoles PlayStation, en 1994.
L’histoire de la naissance de cette machine a été racontée à plusieurs reprises au fil des ans, mais ce n’est pas son développement ou ses capacités qui l’ont rendue spéciale – c’est l’approche de Sony en matière de marketing et d’édition de jeux qui s’est démarquée de la foule.
Là où Atari, Sega et Nintendo s’attendaient à ce que les enfants et les adolescents finissent par jouer aux jeux, ils s’attendaient également à ce que quelqu’un d’autre paie les factures. Avec la PlayStation, Sony visait un public plus mature, celui qui paierait tout lui-même. En ciblant les consommateurs qui avaient grandi à l’ère 8 bits mais qui étaient désormais des adultes financièrement indépendants, les éditeurs étaient libres d’explorer des thèmes plus larges dans les jeux.
Le succès a été un peu lent à venir, cependant, et n’a pas vraiment décollé jusqu’au lancement de la PlayStation en Amérique et en Europe au début de l’automne 1995.
Les premiers jeux, tels que Ridge Racer, Wipeout (ci-dessus), Air Combat et Battle Arena Toshinden ont tous démontré que les graphismes 3D basés sur des polygones étaient l’avenir du jeu, même si le gameplay n’était pas particulièrement original ou révolutionnaire.
Mais en quelques années, les polygones sont devenus la norme pour les graphismes et les jeux vidéo ont changé à jamais.
La bataille pour la suprématie de la 3D
Alors que les consoles 3DO, Jaguar et Saturn s’estompaient en arrière-plan, la PlayStation allait de mieux en mieux. Entre 1995 et 1998, le nombre de jeux sortis pour la plate-forme rappelait l’époque des ordinateurs personnels 8 bits – des centaines de titres se sont déversés sur les étagères en raison de l’approche non interventionniste de Sony en matière de publication.
Naturellement, cela signifiait qu’il y avait énormément de scories non atténuées pour gaspiller son argent, mais les meilleurs jeux étaient vraiment spéciaux.
Certains des titres et franchises les plus emblématiques ont été lancés sur cette plateforme, et la liste des meilleurs titres se lit comme un Who’s Who du jeu vidéo. Les fans du genre beat-em-up/fighting ont eu droit à des classiques absolus tels que Tekken (ci-dessus) et Soul Blade.
Les passionnés de course avaient la Formule 1 et Gran Turismo pour le réalisme, et Twisted Metal et Destruction Derby pour un plaisir insensé. Le monde de l’action-aventure a fait un bond en avant gigantesque grâce au trio historique de Tomb Raider, Resident Evil et Metal Gear Solid (ci-dessous).
Spyro the Dragon et Crash Bandicoot sont devenus des mascottes non officielles pour la plate-forme, des souches naturelles pour Mario de Nintendo et Sonic de Sega, et aucune liste de classiques 3D pour la PlayStation ne serait complète sans mentionner Final Fantasy VII.
Mais tout sur PlayStation n’était pas un festival de polygones. La console de Sony a également accueilli de brillants jeux 2D, tels que Oddworld : Abe’s Oddysee, Castlevania : Symphony Of The Night et Parappa the Rapper.
La réponse de Nintendo à tout cela est venue sous la forme de la console Nintendo 64 (alias la N64), sortie à la mi-1996 au Japon et fin septembre en Amérique. Bien qu’elle soit la plus abordable de toutes les plates-formes actuelles, elle contenait une puissance considérable sous son capot et les ventes initiales étaient élevées, du moins en dehors de son pays d’origine.
Les retards dans le développement de la console et sa mise sur le marché signifiaient que les développeurs de jeux n’avaient pas beaucoup de temps pour se préparer, et aux États-Unis, la Nintendo 64 a été lancée avec seulement deux titres – Pilotwings 64 et le séminal Super Mario 64 (ci-dessus).
Les deux étaient des vitrines exceptionnelles de ce que la machine pouvait faire, et les éléments de conception et de gameplay de cette dernière résonneraient dans le développement de jeux pour les années à venir. Cependant, la rareté des jeux et leur apparition tardive sur les étagères signifiaient que la domination de Sony resterait incontestée.
Non pas que cela ait empêché le N64 de proposer certains des meilleurs jeux 3D du moment – Wave Race 64, Turok: Dinosaur Hunter, Goldeneye 007 et The Legend of Zelda: Ocarina of Time (ci-dessous) ont démontré que les développeurs du système de Nintendo embrassaient pleinement le monde des polygones.
Alors que Nintendo et Sony se sont affrontés pour les ventes et ont récolté de l’argent, la fortune d’Atari et de Sega s’est effondrée. Le premier a finalement fusionné avec un fabricant de disques durs, avant de vendre le nom et tous les actifs à Hasbro Interactive en 1998.
Mais une plate-forme particulière, cachée en arrière-plan pendant de nombreuses années, était prête à leur enlever à tous la couronne 3D.
Le jeu sur PC arrive à maturité
Le PC compatible IBM était une plate-forme de jeu décente depuis de nombreuses années déjà, mais le coût moyen était bien supérieur à la plupart des consoles et la lutte avec la gestion des paramètres et des drivers signifiait qu’il était réservé aux passionnés.
Cependant, garnissez n’importe quel appareil informatique d’une application qui tue, et les ventes décolleront, ce qui contribuera à réduire les prix globaux à long terme. Atari, Nintendo, Sega et Sony avaient tous plusieurs jeux qui ont aidé à vendre des millions de consoles. Pour le PC au milieu des années 1990, c’était un système d’exploitation.
La sortie de Windows 95 de Microsoft à la fin de l’été 1995, soutenue par des promotions et des publicités valant des centaines de millions de dollars, a conduit à de bonnes ventes du progiciel. Cela a également contribué à donner à l’industrie du hardware un coup de pouce bien nécessaire dans les ventes d’unités (tout comme la prochaine version de Windows).
Bien que non sans problèmes, la nouvelle version de Windows était beaucoup plus conviviale que MS-DOS, en particulier lorsqu’il s’agissait de faire fonctionner des périphériques et des logiciels. Cela dit, les jeux de cette époque étaient toujours conçus pour fonctionner sur l’ancien système d’exploitation.
Les prix des PC ont commencé à chuter et les ménages qui n’avaient jamais vraiment envisagé de posséder une telle machine dans le passé étaient désormais fiers de posséder des appareils comme Dell ou Gateway. Non pas que ces ordinateurs soient bons pour les jeux, car pour maintenir les prix bas, ils sont généralement expédiés avec un accélérateur graphique 2D très basique.
Mais à cette époque, plusieurs nouvelles entreprises sortaient du bois, toutes sautant dans le train des graphiques 3D. La vieille garde d’ATI et de SiS devait bientôt rivaliser avec des nouveaux venus comme 3Dfx, NVIDIA et Rendition. Les ordinateurs domestiques de base pourraient être transformés en systèmes de jeu sérieux simplement en achetant et en installant une carte graphique 3D dédiée.
Et naturellement, ceux-ci avaient aussi des applications qui tuent.
Là où Doom (1993) et sa multitude de clones généraient des images en faux 3D, Quake d’id Software (1996, ci-dessous) était entièrement polygonal, mais avec des textures boueuses à gogo. Ce n’était pas un succès aussi important que Doom, mais il s’est quand même très bien vendu. Cependant, les titres les plus populaires sur PC étaient toujours de nature 2D, tels que Command & Conquer, Age of Empires et Diablo.
Mais avec la foule de consoles profitant d’un excès de plaisir polygonal, il ne fallut pas longtemps avant que l’industrie des cartes graphiques atteigne un point où un propriétaire de PC moyen pouvait fournir à son ordinateur un hardware égal ou supérieur à tout ce que les géants du Japon offraient.
Les meilleurs succès comme Tomb Raider ont fait leur chemin vers le PC et avec le support des fournisseurs de GPU, ont fourni une expérience de jeu plus belle (bien que le passage de la manette de jeu au clavier et à la souris ne se traduise pas toujours très bien).
La véritable force de l’humble PC, en tant que plate-forme de jeu, résidait dans sa flexibilité et l’étendue des thèmes de jeu qu’il pouvait prendre en charge, que ce soit en 2D ou en 3D. Les meilleurs titres sortis en 1998 témoignent de ces deux aspects – que dire de plus sur Half-Life, Grim Fandango, Thief : The Dark Project, Baldur’s Gate, StarCraft et Tom Clancy’s Rainbow Six ?
Bien qu’aucune ne soit vraiment une version originale dans ses catégories respectives, les choix de conception, les graphismes et le gameplay étaient tous exceptionnels. Tous ces éléments façonneraient la direction que prendraient les futurs jeux et continueront de le faire aujourd’hui.
Alors que la première décennie du millénaire touchait à sa fin, le PC a également accueilli l’explosion de la prochaine révolution des jeux vidéo.
Le jeu vidéo devient véritablement mondial
Les consoles de salon étaient des machines multijoueurs presque dès le début, bien qu’initialement limitées à 2 joueurs. Au moment où la PlayStation dominait les ventes, c’était encore largement le cas, bien que le N64 de Nintendo ait quatre ports de contrôleur et que des adaptateurs puissent être achetés pour d’autres machines, telles que le 6Player de Sega pour Genesis/MegaDrive, afin d’étendre le nombre de joueurs simultanés dans des jeux prenant en charge leur utilisation.
Bien sûr, tout le monde devait toujours être dans la même version, accroupi autour de la console et du téléviseur auquel il était connecté. Si vous vouliez jouer contre des personnes qui étaient, disons, dans un autre pays, alors les choses étaient un peu plus délicates.
Certaines machines avaient des services Internet de base, qui nécessitaient généralement un module complémentaire, tandis que Dreamcast de Sega (lancé en 1998) incluait un modem dans le package pour presque tous les pays où le produit était sorti. Cette plate-forme serait finalement la dernière tentative de l’entreprise sur le marché du hardware avant de passer au logiciel uniquement, mais elle a marqué la première tentative sérieuse de fournir un service en ligne avec accès à des serveurs exécutant des jeux multijoueurs.
Même ainsi, le nombre de joueurs que les jeux et les serveurs pouvaient accueillir était encore assez limité, la majorité n’en supportant que quatre au maximum. Pour une véritable expérience de jeu en ligne, il fallait être sur un PC.
Les goûts de Quakeworld (1996) et Ultima Online (1997) n’étaient que des hors-d’œuvre à ce qui allait arriver, et 1999 a été l’année où la première portion du plat principal est arrivée. Counter-Strike, Quake III Arena et Unreal Tournament (ci-dessous) ont chacun pris possession du manteau multijoueur et se sont enfuis avec.
Comme tant de titres que nous avons couverts, ils n’étaient pas les premiers de leur espèce, mais ils ont tous placé la barre si haut qu’il faudrait des années avant que quoi que ce soit ne puisse leur reprendre la couronne.
Les jeux de rôle multijoueurs étaient en ligne depuis des années, bien qu’ils aient toujours évité les dernières tendances en matière de technologie graphique. C’était jusqu’à ce qu’Everquest arrive sur les étagères la même année que Quake III Arena, et al. Publié par Sony et Ubisoft, il a connu un succès extraordinaire, récoltant de nombreuses récompenses et une bonne quantité de revenus mensuels, grâce à son modèle d’abonnement.
Malgré la popularité de ces jeux, les fabricants de consoles ont été plutôt lents à s’adapter à cette explosion du jeu en ligne. Six ans après l’arrivée de sa première console sur le marché, Sony a dévoilé la PlayStation 2 (PS2) au début de 2000 – plus tard dans la même année pour les marchés américain et européen. Là où Sega offrait un service en ligne dans lequel ils contrôlaient et géraient tous les serveurs, Sony a laissé ces questions entre les mains des éditeurs de jeux.
Comme les autres consoles de l’époque, la connexion à Internet nécessitait l’achat d’un adaptateur séparé, bien que les révisions ultérieures de la PS2 soient expédiées avec une socket Ethernet intégrée à la machine. La même chose était vraie pour la prochaine entrée de console de Nintendo, la GameCube (2001).
Les deux sociétés ont adopté la même approche en ce qui concerne la gestion des services en ligne, mais là où les propriétaires de PS2 pouvaient choisir parmi une multitude de jeux offrant un mode multijoueur décent, les propriétaires de Nintendo se sont retrouvés avec juste une poignée de titres dans la série Phantasy Star Online.
Pendant ce temps, le PC allait de mieux en mieux, grâce à la grande diversité des jeux développés pour cette plate-forme.
Dispersés, à travers la masse de suites véritablement excellentes comme Diablo, Thief, Baldur’s Gate et Tribes, se trouvaient des joyaux tels que Deus Ex (ci-dessus), Sacrifice, No One Lives Forever, Black & White et IL-2 Sturmovik .
Les Sims, toujours populaires, ont également fait leur première apparition à cette époque.
La première console à vraiment répondre à la demande de jeux multijoueurs en ligne était un nouveau concurrent – celui qui aiderait à balayer les vestiges de la vieille garde, à l’exception de Nintendo, et deviendrait finalement le rival de longue date de Sony sur le marché des jeux. Préoccupé par le succès fulgurant de Sony avec la PlayStation et la PS2, Microsoft a ressenti le besoin d’entrer sur le même marché, craignant que le boom des ventes de PC Windows ne dure pas, car davantage de personnes pourraient passer à la console beaucoup moins chère.
Et c’est ainsi que la Xbox est née en novembre 2001. Essentiellement un PC personnalisé dans une petite boîte, la machine avait encore besoin de quelque chose de spécial pour se démarquer des millions d’autres consoles déjà installées dans les foyers des joueurs. L’application qui tue est venue sous la forme de Halo: Combat Evolved et son gameplay et son design acclamés ont joué un rôle non négligeable dans les bons chiffres de vente de la Xbox.
Cependant, il a fallu encore un an pour que la console soit prête pour un véritable jeu multijoueur en ligne. Bien qu’un adaptateur Ethernet soit déjà installé, Microsoft n’avait pas de véritables services Internet prêts pour le lancement de la console, les joueurs devaient donc se contenter de configurer des connexions LAN encombrantes (bien que Halo ait un mode écran partagé). Mais lorsque Xbox Live est devenu public en 2002, les propriétaires de Xbox ont finalement eu accès à un système unifié, fournissant un support de serveur pour les jeux qui utilisaient le service.
C’était un modèle que Nintendo et Sony finiraient par adopter, fournissant une autre source de revenus en plus des ventes de consoles et des frais de licence de jeu. Pendant ce temps, dans le monde des PC, les serveurs en ligne étaient, et sont toujours, fournis par les éditeurs, et au fil des ans, cela deviendrait de plus en plus frustrant pour les gestionnaires et les comptables, qui cherchaient tous à tirer des revenus de jeu toujours plus importants.
À mesure que les vitesses d’Internet à domicile augmentaient et que les technologies informatiques devenaient moins chères, plus petites et plus puissantes, ils n’auraient pas à attendre longtemps pour que de nouveaux marchés apparaissent.
************
Dans la troisième partie, nous poursuivrons notre exploration de la façon dont les jeux et la façon dont nous les jouons ont changé et évolué tout au long des premières années du nouveau millénaire. Les nouvelles plates-formes, marchés et technologies ont tous joué un rôle crucial dans la voie empruntée par notre voyage.
Découvrez le reportage du mois (sous-titré en français), l’IA gagnera t-elle face aux champion du monde du jeu de Go ? :