L’humble ordinateur personnel fait partie de notre vie, directement ou indirectement, depuis près de cinq décennies, mais ses transformations les plus importantes se sont produites au cours des trente dernières années.
Au cours de cette période, l’ordinateur personnel s’est complètement transformé en termes d’apparence, de capacité et d’utilisation. Si certains aspects ont à peine changé, d’autres sont méconnaissables par rapport aux machines du passé.
Et bien sûr, le changement est inévitable lorsque des milliards de dollars de revenus sont en jeu. Cependant, rares sont ceux qui auraient pu prédire exactement comment ces développements allaient se dérouler.
Rejoignez-nous pour examiner la métamorphose du PC, qui est passé d’une boîte beige encombrante à une gamme étonnante d’ordinateurs puissants, colorés et étonnants.
Obtenir plus avec Moore : croissance exponentielle
Lorsque Gordon Moore, directeur de la recherche et du développement chez Fairchild Semiconductor, a écrit sur les tendances de la fabrication des puces en 1965, il a estimé qu’un processeur moyen pourrait contenir plus de 60 000 composants dans les dix ans à venir. Sa prédiction s’est non seulement avérée exacte, mais elle est également devenue un modèle précis pour de nombreuses décennies à venir.
En 1993, un PC haut de gamme était équipé de puces inimaginables trente ans plus tôt. Le Pentium d’Intel contenait un nombre stupéfiant de 3,1 millions de transistors dans une puce d’une taille d’à peine un demi-pouce carré (294 mm2).
Sa puissance de traitement était tout aussi impressionnante, puisqu’il exécutait plus de 100 millions d’instructions par seconde, grâce à sa conception intelligente et à sa vitesse de fréquence relativement élevée de 60 MHz.
Au milieu des années 1970, la loi de Moore s’est poursuivie sans relâche grâce aux progrès technologiques constants dans la conception et la fabrication de circuits intégrés à semi-conducteurs. Il est difficile de comprendre à quel point les puces sont plus performantes aujourd’hui, principalement parce que les mesures utilisées dans le passé ne sont plus très pertinentes aujourd’hui.
Si cela n’était dû qu’aux vitesses de fréquence, l’ordinateur de bureau moyen serait équipé de processeurs cadencés à 400 GHz. Toutefois, comme ils sont généralement cadencés entre 4 et 5,5 GHz, un autre facteur entre clairement en ligne de compte.
La majeure partie de cette amélioration est attribuée au fait qu’un processeur moderne peut travailler sur plusieurs threads simultanément. Malgré cela, les puces multicœurs n’exécutent qu’une poignée d’instructions par cycle de fréquence. Les gains de performance réels sont bien plus importants, principalement en raison des améliorations apportées dans d’autres domaines de la capacité de calcul d’un PC, à savoir la mémoire.
Il y a trente ans, équiper votre nouveau PC de plus de 8 Mo de DRAM Fast Page Mode (FPM) ou Extended Data Out (EDO) aurait coûté une petite fortune. La vitesse était à peine mentionnée, car il s’agissait d’un facteur mineur par rapport à la quantité de mémoire disponible.
Aujourd’hui, même les ordinateurs portables de base sont équipés d’une mémoire vive dont la capacité est 1 000 fois supérieure à celle de leurs lointains prédécesseurs, et la vitesse d’accès aux données est nettement plus élevée.
Alors que la DRAM FPM pouvait à peine atteindre 18 millions de transferts par seconde (MT/s), un PC équipé de DDR4-2400 (c’est-à-dire 2400 MT/s) serait considéré comme lent selon les normes actuelles.
La capacité à rendre les composants semi-conducteurs toujours plus petits a également permis aux processeurs d’aujourd’hui d’intégrer de grandes quantités de mémoire interne, appelée cache, qui fonctionne à des vitesses encore plus élevées. Le modèle P5 d’Intel disposait de 8 kB pour stocker les instructions et de 8 kB pour les données, avec jusqu’à 256 kB de puces SRAM soudées sur la carte mère.
Le récent Core i9-13900K (ci-dessus) ne semble pas être une grande amélioration à première vue. Ses cœurs Performance disposent respectivement de 32 ko et 48 ko, tandis que les cœurs E disposent de 64 ko et 32 ko. Cependant, ils sont soutenus par 2 Mo de cache supplémentaire, et 36 Mo supplémentaires partagés entre tous les cœurs, tous situés au cœur du processeur lui-même.
Il existe de nombreuses autres améliorations, telles que des prédicteurs de branchements supérieurs, mais l’indicateur le plus significatif de l’amélioration des processeurs depuis le début des années 1990 est sans doute celui des appareils mobiles ou de poche.
Les ordinateurs portables de cette période étaient équipés de processeurs qui étaient généralement des versions à basse tension et à faible cadence des modèles de bureau, tandis que les assistants numériques portables reposaient sur des processeurs 8 bits de la décennie précédente.
Aujourd’hui, vous pouvez acheter des montres dotées d’un processeur plus puissant que le Pentium original. La Galaxy Watch 5 de Samsung, par exemple, est équipée d’un processeur double cœur Arm Cortex-A55 cadencé à 1,18 GHz, une puce capable d’exécuter des instructions 20 à 100 fois plus vite que le Pentium.
Bien entendu, nos attentes à l’égard de ces appareils sont beaucoup plus élevées aujourd’hui (navigation sur internet, streaming vidéo, traitement d’images, jeux, etc.), ce qui rend une comparaison directe quelque peu injuste, car les PC portables de l’époque ne disposaient tout simplement pas de la technologie de support nécessaire pour gérer ces tâches.
À bien des égards, le processeur central moderne est trop puissant pour la majorité des scénarios d’utilisation. Bien qu’AMD et Intel investissent des milliards de dollars dans la recherche et le développement, les générations successives de puces ne présentent à chaque fois que des améliorations marginales.
Même dans le domaine des accélérateurs graphiques 3D (GPU), qui étaient pratiquement inexistants sur le marché grand public en 1993, il y a des signes de diminution des progrès.
Il y a trente ans, les processeurs n’étaient jamais assez rapides. Aujourd’hui, il faut des applications spécialisées pour les pousser à leurs limites.
Le pouvoir au peuple : Logiciels et facilité d’utilisation
Si les PC actuels sont beaucoup plus puissants que ceux des années 90, notre capacité à les utiliser a évolué de façon spectaculaire. L’un des progrès les plus significatifs de l’informatique a été l’introduction de l’interface graphique. Au lieu de parcourir d’interminables lignes de commandes, vous pouvez obtenir les mêmes résultats en interagissant simplement avec des icônes logiquement conçues pour représenter avec précision des fichiers, des dossiers et des programmes.
Windows 3.0 (1990) et Windows 95 (1995) de Microsoft, ainsi que System 7 (1991) d’Apple, ont joué un rôle déterminant en rendant les PC beaucoup plus conviviaux. En conséquence, les ordinateurs sont devenus plus populaires auprès des personnes ordinaires, car ils nécessitaient moins de connaissances techniques et de formation. Toutefois, les ordinateurs domestiques pouvaient encore être quelque peu difficiles à gérer, en particulier lorsqu’il s’agissait de faire fonctionner correctement les périphériques et les cartes d’extension.
Grâce à l’amélioration de la puissance de traitement et à l’émergence de normes universelles, ces difficultés ont progressivement cédé la place à ce que l’on appelle généralement le « plug and play », c’est-à-dire la possibilité de connecter un appareil à un ordinateur et de laisser le système d’exploitation s’occuper de toute l’installation et de la configuration.
Les systèmes de connexion tels que l’USB (1996) et le PCI Express (2003) ont étendu cette commodité au point que la seule entrée requise de la part de l’utilisateur était de cliquer sur le bouton « OK » à quelques invites.
Les normes sans fil, telles que Bluetooth et Wi-Fi, ont également joué un rôle important dans la démocratisation des PC. L’intégration de ces normes dans les systèmes d’exploitation a considérablement amélioré l’expérience de l’utilisateur. La configuration et la connexion à un réseau ou à un appareil spécifique, qui étaient autrefois des exemples classiques de problèmes informatiques, peuvent désormais être réalisées en quelques clics.
Les cartes mères étaient autrefois ornées de minuscules commutateurs DIP qu’il fallait régler correctement en fonction des composants qu’elles contenaient. Aujourd’hui, il suffit d’insérer le composant et le logiciel se charge du reste de la configuration. Bien que de nombreux utilisateurs de PC soient à l’aise pour installer eux-mêmes les drivers, les systèmes d’exploitation tels que Windows et macOS peuvent facilement le faire pour vous.
Inévitablement, la taille des logiciels fondamentaux nécessaires au fonctionnement d’un ordinateur a augmenté. Alors que Windows 95 nécessitait environ 50 Mo d’espace disque, la dernière version du système d’exploitation de Microsoft requiert au moins 64 Go. Cela représente plus de 1 000 fois plus d’espace de stockage, et il en va de même pour les drivers de hardware tels que les cartes graphiques.
Cette augmentation indique également qu’il y a désormais beaucoup plus de possibilités que quelque chose se passe mal lorsque les vendeurs mettent à jour une partie de ce code, ce qui fait que le correctif doit être mis à jour une nouvelle fois juste pour résoudre ces problèmes. Cette explosion a été en grande partie compensée par la baisse constante du coût du stockage numérique et par la prévalence des ordinateurs dotés de connexions Internet permanentes, qui permettent des mises à jour automatiques des logiciels.
Le PC moyen d’aujourd’hui est un système incroyablement complexe, et pourtant des millions de personnes dans le monde l’utilisent avec un minimum de formation et de compréhension. Le prix de cette commodité est le plus souvent caché, mais il nous est peut-être rappelé plus souvent que nous ne le souhaiterions.
Liberté de forme (facteurs)
Si vous consultez quelques exemplaires de PC Magazine datant de 1993 et que vous feuilletez la multitude de publicités pour différents systèmes informatiques, vous remarquerez sans doute qu’elles ont toutes un point commun : leur taille, leur forme et leur couleur.
Quelle que soit la marque, presque toutes les entreprises ont choisi de reproduire le design original d’IBM et de saturer le marché avec des boîtes beiges et volumineuses.
Presque tous les périphériques sont construits avec le même plastique, dans la même couleur. Quelques fournisseurs ont osé s’écarter du lot et proposer une apparence différente, comme certains modèles de la gamme Presario de Compaq. Bien qu’ils soient toujours conformes à la norme beige de l’époque, au moins leurs boîtiers étaient-ils plus sculptés.
Pour être honnête avec les vendeurs d’autrefois, on ne s’attendait guère à ce que la forme d’un PC soit différente de celle définie par IBM dans les années 1980. Les périphériques pouvant être ajoutés à votre ordinateur étaient également limités dans leur forme, car les lecteurs de disquettes et de CD étaient des éléments obligatoires de toute machine, et ils étaient obligés de suivre le format standard.
Bien que certaines de ces limitations persistent aujourd’hui, la vaste gamme de formats PC disponibles montre à quel point les choses ont changé. Le noir est devenu la couleur de choix pour la plupart des appareils électroniques, principalement pour des raisons esthétiques (il dissimule mieux la saleté et d’autres marques que le beige), bien que le blanc, l’argent et d’autres pastels plus doux gagnent en popularité.
Mais c’est la taille et la forme du PC qui ont changé le plus radicalement – des systèmes élégants et dédiés à petit design (form factor) (SFF) aux mastodontes gargantuesques, il n’y a plus guère de limites à la taille d’un ordinateur domestique. Autrefois, les fabricants de boîtiers pour PC vantaient la capacité de leurs produits à loger autant de périphériques de 5,25 ou 3,25 pouces que possible ; aujourd’hui, il s’agit davantage du nombre de ventilateurs/refroidissement, de l’encombrement réduit ou du niveau de silence.
Alors que les ordinateurs d’aujourd’hui sont généralement monotones à l’extérieur, l’utilisation d’un éclairage LED pour créer des couleurs et des motifs internes est désormais une caractéristique standard de tout PC portant l’étiquette « gaming ». Bien entendu, les machines de bureau et les stations de travail renoncent à ces frivolités et conservent une apparence proche de celle de leurs homologues des années 90, mais il est rare de voir un modèle équipé d’un lecteur de DVD, par exemple.
Comment cette transformation s’est-elle produite ? Certains affirment que le changement a été déclenché par Apple lors de la sortie du premier iMac en 1998. Sa popularité, avec sa coque translucide et colorée, a démontré que les consommateurs étaient réceptifs à ce type de design, et bien que le monde des machines compatibles IBM PC ait incorporé certains éléments, la disposition fondamentale ressemblait toujours fortement au design classique.
Il n’y a pas de raison spécifique à tous ces changements, mais à mesure que les PC devenaient de moins en moins chers et de plus en plus conviviaux, de nouveaux marchés se sont ouverts pour tirer parti de l’engouement pour l’informatique. L’omniprésence des ventilateurs RGB et des boîtiers en verre peut être directement attribuée aux passionnés de PC qui souhaitaient personnaliser davantage leurs systèmes.
Les fabricants de hardware informatique ont suivi les tendances observées sur les forums de discussion et ont adapté leurs produits pour permettre des montages plus simples et plus propres. Les PC branlants et bon marché avec un enchevêtrement de câbles à l’intérieur ont cédé la place à des dalles en métal et en verre robustes, mettant en valeur les composants dont les connexions sont cachées à la vue.
Les ordinateurs SFF doivent beaucoup au Mac Mini d’Apple, au format NUC d’Intel et au Raspberry Pi – ou est-ce l’inverse ? – Aujourd’hui, il est possible d’avoir un serveur multimédia domestique qui n’est pas plus grand qu’un roman pesant et dont l’apparence ne déshonorerait pas une bibliothèque exigeante.
Les ordinateurs portables ont encore des liens évidents avec le passé. Les progrès considérables réalisés en matière de qualité de fabrication, d’écran et de batterie, associés à l’essor de la mémoire flash NAND, les ont heureusement rendus plus robustes et plus agréables à utiliser, mais leur forme reste largement inchangée. Même les appareils dits « 2 en 1 », nés de la popularité des tablettes (sous l’impulsion de l’iPad d’Apple), restent fondamentalement des ordinateurs portables.
Cela ne veut pas dire que tout va mieux aujourd’hui. L’acharnement à maintenir une position sur le marché a fait que les ordinateurs portables sont devenus trop minces et trop légers, ce qui limite la connectivité filaire. Il en va de même pour les ordinateurs de bureau : ceux qui ont une certaine crédibilité en matière de jeu arborent généralement des caractéristiques visuelles qui ne contribuent en rien aux performances et ne font qu’augmenter le prix.
Mais au moins, on ne peut pas critiquer la myriade de choix, couvrant toutes les utilisations et configurations possibles et imaginables, qui sont à notre disposition aujourd’hui.
L’imagination sans entrave
Avec le savoir-faire adéquat, vous pouvez utiliser un PC pour effectuer des recherches approfondies, créer des documents sophistiqués pour la publication, gérer et traiter des tableaux de données complexes, créer de la musique, des vidéos et des graphiques en 3D. Bien sûr, de nombreuses personnes ne consomment qu’une partie de ces contenus sur leurs appareils et des industries de plusieurs milliards de dollars existent uniquement pour le plaisir de l’informatique.
Mais si vous parcourez un magazine informatique typique du début des années 90, vous constaterez que la situation est quelque peu différente : tout semble fortement axé sur la « productivité », avec seulement un petit clin d’œil au divertissement.
Cela ne veut pas dire que les ordinateurs domestiques n’étaient pas utilisés pour s’amuser ; l’industrie des jeux sur PC était en effet florissante. Toutefois, l’accent a été mis sur les consoles, étant donné que les ventes combinées de la SNES de Nintendo et de la Sega Genesis ont largement dépassé l’ensemble du marché des PC.
Les PC étaient autrefois incroyablement chers, surtout pour les modèles haut de gamme. En 1993, si vous travailliez dans la conception graphique et que vous vouliez une machine équipée du nouveau processeur Pentium d’Intel, de 32 Mo de RAM, de 500 Mo de disque dur, d’une carte graphique de 2 Mo et d’un écran haute résolution de 20 pouces, vous deviez débourser plus de 9 000 dollars pour une telle machine.
Vous pourriez certainement dépenser une telle somme aujourd’hui, mais à l’époque, le revenu médian des ménages américains était d’environ 30 000 dollars – en d’autres termes, un utilisateur domestique devait dépenser environ un tiers de son revenu annuel pour cet ordinateur. Ces caractéristiques étaient haut de gamme pour l’époque, mais il est possible de faire la même chose aujourd’hui pour la moitié de cette somme, et le revenu médian a plus que doublé depuis le début des années 1990.
De plus, vous n’avez plus besoin du meilleur hardware pour effectuer n’importe quelle tâche. Même les charges de travail très complexes, telles que le traitement de l’intelligence artificielle et le rendu graphique, peuvent être réalisées avec des composants standard, dans le cadre d’un budget raisonnable. Certes, le système prendra plus de temps pour effectuer ce travail, mais il peut le faire ; le hardware spécialisé des années 90 est aujourd’hui courant dans tous les PC.

Vous voulez créer votre propre Toy Story ? Si vous avez du talent et que cela ne vous dérange pas d’attendre quelques heures pour que les tâches soient terminées, même un PC bon marché suffira.
Il n’y a pas que les niveaux de créativité que les ordinateurs domestiques nous offrent aujourd’hui : nous pouvons facilement travailler et jouer ensemble, en temps réel, avec des dizaines de personnes connectées de manière transparente sur la même tâche ou le même jeu. Le mérite en revient en grande partie à l’internet à haut débit bon marché, ainsi qu’aux progrès réalisés dans les technologies d’écran et de caméra.
La QuickCam de Connectix, l’une des toutes premières caméras web grand public, a fait ses débuts en 1994, mais elle ne produisait que des images en niveaux de gris de 320 x 240, à une vitesse de 15 images par seconde. Initialement disponible uniquement pour les Mac d’Apple, elle était vendue au prix de 100 dollars, soit 210 dollars d’aujourd’hui. Mais pour environ trois fois cette somme, vous pouvez aujourd’hui obtenir un ordinateur entier entouré d’une webcam en couleurs qui produit des vidéos avec 12 fois plus de pixels, à une fréquence d’images deux fois plus élevée.
Avec le hardware adéquat, les images et les vidéos peuvent être enregistrées ou diffusées en direct n’importe où dans le monde.
N’importe qui à la maison peut prendre ces données, les éditer et les améliorer, créant ainsi de nouveaux médias pour l’éducation et le divertissement. L’époque où il fallait des ordinateurs extrêmement coûteux et des connaissances spécialisées et pointues pour y parvenir est révolue.
Les capacités d’un PC moderne et de ses périphériques, rendues accessibles grâce aux progrès constants des logiciels, ont rendu tout cela possible.
Futurologie : Aujourd’hui et demain
Comme cela a toujours été le cas, prédire la configuration future d’un PC typique – même dans quelques années, sans parler des 30 années à venir – reste une entreprise difficile et potentiellement risquée. De nombreux aspects fondamentaux sont restés inchangés depuis trois décennies, comme les processeurs basés sur l’architecture x64, ainsi que la configuration de base de la mémoire vive, du stockage, de la carte graphique et des options de connectivité.
Les futures machines respecteront probablement cette structure simple, mais les conceptions sous-jacentes des différents composants seront probablement très différentes.
Nous pourrions assister à la disparition progressive des threads, à l’exception du câble d’alimentation connecté à l’arrière de l’ordinateur (alimenter sans fil un ordinateur de 700 W serait loin d’être idéal !) Actuellement, les threads sont essentiels pour alimenter en courant les versions internes et transférer des données à certains appareils. Ils pourraient toutefois être remplacés par des emplacements standardisés offrant ces deux fonctions.
C’est déjà le cas aujourd’hui – les emplacements PCI Express et M.2 sont utilisés pour les cartes graphiques et les disques durs, et bien que les premières aient encore besoin de câbles importants pour les alimenter, certains fournisseurs essaient déjà de minimiser le nombre de câbles nécessaires, et rien ne dit que tout cela ne sera pas un jour absorbé par la carte mère.
Personne ne sait à quel point les PC de 2053 seront plus puissants. Nous commençons à approcher les limites de ce que les nœuds de traitement des semi-conducteurs peuvent réaliser dans la fabrication de processeurs à grande échelle. Cependant, il faudra attendre un certain temps avant de rencontrer un mur infranchissable. L’unité centrale de bureau du futur ne fonctionnera peut-être pas à 50 GHz ou ne traitera pas des milliers de threads par cycle, mais elle devrait être plus que capable de gérer les charges de travail qui l’attendent.
Les ordinateurs existent déjà dans toutes les tailles, formes et formats imaginables, et il est donc difficile de prévoir les différences potentielles à cet égard. Il est possible que l’on mette davantage l’accent sur le recyclage et la réutilisation des différentes versions en raison de la quantité alarmante de déchets électroniques.
On pourrait en dire autant de la tendance en matière de consommation d’énergie. Les unités centrales haut de gamme consomment 10 à 20 fois plus d’énergie que celles des années 90, et les plus grandes cartes graphiques d’un PC domestique en consomment jusqu’à 100 fois plus. Nos préoccupations environnementales pourraient dicter la conception des futurs PC plus que les besoins d’utilisation ou les progrès technologiques.
Au cours des 30 dernières années, nous avons assisté à l’extraordinaire évolution de l’ordinateur personnel. Ces machines ont révolutionné notre façon de vivre, de travailler, de nous divertir et de communiquer avec nos amis et nos proches. Les machines autrefois encombrantes et inesthétiques sont devenues des appareils élégants et puissants, aussi étonnants que performants.
Anticiper ce que l’avenir nous réserve est vraiment passionnant.
Découvrez le reportage du mois (sous-titré en français), l’IA gagnera t-elle face aux champion du monde du jeu de Go ? :
