Pendant 25 ans, un nom a été synonyme d’infographie. À travers ses épreuves et ses tribulations, elle s’est battue contre d’autres entreprises de longue date ainsi que contre de nouveaux arrivants en vogue. Sa marque de produit la plus réussie est toujours utilisée aujourd’hui, aux côtés de nombreuses technologies dont elle a été la pionnière au fil des ans.
Nous faisons bien entendu référence à ATI Technologies. Voici l’histoire fascinante de sa naissance, de sa montée en puissance et de la conclusion ultime de ce géant graphique canadien.
Une nouvelle étoile est née
Comme pour la plupart des dernières grandes entreprises technologiques que nous avons couvertes dans notre série « Gone But Not Forgotten », cette histoire commence au milieu des années 1980. Lee Lau, qui avait émigré au Canada dans son enfance, a obtenu une maîtrise en génie électronique de l’Université de Toronto (UoT).
Après avoir d’abord travaillé pour une sous-division de Motorola au début des années 1980, il a créé une petite entreprise appelée Comway qui a conçu des cartes d’extension de base et des adaptateurs graphiques pour les PC IBM, le processus de fabrication étant exécuté à Hong Kong.
Cette entreprise l’a mis en contact avec Benny Lau, ingénieur en conception de circuits et diplômé de l’UoT, et Kwok Yen Ho, qui avait accumulé de nombreuses années d’expérience dans l’industrie électronique. À la demande de Lau, ils se sont joints à lui pour transformer Comway en une nouvelle entreprise. Avec environ 230 000 $ en prêts bancaires et investissements (certains de l’oncle de Lee, Francis Lau), l’équipe a officiellement fondé Array Technology Incorporated en août 1985.
Sa mission était de concevoir exclusivement des chipsets d’accélération vidéo entièrement basés sur des réseaux de portes (d’où le nom de la société) et de les vendre aux OEM pour les utiliser dans les PC IBM, dans des clones et leurs propres cartes d’extension. En raison de la pression légale d’une entreprise du même nom aux États-Unis, elle a adopté le nom d’ATI Technologies quelques mois après la création de l’entreprise.
En moins de 12 mois, elle a mis son premier produit sur le marché. La solution graphique était une carte de 300 $ pouvant s’insérer dans n’importe quel emplacement ISA 8 bits libre et prenant en charge plusieurs modes graphiques – elle pouvait facilement basculer entre les sorties d’affichage MDA, CGA, Hercules et Plantronics avec le logiciel fourni.
Pour un petit coût supplémentaire, les clients pouvaient également acquérir des versions qui incluaient des ports parallèles et/ou série pour connecter d’autres périphériques au PC. La seule chose qu’il n’offrait pas était le mode EGA d’IBM, mais vu le prix, personne ne s’en plaignait vraiment.
Étant un nouveau venu dans l’industrie, les ventes étaient peut-être modestes, mais avec des investissements continus et des prouesses d’ingénierie, le groupe a continué à améliorer ses puces. Alors que les années 1980 touchaient à leur fin, ATI a prouvé qu’il ne s’agissait pas seulement d’un phénomène éphémère – les 400 $ EGA Wonder (1987) et 500 $ VGA Wonder (1988, photo ci-dessus) présentaient des améliorations substantielles par rapport à leurs prédécesseurs et étaient à des prix compétitifs.
Au fil des ans, plusieurs versions de ces produits ont été publiées. Certaines étaient des options ultra-abordables avec des fonctionnalités minimales, tandis que d’autres comportaient des ports de souris dédiés ou des puces audio sur le circuit imprimé. Cependant, il s’agissait d’un marché hautement concurrentiel et ATI n’était pas la seule entreprise à produire de telles cartes.
Ce qu’il fallait, c’était quelque chose de spécial, quelque chose qui les démarquerait de la foule.
Mach entre en scène
Les cartes graphiques des années 80 étaient très différentes de ce que nous connaissons aujourd’hui, malgré toutes les similitudes superficielles. Leur fonction principale était de convertir les informations d’affichage générées par l’ordinateur en un signal électrique pour l’écran – rien de plus. Tous les calculs impliqués dans la génération des graphiques et des couleurs affichés étaient entièrement gérés par le processeur.
Cependant, le moment était venu pour un co-processeur dédié de prendre en charge certaines de ces tâches. L’une des premières entrées sur le marché est venue d’IBM, sous la forme de son adaptateur d’affichage 8514. Bien que moins coûteuse que les cartes graphiques pour stations de travail, elle était encore assez chère à plus de 1 200 $, ce qui a naturellement incité un grand nombre d’entreprises à produire leurs propres clones et déclinaisons.
Dans le cas d’ATI, cela a pris la forme de la puce ATI38800 – mieux connue sous le nom de Mach8. L’implémentation de ce processeur dans un PC a conduit à la délégation de certaines opérations graphiques 2D (par exemple, dessin au trait, remplissage de zone, blits de bits) par le CPU. Un inconvénient majeur de la conception, cependant, était son manque de capacités VGA. Cela a forcé le besoin d’une carte séparée pour gérer cette tâche ou impliquer un chipset supplémentaire sur la carte.
L’ATI Graphics Ultra et Graphics Vantage, sortis en 1991, étaient deux de ces modèles qui ont emprunté cette dernière voie. Cependant, ils étaient un peu chers pour ce qu’ils offraient. Par exemple, l’Ultra haut de gamme, équipé de 1 Mo de DRAM à double port (commercialisé sous le nom de VRAM), coûte 900 $. Les prix ont rapidement chuté une fois qu’ATI a dévoilé son prochain processeur graphique.
L’ATI Graphics Ultra et Graphics Vantage, sortis en 1991, étaient deux de ces modèles qui empruntaient cette dernière voie, mais ils étaient plutôt chers pour ce qu’ils offraient. Par exemple, l’Ultra haut de gamme, chargé de 1 Mo de DRAM à double port (commercialisé sous le nom de VRAM), coûte 900 $, bien que les prix aient rapidement chuté une fois qu’ATI a dévoilé son prochain processeur graphique.
Rempli d’améliorations, l’ATI68800 (Mach32) a atteint les étagères à la fin de 1992. Avec un contrôleur VGA intégré, un traitement interne 64 bits, une prise en charge des couleurs jusqu’à 24 bits et une accélération hardware pour le curseur, c’était un pas en avant significatif pour l’entreprise.
Le Graphics Ultra Pro (ci-dessus) arborait la nouvelle puce, ainsi que 2 Mo de VRAM et un prix demandé de 800 $ – il était vraiment puissant, en particulier avec la fonction d’ouverture linéaire en option activée, qui permettait aux applications d’écrire des données directement dans la mémoire vidéo. . Cependant, ce n’était pas sans problèmes, tout comme ses concurrents. ATI a proposé une version Plus plus économique avec 1 Mo de DRAM et aucun support d’ouverture de mémoire. Ce modèle était moins problématique et plus populaire en raison de son prix de 500 $.
Au cours des deux années suivantes, les ventes d’ATI se sont améliorées au milieu de la concurrence féroce de Cirrus Logic, S3, Matrox, Tseng Laboratories et d’innombrables autres entreprises. En 1992, une filiale a été ouverte à Munich, en Allemagne, et un an plus tard, la société est devenue publique avec des actions vendues aux bourses de Toronto et du Nasdaq.
Cependant, avec de nombreuses entreprises rivalisant dans le même domaine, maintenir une avance constante sur tout le monde était extrêmement difficile. ATI a rapidement fait face à son premier revers, affichant une perte nette d’un peu moins de 2 millions de dollars.
Cela n’a pas aidé que d’autres sociétés aient des puces plus rentables. À cette époque, Cirrus Logic avait acheté une petite société d’ingénierie, appelée AcuMOS, qui avait développé une solution monopuce, contenant le contrôleur VGA, le RAMDAC et le générateur de fréquence – les modèles d’ATI utilisaient tous des puces séparées pour chaque rôle, ce qui signifiait que les cartes coûte plus cher à fabriquer.
Près de deux ans passeront avant qu’il n’ait une réponse appropriée, sous la forme du Mach64. Les premières déclinaisons de cette puce utilisaient encore un RAMDAC et une fréquence externes, mais ceux-ci ont été rapidement remplacés par des modèles entièrement intégrés.
Ce nouvel adaptateur graphique a ensuite inspiré une multitude de gammes de produits, en particulier dans le secteur OEM. Xpression, WinTurbo, Pro Turbo et Charger sont tous devenus des noms familiers dans les PC domestiques et de bureau.
Malgré le retard dans le lancement du Mach64, ATI n’est pas resté inactif dans d’autres domaines. Les fondateurs observaient constamment la concurrence et prévoyaient une évolution du marché graphique. Ils ont acheté une équipe graphique basée à Boston auprès de Kubota Corporation et l’ont chargée de concevoir la prochaine génération de processeurs pour saisir l’opportunité une fois le changement commencé, tandis que le reste des ingénieurs a continué à affiner leurs puces actuelles.
Rage à l’intérieur de la machine
Deux ans après le lancement de ses cartes alimentées par Mach64, ATI a mis en lumière un nouveau processeur en avril 1996. Nom de code Mach64 GT, mais commercialisé sous le nom de 3D Rage, il s’agissait du premier processeur de la société offrant à la fois une accélération 2D et 3D.
Sur le papier, les cartes 3D Xpression qui arboraient la puce semblaient être de vrais gagnants – le prise en charge de l’ombrage Gouraud, le mappage de texture correct en perspective (PCTM) et le filtrage de texture bilinéaire étaient tous présents. Fonctionnant à 44 MHz, ATI a affirmé que le 3D Rage pouvait atteindre un taux de remplissage maximal des pixels de 44 Mpixels/s, bien que ces revendications de performances aient plusieurs mises en garde.
Le 3D Rage a été développé avec le nouveau Direct3D de Microsoft à l’esprit. Cependant, cette API a non seulement été retardée, mais a également subi des changements de caractéristiques constants avant sa sortie éventuelle en juin 1996. En conséquence, ATI a dû développer sa propre API pour la 3D Rage, et seule une poignée de développeurs l’ont adoptée.
Le processeur d’ATI ne prenait pas en charge la mise en mémoire tampon z, ce qui indique que tout jeu l’utilisant ne fonctionnerait pas, et le taux de remplissage présumé des pixels n’était réalisable qu’avec des polygones à ombrage plat ou ceux colorés avec un mappage de texture non correct en perspective. Avec le filtrage bilinéaire ou PCTM appliqué, le taux de remplissage serait réduit de moitié, à tout le moins.
Pour aggraver les choses, les seuls 2 Mo de DRAM EDO sur les premiers modèles 3D Xpression étaient lents et limitaient le rendu des couleurs 16 bits à une résolution maximale de 640 x 480. Et pour couronner le tout, même dans les jeux, il pouvait fonctionner, les performances 3D du processeur Rage étaient, au mieux, décevantes.
Heureusement, le produit avait quelques points positifs – son prix était raisonnable à environ 220 $, et son accélération 2D et MPEG-1 était louable pour le prix. Les contrats OEM d’ATI garantissaient que de nombreux PC étaient vendus avec une carte 3D Xpression à l’intérieur, ce qui a permis de maintenir un flux de revenus stable.
Une version mise à jour du Mach64 GT (alias le 3D Rage II) est apparue plus tard la même année. Cette itération prenait en charge les textures z-buffer et palettisées, ainsi qu’une gamme d’API et de drivers pour plusieurs systèmes d’exploitation. Les performances se sont améliorées, grâce à des vitesses de fréquence plus élevées et à un cache de texture plus important, mais restaient décevantes, en particulier par rapport aux offres des nouveaux concurrents.
Sorti en octobre 1996, 3dfx Voodoo Graphics était uniquement en 3D, mais ses côtelettes de rendu donnaient au Rage II un aspect résolument de seconde classe. Aucun des produits d’ATI n’est venu près de l’égaler.
ATI était plus investi dans le marché plus large des PC. Il a développé une puce d’encodage TV dédiée, l’ImpacTV, et avec l’ajout de l’accélération MPEG-2 dans la puce 3D Rage II, les consommateurs pouvaient acheter une carte multimédia tout-en-un pour une somme relativement modeste.
Cette tendance s’est poursuivie avec la mise à jour suivante en 1997, la 3D Rage Pro, malgré ses capacités de rendu améliorées. Le nouveau Riva 128 de NVIDIA, lorsqu’il est associé à un processeur compétent, a nettement surpassé l’offre d’ATI.
Cependant, des cartes telles que Xpert @ Play ont séduit les acheteurs soucieux de leur budget avec leurs ensembles de fonctionnalités complets. Le modèle All-In-Wonder en est un exemple (illustré ci-dessous). Il s’agissait d’une carte graphique Rage Pro standard équipée d’un tuner TV dédié et d’un hardware de capture vidéo.
Alors que le développement des puces graphiques s’accélérait, les petites entreprises avaient du mal à rivaliser et ATI a acquis un ancien concurrent, Tseng Laboratories, à la fin de l’année. L’afflux de nouveaux ingénieurs et d’expertise a entraîné une mise à jour substantielle de l’architecture Rage en 1998 – la Rage 128. Mais à cette époque, 3dfx Interactive, Matrox et NVIDIA avaient tous des conceptions de puces impressionnantes et une gamme de produits sur le marché. Les conceptions d’ATI ne pouvaient tout simplement pas rivaliser avec le haut de gamme.
Pourtant, les produits d’ATI ont rencontré le succès sur d’autres marchés, en particulier dans les secteurs des ordinateurs portables et des systèmes embarqués, garantissant un flux de revenus plus important que toute autre entreprise graphique. Cependant, ces marchés avaient également de faibles marges bénéficiaires.
La fin des années 1990 a vu plusieurs changements au sein de l’entreprise – Lee Lau et Benny Lau sont partis pour de nouvelles entreprises, tandis que d’autres sociétés graphiques (Chromatic Research et une partie de Real3D) ont été acquises. Malgré ces changements, le développement des puces s’est poursuivi sans relâche, aboutissant à ce qui serait finalement l’avant-dernière version de la 3D Rage présentée dans une nouvelle série de modèles.
Les cartes Rage Fury alimentées par puce Rage 128 Pro pour le secteur des jeux et les cartes Xpert 2000 pour les machines de bureau. ATI a même monté deux processeurs sur une carte, la Rage Fury MAXX (ci-dessus), pour rivaliser avec les meilleurs de 3dfx et NVIDIA.
Sur le papier, les puces de ce modèle particulier avaient le potentiel d’offrir presque le double des performances du Rage Fury standard. Malheureusement, ce n’était tout simplement pas aussi bon que le nouveau GeForce 256 de NVIDIA et c’était plus cher ; il manquait également le prise en charge de la transformation des sommets d’accélération hardware et des calculs d’éclairage (TnL), une nouvelle fonctionnalité de Direct3D 7 à l’époque.
Il était clair que si ATI devait être considéré comme un leader du marché des jeux, il devait créer quelque chose de spécial – encore une fois.
Un nouveau millénaire, un nouvel achat
Avec le nom de marque Rage associé à des cartes peu coûteuses mais compétentes, ATI a commencé le nouveau millénaire avec des changements importants. Ils ont simplifié l’ancien nom de code de l’architecture – Rage 6c est devenu R100 – et introduit une nouvelle gamme de produits : les Radeon.
Cependant, les changements étaient plus que superficiels. Ils ont révisé l’unité de traitement graphique (GPU, comme on l’appelait de plus en plus), la transformant en l’une des puces de rendu grand public les plus avancées de l’époque.
Un pipeline de sommets, entièrement capable de transformation hardware et d’éclairage (TnL), alimenté dans un moteur de configuration de triangle complexe. Ce moteur pourrait trier et éliminer les polygones en fonction de leur visibilité dans une scène. À son tour, cela alimentait deux pipelines de pixels, chacun abritant trois unités de mappage de texture.
Malheureusement, ses fonctionnalités avancées se sont avérées une épée à double tranchant. L’API de rendu pour les jeux la plus utilisée à l’époque, Direct3D 7, ne supportait pas toutes ses fonctions, pas plus que son successeur. Ce n’est que grâce aux extensions d’OpenGL et d’ATI que ses capacités complètes pourraient être pleinement réalisées.
La première carte graphique Radeon est arrivée sur le marché le 1er avril 2000. Malgré les blagues potentielles sur la date, le produit n’a pas fait rire. Avec 32 Mo de DDR-SDRAM, des vitesses de fréquence de 166 MHz et un prix de détail d’environ 280 $, il rivalisait avec compétence avec les séries Voodoo5 et GeForce2 de 3dfx et NVIDIA, respectivement.
C’était certainement vrai lorsque vous jouiez à des jeux en couleur 32 bits et en haute résolution, mais avec des paramètres inférieurs et une couleur 16 bits, la concurrence était beaucoup plus forte. Les drivers initiaux étaient quelque peu bogués et les performances d’OpenGL n’étaient pas non plus excellentes, bien que ces deux aspects se soient améliorés en temps voulu.
Au cours de l’année suivante, ATI a publié plusieurs déclinaisons de la R100 Radeon. L’un utilisait la SDRAM au lieu de la DDR-SDRAM (moins chère mais moins puissante), une version DDR-SDRAM de 64 Mo et une Radeon VE alimentée par RV100 à petit budget. La puce RV100 était essentiellement une R100 défectueuse, avec de nombreuses versions désactivées pour éviter les bugs opérationnels. Son prix était compétitif par rapport à la carte GeForce2 MX de NVIDIA, mais comme son processeur parent, il ne pouvait pas tout à fait correspondre.
Cependant, ATI dominait toujours le marché OEM et ses coffres étaient pleins. Avant que les Radeon n’arrivent sur le marché, ATI s’est une nouvelle fois lancé pour acquérir des prospects prometteurs. Ils ont acheté la société de puces graphiques ArtX récemment créée pour une somme importante de 400 millions de dollars en options d’achat d’actions. Cela peut sembler inhabituel pour une si jeune entreprise, mais ArtX s’est démarqué.
Composé initialement d’ingénieurs de Silicon Graphics, le groupe était à l’origine du développement du Reality Signal Processor de la Nintendo 64 et avait déjà été engagé pour concevoir une nouvelle puce pour le successeur de la console. ArtX a même eu de l’expérience dans la création d’un GPU intégré, qui a été autorisé par ALi Corporation pour son chipset de carte mère Pentium économique (l’Aladdin 7).
Grâce à cette acquisition, ATI n’a pas seulement obtenu de nouveaux talents en ingénierie, mais a également obtenu un contrat pour la production de la puce graphique du GameCube de Nintendo. Basée dans la Silicon Valley, l’équipe a été chargée d’aider au développement d’un nouveau processeur graphique hautement programmable, bien qu’il faille quelques années avant qu’il ne soit prêt.
ATI a poursuivi son modèle de création de produits techniquement impressionnants mais peu performants en 2001 avec la sortie de la puce R200 et de la prochaine génération de cartes Radeon, suivant désormais un nouveau schéma de dénomination de la série 8000.
ATI a corrigé toutes les lacunes du R100, le rendant entièrement compatible avec Direct3D 8, et a ajouté encore plus de pipelines et de fonctionnalités. Sur le papier, la nouvelle architecture offrait plus que tout autre produit sur le marché. C’était le seul produit à prendre en charge le pixel shader v1.4, suscitant des attentes.
Mais encore une fois, en dehors des analyses comparatives synthétiques et des chiffres de pointe théoriques, la meilleure carte graphique grand public d’ATI n’était tout simplement pas aussi rapide que celle de NVIDIA. Cette réalité a commencé à apparaître entre 1999 et 2001. Malgré des ventes cumulées de 3,5 milliards de dollars, ATI a enregistré une perte nette de près de 17 millions de dollars.
En revanche, NVIDIA, son principal concurrent, a réalisé moins de la moitié des revenus d’ATI mais a réalisé un bénéfice net de 140 millions de dollars, en grande partie grâce à la vente d’un volume important de cartes graphiques haut de gamme avec des marges bénéficiaires beaucoup plus importantes que les cartes OEM de base.
Une partie des pertes d’ATI découle de ses acquisitions – après ArtX, ATI a acheté une section d’Appian Graphics (en particulier, la division développant des systèmes de sortie multi-écrans) et la marque et l’équipe FireGL de Diamond Multimedia. Ce dernier a permis de prendre pied sur le marché des stations de travail, car FireGL s’était bâti une solide réputation dans ses premières années en utilisant les puces graphiques de 3DLabs.
Mais ATI ne pouvait pas simplement se frayer un chemin vers le sommet. Il lui fallait plus qu’une multitude de contrats à revenus élevés et à faible marge. Il lui fallait une carte graphique supérieure de toutes les manières possibles à tout ce qui existe sur le marché. Encore.
La carte tueuse arrive enfin
Tout au long du premier semestre 2002, des rumeurs et de prétendus commentaires de développeurs concernant la prochaine puce graphique R300 d’ATI ont commencé à circuler sur Internet.
La conception de ce GPU de nouvelle génération a été fortement influencée par l’ancienne équipe ArtX. Certains des chiffres annoncés – comme le double du nombre de transistors par rapport au R200, des vitesses de fréquence 20% plus élevées, des pipelines de pixels à virgule flottante de 128 bits et un anti-aliasing avec presque aucun impact sur les performances – semblaient presque trop beaux pour être vrais.
Naturellement, comme les personnes le font souvent, la plupart ont rejeté ces affirmations comme une simple hyperbole. Après tout, ATI s’était forgé une réputation de sur-promesse et de sous-livraison.
Mais lorsque l’ATI Radeon 9700 Pro à 400 $ est apparue en août, arborant le nouveau R300 en son cœur, la réalité du produit a été une énorme surprise. Bien que toutes les rumeurs n’étaient pas entièrement exactes, elles sous-estimaient toutes le pouvoir de la carte. À chaque test, le nouveau modèle d’ATI a complètement surclassé ses concurrents ; ni la Matrox Parhelia-512 ni la NVIDIA GeForce4 Ti 4600 ne pouvaient rivaliser.
Chaque aspect de la conception du processeur a été méticuleusement peaufiné. Cela allait de la barre transversale très efficace et du bus mémoire 256 bits à la première utilisation d’un boîtier flip-chip pour une puce graphique afin de faciliter des fréquences plus élevées.
Avec deux fois plus de pipelines que le 8500 et une conformité totale avec Direct3D 9 (encore quelques mois après sa sortie), le R300 était une merveille d’ingénierie. Même les drivers, point faible de longue date d’ATI, étaient stables et riches en fonctionnalités.
La Radeon 9700 Pro et la Radeon 9700 tierce, plus lente, ont été des succès instantanés, augmentant les revenus en 2003. Pour la première fois en trois ans, le bénéfice net a également été positif. La série GeForce FX 5800 basée sur NV30 de NVIDIA, lancée au printemps, a encore aidé ATI – elle était tardive sur le marché, gourmande en énergie, chaude et gâchée par une importante obfuscation de la part de NVIDIA.
Le NV30, comme le R300, avait soi-disant huit pipelines de pixels. Cependant, alors que les couleurs traitées par ATI à un niveau de virgule flottante 24 bits (FP24, le minimum requis pour Direct3D 9), celles de NVIDIA étaient censées être en 32 bits complet. Sauf que ce n’était pas tout à fait vrai.
Le nouveau GPU avait toujours quatre pipelines, chacun avec deux unités de texture, alors comment pourrait-il en revendiquer huit ? Ce chiffre représentait des opérations spécifiques, principalement liées aux lectures/écritures du z-buffer et du stencil buffer.
Essentiellement, chaque ROP pourrait gérer deux calculs de valeur de profondeur par fréquence – une fonctionnalité qui deviendrait éventuellement la norme pour tous les GPU. La réclamation FP32 était une histoire similaire; pour les opérations de couleur, les drivers forçaient souvent FP16 à la place.
Dans les bonnes circonstances, la GeForce FX 5800 Ultra a surpassé la Radeon 9700 Pro, mais la plupart du temps, la carte ATI s’est avérée supérieure, en particulier lors de l’utilisation de l’anti-aliasing (AA) et du filtrage de texture anisotrope (AF).
Les concepteurs ont constamment affiné le R300, et chaque version successive (R420 en 2004, R520 en 2005) affrontait le meilleur de NVIDIA – plus fort dans les jeux Direct3D, beaucoup plus fort avec AA+AF, mais plus lent dans les titres OpenGL, en particulier ceux qui utilisent les moteurs d’id Software.
Des revenus et des bénéfices sains ont caractérisé cette période, et la concurrence équilibrée a permis aux consommateurs de bénéficier d’excellents produits dans tous les secteurs budgétaires. En 2005, ATI a acquis Terayon Communication Systems pour renforcer sa position déjà dominante dans les systèmes de télévision embarqués et, en 2006, a acheté BitBoys Oy pour renforcer sa présence dans l’industrie des appareils portables.
La conception R300 d’ATI a attiré l’attention de Microsoft, amenant le géant de la technologie à contracter ATI pour développer un processeur graphique pour sa prochaine console Xbox, la 360. Lors de son lancement en novembre 2005, la direction des futurs GPU et API graphiques est devenue claire – un shader entièrement unifié architecture où les pipelines de sommets et de pixels dédiés fusionneraient en un seul réseau d’unités de traitement.
Si ATI avait désormais une longueur d’avance sur ses concurrents dans ce domaine, il lui fallait encore soutenir sa croissance. La solution à ce problème épineux a été une toute puissante surprise.
Tout change au sommet
En 2005, le co-fondateur, président de longue date et PDG, Kwok Yuen Ho, a pris sa retraite d’ATI. Lui, sa femme et plusieurs autres personnes faisaient l’objet d’une enquête pour délit d’initié sur les actions de la société depuis deux ans, remontant à 2000. Bien que le couple ait été exonéré de toutes les accusations, ATI elle-même ne l’a pas été, payant près d’un million de dollars d’accusations pour tromper le régulateurs.
Ho avait déjà démissionné de son poste de PDG à ce moment-là. David Orton, ancien PDG d’ArtX, a pris la relève en 2004. James Fleck, un homme d’affaires déjà riche et prospère, a remplacé Ho en tant que président. Pour la première fois en vingt ans, ATI avait une structure de direction sans aucun lien avec ses origines.
En 2005, la société a enregistré ses revenus les plus élevés jamais enregistrés, soit un peu plus de 2,2 milliards de dollars. Alors que son revenu net était d’un modeste 17 millions de dollars, le seul concurrent d’ATI sur le marché, NVIDIA, ne s’en sortait pas beaucoup mieux, malgré une part de marché plus importante et des bénéfices plus importants.
Dans cette optique, la nouvelle direction était confiante dans la réalisation de ses objectifs de relance de la croissance des revenus en développant ses secteurs les plus faibles et en consolidant ses points forts.
En juillet 2006, presque complètement à l’improviste, AMD a annoncé son intention d’acquérir ATI. L’échange portait sur 4,2 milliards de dollars en espèces (dont 60% proviendraient d’un prêt bancaire) et 1,2 milliard de dollars de ses actions. AMD avait initialement approché NVIDIA mais a rejeté les termes proposés de l’accord.
L’acquisition était un pari colossal pour AMD, mais ATI était ravi, et pour une bonne raison. C’était l’occasion de sortir NVIDIA du marché des chipsets pour cartes mères. ATI pourrait potentiellement utiliser les propres fonderies d’AMD pour fabriquer certains de ses GPU, et ses conceptions pourraient être intégrées dans les CPU.
AMD était évidemment prêt à dépenser beaucoup d’argent et avait le support financier pour le faire. Mieux encore, l’accord indiquerait également que le nom d’ATI resterait en usage.
L’acquisition a été finalisée en octobre 2006 et ATI est officiellement devenu une partie du groupe de produits graphiques d’AMD. Naturellement, il y a eu quelques remaniements dans la structure de gestion, mais pour le reste, les affaires se sont déroulées comme d’habitude. Le premier résultat a été la sortie du GPU R600 en mai 2007 – la première architecture de shader unifiée d’ATI, connue sous le nom de TeraScale, pour le marché x86.
Le nouveau design était clairement basé sur le travail effectué pour la puce graphique de la Xbox 360, mais les ingénieurs avaient tout mis à l’échelle considérablement plus haut. Au lieu d’avoir des pipelines dédiés pour les shaders de vertex et de pixels, le GPU était composé de quatre banques de seize unités de traitement de flux (chacune contenant cinq unités logiques arithmétiques ou ALU) pouvant gérer n’importe quel shader.
Bénéficiant de 710 millions de transistors et mesurant 420 mm2, le R600 était deux fois plus gros que le R520. La première carte à utiliser le GPU, la Radeon HD 2900 XT, avait également des métriques impressionnantes – consommation électrique de 215 W, un refroidisseur à double emplacement et 512 Mo de GDDR3 rapide sur un bus mémoire de 512 bits.
NVIDIA avait battu ATI sur le marché en lançant une architecture unifiée (connue sous le nom de Tesla) un an plus tôt. Son processeur G80, logé dans la GeForce 8800 Ultra, a été lancé en mai 2006. NVIDIA a ensuite suivi avec des modèles GTX et GTS réduits en novembre. Lorsqu’il est mis en correspondance dans des jeux réels, le meilleur d’ATI était plus lent que l’Ultra et le GTX, mais meilleur que le GTS.
La grâce salvatrice de la Radeon HD 2900 XT était son prix. À 399 $, il était 200 $ moins cher que le PDSF de la GeForce 8800 GTX (bien que cet écart se soit réduit à environ 100 $ au moment du lancement de la carte R520) et 420 $ de moins que l’Ultra. Pour l’argent, la performance était superbe.
Pourquoi n’était-ce pas mieux ? Une partie du déficit de performances, par rapport aux modèles de NVIDIA, pourrait être attribuée au fait que le R520 avait moins d’unités de mappage de texture (TMU) et d’unités de sortie de rendu (ROP) que le G80. Les jeux à l’époque dépendaient encore fortement de la texture et du taux de remplissage (oui, même Crysis).
Le taux de traitement des shaders de TeraScale dépendait également fortement de la capacité du compilateur à diviser correctement les instructions pour tirer parti de la structure de calcul. En bref, la conception était progressive et avant-gardiste (l’utilisation des GPU dans les serveurs de calcul en était encore à ses balbutiements), mais elle n’était pas idéale pour les jeux de cette période.
ATI avait démontré qu’il était parfaitement capable de créer une architecture de shader unifiée spécifiquement pour les jeux avec la puce Xenos dans la Xbox 360. Par conséquent, la décision de se concentrer davantage sur le calcul avec un GPU a dû être motivée par la pression interne de la haute direction.
Après avoir tant investi dans ATI, AMD fondait de grands espoirs sur son projet Fusion – l’intégration d’un CPU et d’un GPU dans une seule puce cohérente qui permettrait aux deux parties de travailler sur certaines tâches en parallèle.
Cette direction a également été suivie avec l’itération 2008 des GPU TeraScale – le RV770. Dans la Radeon HD 4870 haut de gamme (ci-dessus), les ingénieurs ont augmenté le nombre d’unités de shader de 2,5 fois pour seulement 33 % de transistors en plus.
L’utilisation d’une mémoire GDDR5 plus rapide a permis de réduire de moitié la taille du bus mémoire. Couplé au nœud de processus 55 nm de TSMC, l’ensemble de la matrice était presque 40 % plus petit que le R600. Tout cela a abouti à la vente au détail de la carte à 300 $.
Une fois de plus, il a joué le deuxième violon des dernières cartes GeForce de NVIDIA dans la plupart des jeux. Cependant, alors que la GeForce GTX 280 était très rapide, son PDSF de lancement était plus du double de celui de la Radeon HD 4870.
L’ère des cartes graphiques d’ATI étant les meilleures en termes de performances de jeu absolues était révolue, mais personne ne les battait en termes de communiqué qualité-prix. Contrairement à l’ère 3D Rage où les produits étaient bon marché et lents, les dernières Radeon étaient abordables mais offraient toujours des performances satisfaisantes.
À la fin de l’été 2009, une architecture TeraScale révisée a introduit une nouvelle série de GPU. La famille s’appelait Evergreen, tandis que le modèle spécifique utilisé dans la Radeon HD 5870 haut de gamme était connu sous le nom de Cypress ou RV870. Indépendamment de la confusion des noms, les ingénieurs ont réussi à doubler le nombre de transistors, d’unités de shader, de TMU, etc.
Les performances de jeu étaient excellentes et la légère augmentation du PDSF et de la consommation d’énergie était acceptable. Seules les cartes à double GPU, telles que la GeForce GTX 295 de NVIDIA et la propre Radeon HD 4870 X2 d’ATI, étaient plus rapides, bien qu’elles soient naturellement plus chères. Le HD 5870 n’a fait face à une véritable concurrence que six mois plus tard lorsque NVIDIA a sorti sa nouvelle architecture Fermi dans la GeForce GTX 480.
Bien qu’il ne s’agisse pas tout à fait d’un retour à l’époque du 9700 Pro, la puce TeraScale 2 a montré que les conceptions d’ATI ne devaient pas être rejetées.
Adieu ATI ?
En 2010, ATI disposait d’un vaste portefeuille de GPU – ses cartes graphiques dédiées couvraient tous les segments de prix, et bien que sa part de marché représentait environ la moitié de celle de NVIDIA, les puces Radeon étaient courantes dans les ordinateurs portables de divers fournisseurs. Sa gamme professionnelle FireGL était florissante et les contrats OEM et GPU de console étaient robustes.
Les aspects les moins réussis avaient déjà été rognés. Les chipsets de la carte mère et la gamme All-in-Wonder axée sur le multimédia ont été abandonnés quelques années plus tôt, et AMD avait vendu les chipsets Imageon, utilisés dans les appareils portables, à Qualcomm.
Malgré tout cela, la direction d’AMD estimait que la marque ATI n’avait pas assez de prestige à elle seule, surtout par rapport au nom d’AMD. Par conséquent, en août 2010, il a été annoncé que les trois lettres qui ornaient les cartes graphiques depuis 25 ans seraient supprimées de tous les futurs produits – ATI cesserait d’exister en tant que marque.
Cependant, ce n’était que pour la marque. La société actuelle est restée active, bien qu’elle fasse partie d’AMD. À son apogée, ATI comptait plus de 3 500 employés et plusieurs bureaux dans le monde. Aujourd’hui, elle exerce ses activités sous le nom d’ATI Technologies ULC, avec le siège social d’origine toujours utilisé et sa main-d’œuvre entièrement intégrée dans les secteurs pertinents de la structure organisationnelle d’AMD.
Ce groupe continue de contribuer à la recherche et au développement de la technologie graphique, comme en témoignent les listes de brevets et les offres d’emploi. Mais pourquoi AMD n’a-t-il pas complètement absorbé ATI, comme NVIDIA l’a fait avec 3dfx, par exemple ? Les termes de la fusion de 2006 signifiaient qu’ATI deviendrait une filiale d’AMD.
Bien qu’il soit possible qu’ATI ait finalement été fermée et entièrement absorbée, le niveau d’investissement et les affaires judiciaires presque sans fin concernant les violations de brevets qu’ATI a continué à traiter signifient qu’elle ne va nulle part pour le moment, voire jamais.
Cependant, avec une quantité importante de travaux de développement de GPU désormais effectués par AMD lui-même dans divers endroits du monde, il n’est plus exact d’étiqueter une puce graphique (que ce soit dans une carte Radeon ou le dernier processeur de console) en tant que produit ATI.
La marque ATI est maintenant absente depuis plus d’une décennie, mais son héritage et les bons souvenirs de ses anciens produits perdurent. La branche ATI Technologies continue de contribuer au domaine graphique près de 40 ans après sa création et on peut dire qu’elle lance toujours la marchandise. Parti mais pas oublié? Non, pas parti et pas oublié.
La série Gone But Not Forgotten de Netcost-security.fr
L’histoire d’entreprises clés de hardware et d’électronique qui, à un moment donné, étaient des leaders et des pionniers de l’industrie technologique, mais qui ont maintenant disparu. Nous couvrons la partie la plus importante de leur histoire, innovations, succès et controverses.
Découvrez le reportage du mois (sous-titré en français), l’IA gagnera t-elle face aux champion du monde du jeu de Go ? :
