Historique
Carte vidéo 2D-3D
Les premières cartes vidéos ne pouvaient effectuer des calculs qu'en 2D. Lorsqu'elles sont apparues, les cartes vidéos 2D-3D avaient l'avantage de n'occuper qu'un seul connecteur AGP ou PCI au lieu de deux (pour les configurations courantes de l'époque, c'est-à-dire avant 1998). En effet, jusqu'alors, les cartes 2D étaient proposées séparément des cartes dites accélératrice 3D (comme les premières 3dfx), chacune ayant un processeur graphique spécifique.
Aujourd'hui, toutes les cartes graphiques sont 2D-3D.
Composants
Le processeur graphique
Le processeur graphique (Graphical Processing Unit ou GPU en anglais, voir même Visual Processing Unit ou VPU) sert à libérer le micro-processeur de la carte mère en prenant en charge les calculs spécifiques à l’affichage, en particulier les calculs spécifiques à l’affichage en 3D ou la conversion YCbCr vers RGB.
Cette division des tâches entre les deux processeurs libère le processeur principal de l’ordinateur et en augmente d’autant la puissance.
Le processeur graphique est très souvent muni de son propre radiateur ou ventilateur pour évacuer la chaleur qu’il produit.
Ces 15 dernières années, les cartes graphiques ont fortement évolué. Autrefois, la fonction essentielle d'une carte graphique était de transmettre les images produites par l'ordinateur à l'écran. C'est encore sa fonction principale sur beaucoup de machines à vocation bureautique ou l'affichage d'images en 3D n'offre que peu d'intérêt. Toutefois aujourd'hui même les cartes graphiques les plus simples gèrent aussi le rendu d'images en 3D temps réel avec plus ou moins de succès. C'est une activité très coûteuse en terme de calculs et en terme de bande passante mémoire. Le GPU est donc devenu un composant très complexe, très spécialisé et presque imbattable dans sa catégorie (rendu d'images en 3 dimensions). Hormis pour les jeux vidéos ou quelques usages en infographie, les possibilités des cartes graphiques ne sont que très peu exploitées en pratique. Ainsi ce sont essentiellement les joueurs qui achètent et utilisent des GPU de plus en plus puissant.
Depuis quelques années, la puissance de calcul des cartes graphiques est devenue tellement importante pour un coût finalement très réduit (100 à 700€ pour les modèles grand public) que les scientifiques sont de plus en plus nombreux à vouloir en exploiter le potentiel dans d'autres domaines. Il peut s'agir de faire tourner des simulation de modèles météo, financiers ou toute opération parallélisable et nécessitant une très grande quantité de calcul. NVIDIA et ATI (racheté depuis par AMD), les 2 principaux fabriquants de cartes graphiques haute performance grand public proposent chacun des solutions propriétaires afin de pouvoir utiliser leur produit pour du calcul scientifique
La mémoire vidéo
La mémoire vidéo conserve les données numériques qui doivent être converties en images par le processeur graphique et les images traitées par le processeur graphique avant leur affichage.
Toutes les cartes graphiques supportent deux méthodes d'accès à leur mémoire. L'une est utilisée pour recevoir des informations en provenance du reste du système, l'autre est sollicitée pour l'affichage à l'écran. La première méthode est un accès direct conventionnel (RAM) comme pour les mémoires centrales, la deuxième méthode est généralement un accès séquentiel à la zone de mémoire contenant l’information à afficher à l'écran.
Le RAMDAC
Le RAMDAC (Random Access Memory Digital-to-Analog Converter) convertit les images stockées dans la mémoire vidéo en signaux analogiques à envoyer à l’écran de l’ordinateur. Il est devenu inutile avec les sorties DVI (numériques).
Le BIOS vidéo
Le BIOS vidéo est à la carte graphique ce que le BIOS est à la carte mère. C’est un petit programme enregistré dans une mémoire morte (ROM) qui contient certaines informations sur la carte graphique (par exemple, les modes graphiques supportés par la carte) et qui sert au démarrage de la carte graphique.
La connexion entre la carte graphique et la carte mère
La connexion à la carte mère se fait à l'aide d'un port relié à un bus.
Au cours des années, plusieurs technologies se sont succédé pour satisfaire les besoins de vitesse de transfert sans cesse croissants des cartes graphiques :
- la première technologie utilisée fut la technologie ISA, utilisée à partir de 1984 pour adjoindre des cartes disposant de plus de mémoire vidéo que les cartes standards fournies par les manufacturiers d’ordinateurs ou des cartes utilisant des jeux d'instructions destinés à accélérer l'affichage des fenêtres sous Windows ;
- certaines machines (de marque IBM pour la plupart) ont utilisé le bus VLB (Vesa Local Bus), mais ce type de bus fut rapidement abandonné en raison de sa trop grande specificité.
- avec l'arrivée des premiers processeurs Pentium en 1994, on utilise ensuite l'interface PCI ;
- le bus AGP (Accelerated Graphics Port) est apparu en mai 1997 ;
- le bus AGP est actuellement supplanté par le bus PCI-Express, apparu en 2004.
- Le PCI express 2.0 qui permet un doublement du débit de données bi-directionnel (250Mo/s pour le PCI-express 1.1, contre 500Mo/s pour le 2.0 ) devrait remplacer à terme le PCI-express 1.1 en 2007.
La connectique
On peut retrouver les connexions suivantes selon les cartes graphiques :
- L'interface VGA standard : les cartes graphiques sont la plupart du temps équipées d'un connecteur VGA 15 broches (Mini Sub-D, composé de 3 séries de 5 broches), généralement de couleur bleue, permettant notamment la connexion d'un écran CRT. Ce type d'interface permet d'envoyer à l'écran 3 signaux analogiques correspondant aux composantes rouges, bleues et vertes de l'image.
- L'interface DVI (Digital Video Interface), présente sur certaines cartes graphiques, permet d'envoyer, aux écrans le supportant, des données numériques. Ceci permet d'éviter des conversions numérique-analogique, puis analogique numériques, inutiles.
- L'interface S-Vidéo : De plus en plus de cartes sont équipée d'une prise S-Video permettant d'afficher sur une télévision, c'est la raison pour laquelle elle est souvent appelée prise télé (notée « TV-out »).
- Une interface HDMI permettant de relier la carte à un écran haute définition en transmettant également la partie audio (polyvalent, ce format est le remplaçant de la péritel).
Note : le DVI et le HDMI peuvent supporter les DRM.
Les modèles actuels associent généralement deux types d'interface: une interface pour la télévision (S-Vidéo ou HDMI) avec une interface pour écran d'ordinateur (VGA ou DVI).
Aucun commentaire:
Enregistrer un commentaire