Powered By Blogger

Rechercher sur ce blogue

Aucun message portant le libellé GPU. Afficher tous les messages
Aucun message portant le libellé GPU. Afficher tous les messages

lundi 26 avril 2021

Pourquoi Apple ne proposera bientôt plus de carte graphique ?

 

 

Pourquoi Apple ne proposera bientôt plus de carte graphique ?

Cette intégration d'un nombre croissant de fonctions au sein d'une seule puce est un mouvement de fond pour Apple. Le mouvement originel du « tout soudé » n'était qu'un début, avant la phase du « tout en un ». Il y a fort à parier que les gammes iMac et MacBook Pro se passent définitivement de cartes graphiques dédiées.


Si le « petit » M1 se contente de 8 cœurs graphiques, rien n'empêche Apple d'envisager un processeur plus richement doté, apte à propulser la gamme au niveau des cartes dédiées. Ajouter des cœurs supplémentaires à une architecture existante, c'est ainsi qu'Apple est passée de l'A10 à l'A10X ou de l'A12 à l'A12X. Et il n'y a pas beaucoup de retard à rattraper : les Mac M1 ne sont en retrait que de 10 à 30 % sur le MacBook Pro 16" et l'iMac 27" dotés d'une Radeon Pro 5300.

Autrement dit : si les 8 cœurs graphiques du M1 ne sont pas ridicules face aux cartes dédiées qu'Apple colle aujourd'hui dans sa gamme, sans doute une version enrichie pourra-t-elle venir chatouiller la Radeon Pro 5500 XT qui équipe avec ses 22 cœurs l'iMac haut de gamme. Car le rendu graphique est un domaine qui se plie fort bien à ces structures hautement parallèles où la charge de travail est répartie entre de nombreuses unités de calcul.


Là encore, Apple évitera d'enrichir un sous-traitant. Ayant habitué ses clients à des cartes de milieu de gamme ou issues du monde des ordinateurs portables, elle n'a pas besoin de s'attaquer directement aux monstres de Nvidia ou d'AMD et peut tranquillement nous assurer de meilleurs performances que la gamme précédente. Restera la question du gros Mac Pro ? ...... Une coquille vide chauffante avec un gros processeur ?


REF.:

vendredi 4 mai 2018

Nvidia dévoile de nouveaux GPU super puissants



Nvidia, le fabricant leader du marché des cartes graphiques, vient de dévoiler ses nouveautés 2018. Au programme, GPU ultra-puissants pour réaliser des calculs complexes.

Les produits que Nvidia a l'honneur de présenter cette année s'adressent majoritairement aux professionnels. A la pointe de la technologie, ils étonnent par leur puissance.


Le successeur du GP100 s'appelle GV100, et il est encore plus puissant


En acteur historique du marché des cartes graphiques, Nvidia a de quoi nous surprendre ! Jensen Huang, son fondateur et PDG, vient de présenter à la presse ses nouveautés. Il s'agit tout d'abord du Quadro GV100. Ce GPU super puissant a été conçu en premier lieu pour les professionnels. Malgré son étonnante productivité, les gamers vont donc devoir accepter de passer leur tour. La raison d'être du GV100 : devenir le « cerveau » des ordinateurs professionnels, dont la tâche première est de réaliser des calculs complexes.

En effet, par leur architecture, les cartes graphiques sont parfaitement adaptées à la gestion des séries volumineuses de tâches de même nature. A l'intérieur du GV100, on trouve l'architecture Volta (une invention « maison ») et une mémoire vive de 32 Go. Son prix n'a pas encore été dévoilé, mais quand on sait que son prédécesseur, le GP100, coûtait 7.000 euros à sa sortie, on peut s'attendre à ce que son prix soit dans la même fourchette.

[[PIC_1603004w500]]

Nvidia ne souhaite pas concevoir de GPU pour le marché des cryptomonnaies


En plus des GPU, et c'est encore plus intéressant, Nvidia a présenté ses super-ordinateurs. Son dernier « bébé », le DGX-2, est constitué de 16 cartes graphiques Tesla V100 GPU, dotée de 32 Go de RAM chacune. Le poids de cette machine : 230 kilos. Conçu pour réaliser des calculs, il s'adresse lui aussi aux professionnels, d'où son prix de 400.000 euros.

Quant aux marché des « mineurs » de cryptomonnaies, Nvidia se garde bien de s'y avancer. Comme l'a expliqué Jensen Huang à nos confrères de ZDNet après son discours, le marché premier de Nvidia est, selon lui, les gamers, suivi de celui des entreprises nécessitant des GPU pour des calculs volumineux (data centers, intelligence artificielle...). Peu adaptées à l'architecture de l'écosystème Ethereum, il ne souhaite pas voir ses cartes graphiques utilisées par les « mineurs ».

REF.:

jeudi 20 juillet 2017

Après le CPU et le GPU, voici le DLU (Deep Learning Unit)

L'apprentissage profond1 (en anglais deep learning, deep structured learning, hierarchical learning) est un ensemble de méthodes d'apprentissage automatique tentant de modéliser avec un haut niveau d’abstraction des données grâce à des architectures articulées de différentes transformations non linéaires[réf. souhaitée]. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage. Dans les années 2000, ces progrès ont suscité des investissements privés, universitaires et publics importants, notamment de la part du GAFA (Google, Apple, Facebook, Amazon)2.


Le « deep learning » fait partie d’une famille de méthodes d'apprentissage automatique fondées sur l’apprentissage de modèles de données. Une observation (comme une image) peut être représentée de différentes façons par un vecteur de données en fonction de :
  • l’intensité des pixels dont elle est constituée ;
  • ses différentes arêtes ;
  • les différentes régions de forme particulière ;
  • etc.
Certaines représentations et une bonne capacité d'analyse automatique des différenciations5 rendent la tâche d’apprentissage plus efficace.
Une des perspectives des techniques de l'apprentissage profond est le remplacement de travaux qui aujourd’hui sont encore relativement laborieux par des modèles algorithmiques d’apprentissage supervisé, non supervisé (c’est-à-dire ne nécessitant pas de connaissances spécifiques du problème étudié) ou encore par des techniques d’extraction hiérarchique des caractéristiques.
Les recherches dans ce domaine s’efforcent de construire de meilleures représentations du réel et de créer des modèles capables d’apprendre ces représentations à partir de données non labellisées à grande échelle. Certaines de ces représentations s’inspirent des dernières avancées en neuroscience qui sont grosso modo des interprétations du traitement de l’information et des modèles de communication du système nerveux, de la même façon que le système nerveux tente d’établir des connexions en fonction des messages reçus, de la réponse neuronale consécutive et du poids des connexions entre les neurones du cerveau.
Les différentes architectures de « deep learning » telles que les « deep neural networks », les « convolutional deep neural networks », et les « deep belief network » ont des champs d’application tels que la vision par ordinateur, la reconnaissance automatique de la parole, le traitement automatique du langage naturel, la reconnaissance audio et la bioinformatique6,7 où elles ont démontré qu’elles étaient capables de produire d’excellents résultats pour différentes problématiques.


Processeur DLU : Fujitsu promet 10 fois plus d'efficacité pour l'intelligence artificielle

dimanche 1 mai 2016

AMD s'apprête à ouvrir le x86 à la concurrence chinoise



Un accord de licence entre AMD et une nouvelle entreprise chinoise laisse entrevoir la possibilité de l'arrivée de nouveaux concurrents sur le marché du x86.

Voilà de quoi relancer la guerre du x86 : AMD annonce la mise au point d'un accord de licence avec une toute nouvelle entreprise chinoise, THATIC (Tianjin Haiguang Advanced Technology Investment Co. Ltd.), concernant le design de ses processeurs pour serveurs. L'accord consiste à fournir toute la technologie nécessaire (CPU, interconnexions et contrôleurs) à THATIC afin de leur permettre de concevoir des variantes de puces x86 destinées aux serveurs. Par cette session, AMD va entrer au capital de THATIC, qui est un consortium de plusieurs entreprises.

Expansion pour AMD, concurrence pour Intel

Ce type d'accord pourrait permettre à AMD d'étendre sa présence technologique, tout en gagnant de l'argent grâce à ses propriétés intellectuelles et industrielles. Certains analystes pensent qu'AMD pourrait donc multiplier ce type de licence, pour finalement faire de même avec ses processeurs grand public pour PC, et même avec ses architectures GPU !

Licence sur l'architecture Zen ?

Les analystes pensent aussi que les accords de licence portent sur la nouvelle architecture Zen d'AMD, qui s'annonce être la plus performante du fabricant depuis plus d'une dizaine d'années. Plus important encore, les mêmes experts pensent que cet accord de licence va donner un accès au gouvernement chinois sur le x86.