Powered By Blogger

Rechercher sur ce blogue

jeudi 20 juillet 2017

Les plus gros data center dans le monde


Terra Incognita

Image 1 sur 13
Les data center sont un paradoxe. Sans eux, pas d'internet tel qu'on le connaît aujourd'hui. Pourtant ils restent éminemment mystérieux. Mis à part les managers qui les commandent, les ingénieurs qui les conçoivent et ceux qui les exploitent au quotidien, personne ne les voit, personne ne les connait, personne ne sait véritablement comment ils fonctionnent. Levons un coin du voile en faisant un tour du monde des plus gros data center, existants ou en cours de construction.
 
 
 
 
 

China Telecom Inner Mongolia Information Park - Hohhot

Image 2 sur 13
Le plus gros data center mondial - pour le moment - est la propriété d'un des plus gros opérateurs télécoms mondiaux, China Telecom. En construction au sein d'un gigantesque complexe de 25 kilomètres carrés à Hohhot, la capitale de la Mongolie intérieure, le Inner Mongolia Information Park de China Telecom occupera une surface de 1 million de mètres carrés. Tout cet espace n'est cependant pas dédié à des serveurs : il comprend également un centre d'appel ou des bureaux. Sa capacité totale doit atteindre 100 000 racks et 1,2 millions de serveurs.
 
 
 
 
 

China Mobile - Hohhot

Image 3 sur 13
Non loin de China Telecom, China Mobile, le premier opérateur chinois, va également ouvrir un énorme data center à Hohhot. Il est légèrement plus petit que celui de China Telecom, mais totalise tout de même 720 000 mètres carrés. Et encore, ceci ne vaut que pour les deux premières phases du projet : une troisième est en préparation.
 
 
 

China Mobile - Harbin

Image 4 sur 13
La troisième place du classement est également occupée par China Mobile, avec un second data center qui atteindra 663 000 mètres carrés à terme. Celui-ci est situé au Nord-Est de la Chine, Harbin, une ville proche de la frontière avec la Russie et donc propice aux échanges commerciaux. C'est aussi une ville très froide (température moyenne de 5 °C) donc appropriée au refroidissement d'une ferme de serveurs.
 
 
 
 
 
 

Range International Information Hub - Langfang

Image 5 sur 13
Le groupe Range Technology Development a lancé en 2011 la construction du Range International Information Hub, à Langfang, dans la province chinoise de Heibei. Ce complexe atteint une surface de 620 000 m2, soit autant que le Pentagone abritant le département de la Défense américaine. Ce data center a été conçu par IBM pour Range Technology et le groupe américain participera également à l'exploitation du site. La construction doit s'achever en 2016.
 
 
 
 
 

China Unicom - Northwest

Image 6 sur 13
Le troisième opérateur chinois s'est lui aussi jeté dans une course au data center et a décidé de s'installer lui aussi à Hohhot. Son centre y sera un peu plus petit que ceux de ses deux concurrents, avec "seulement" 598 000 m2.
 
 
 
 
 

@Tokyo Corporation, Koto-Ku, Japon

Image 7 sur 13
À ce niveau dans le classement, nous pouvons enfin quitter l'empire du milieu pour atterrir dans celui du soleil levant. @Tokyo est une entreprise assez jeune, fondée en 2000. Avec 130 000 m2 dédiés à l'accueil de serveurs, son immeuble phare du quartier de Koto-Ku à Tokyo est pourtant l'un des plus gros data center au monde.  Il est aussi remarquable par son architecture, tout en rondeur. @Tokyo exploite ce centre de données pour des clients tiers, qui louent une capacité serveur.
 
 
 
 
 

NSA Utah Data Center (Bumblehive)

Image 8 sur 13
Les data center précédents étaient tous la propriété d'opérateurs télécoms ou d'exploitants spécialisés. Voici venir un autre acteur, moins publique : la National Security Agency, l'agence de renseignement américaine rendue tristement célèbre par les révélations d'Edward Snowden. Pour mener à bien ses missions d'écoute des communications, la NSA s'est dotée d'un superbe data center, la Utah Data Center, aussi affectueusement baptisé Bumblehive (la ruche bourdonnante). Bâtie pour la bagatelle de 2 milliards de dollars à Bluffdale dans l'Utah, cette ruche occupe plus de 1 million de pieds carrés, soit environ de 100 000 m2. Sur ce total, seuls 10 % sont des salles serveurs.
 
 
 
 

Digital Realty 350 East Cermak

Image 9 sur 13
À égalité avec la NSA (100 000 m2) et toujours américain, mais fonctionnant d'ores et déjà à plein régime, le 350 East Cermak est un superbe data center, en plein coeur de la ville de Chicago. Il est en effet abrité par un bâtiment centenaire, à l'architecture intérieure d'inspiration gothique. A l'origine, ce bâtiment fut construit pour les impressions RR Donnelley, qui produisaient notamment les pages jaunes ou le célèbre catalogue des magasins Sears. Sa conception avant-gardiste pour l'époque fait appel à des colonnes de béton armé. Les planchers peuvent supporter plus d'une tonne par mètre carré. Il est aujourd'hui exploité par Digital Reality un hébergeur abritant les services de nombreuses autres sociétés.
 
 
 
 

QTS Atlanta-Metro

Image 10 sur 13
Quality Technology Services, comme Digital Reality, possède et exploite des data center dont elle loue les capacités à d'autres entreprises. Son fleuron est le data center Atlanta Metro : 90 000 m2 de surface dans le nord ouest d'Atlanta (Georgie), dont 49 000 m2 de salles serveurs.
 
 
 
 

Plus gros européen : Portugal Telecom- Covhila, Portugal

Image 11 sur 13
Le titre de plus gros data center d'Europe revient au bâtiment inauguré fin 2013 par Portugal Telecom à Covilha, avec une surface totale prévue de 75 500 m2. Le site se veut également très "Green" utilisant l'air extérieur pour son refroidissement, pour atteindre un PUE de 1,25. En France, Orange a ouvert fin 2013, son data center Normandie, un peu plus petit (64 000 m2 prévus à terme).
 
 
 
 
 

Et Google, Facebook, Microsoft, Amazon, Apple ?

Image 12 sur 13
Curieusement, les grands noms de l'informatique sont absents de notre classement. Les raisons sont diverses. Ces sociétés ne communiquent pas toujours les détails de leur infrastructure. Google par exemple, ne donne aucun chiffre. Facebook est plus transparent, mais la société ne fait pas la course aux data center géants : elle possède trois centres d'environ 30 000 m2 et un de 45 000 m2. De même, Amazon préfère multiplier les centres moyens, cela renforce son infrastructure : une catastrophe sur un site ne touche qu'une petite portion des données.
Microsoft est moins frileuse et possède plusieurs très gros sites dont un data center de 65 000 m2 à Chicago. Apple est arrivée plus tard dans la course, mais a fait grand bruit avec son centre de Maiden (en photo ci-contre), totalisant 47 000 m2 et alimenté à l'énergie solaire.
 
 
 
 
 
 REF.:
A propos de l'auteur
Matthieu Lamelot & Florian Charpentier
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Après le CPU et le GPU, voici le DLU (Deep Learning Unit)

L'apprentissage profond1 (en anglais deep learning, deep structured learning, hierarchical learning) est un ensemble de méthodes d'apprentissage automatique tentant de modéliser avec un haut niveau d’abstraction des données grâce à des architectures articulées de différentes transformations non linéaires[réf. souhaitée]. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage. Dans les années 2000, ces progrès ont suscité des investissements privés, universitaires et publics importants, notamment de la part du GAFA (Google, Apple, Facebook, Amazon)2.


Le « deep learning » fait partie d’une famille de méthodes d'apprentissage automatique fondées sur l’apprentissage de modèles de données. Une observation (comme une image) peut être représentée de différentes façons par un vecteur de données en fonction de :
  • l’intensité des pixels dont elle est constituée ;
  • ses différentes arêtes ;
  • les différentes régions de forme particulière ;
  • etc.
Certaines représentations et une bonne capacité d'analyse automatique des différenciations5 rendent la tâche d’apprentissage plus efficace.
Une des perspectives des techniques de l'apprentissage profond est le remplacement de travaux qui aujourd’hui sont encore relativement laborieux par des modèles algorithmiques d’apprentissage supervisé, non supervisé (c’est-à-dire ne nécessitant pas de connaissances spécifiques du problème étudié) ou encore par des techniques d’extraction hiérarchique des caractéristiques.
Les recherches dans ce domaine s’efforcent de construire de meilleures représentations du réel et de créer des modèles capables d’apprendre ces représentations à partir de données non labellisées à grande échelle. Certaines de ces représentations s’inspirent des dernières avancées en neuroscience qui sont grosso modo des interprétations du traitement de l’information et des modèles de communication du système nerveux, de la même façon que le système nerveux tente d’établir des connexions en fonction des messages reçus, de la réponse neuronale consécutive et du poids des connexions entre les neurones du cerveau.
Les différentes architectures de « deep learning » telles que les « deep neural networks », les « convolutional deep neural networks », et les « deep belief network » ont des champs d’application tels que la vision par ordinateur, la reconnaissance automatique de la parole, le traitement automatique du langage naturel, la reconnaissance audio et la bioinformatique6,7 où elles ont démontré qu’elles étaient capables de produire d’excellents résultats pour différentes problématiques.


Processeur DLU : Fujitsu promet 10 fois plus d'efficacité pour l'intelligence artificielle