Privacy Policy Cookie Policy Terms and Conditions

[HOME PAGE] [STORES] [CLASSICISTRANIERI.COM] [FOTO] [YOUTUBE CHANNEL]


Calcul distribué

Calcul distribué

Le calcul distribué ou réparti ou encore partagé, est l'action de répartir un calcul ou un traitement sur plusieurs microprocesseurs et plus généralement toute unité centrale informatique. Le calcul distribué est souvent réalisé sur des clusters de calcul spécialisés, mais peut aussi être réalisé sur des stations informatiques individuelles à plusieurs cœurs. La distribution d'un calcul est un domaine de recherche des sciences mathématiques et informatiques. Elle implique notamment la notion de calcul parallèle.

Historique

Le calcul distribué est un concept qui apparaît dans les années 1970, lorsque le réseau Cyclades français, poussé par la CII et sa Distributed System Architecture, basés sur le Datagramme, tentent de mettre en commun les ressources informatiques des centres universitaires et de grandes entreprises en forte croissance comme EDF ou le Commissariat à l'énergie atomique. Aux États-Unis, IBM et Digital Equipment Corporation créent les architectures SNA et DECnet, en profitant de la digitalisation du réseau de téléphone d'AT&T (voir Réseau téléphonique commuté)[1] et ses connexions dédiées à moyen débit. À partir de là, la conception du grand système est concurrencé par les mini-ordinateurs en réseau, comme le Mitra 15 puis le Mini 6.

Système distribué

Modèle d'un système distribué

Un système informatique distribué est une collection de postes ou calculateurs autonomes qui sont connectés à l'aide d'un réseau de communication. Chaque poste exécute des composantes, par exemple des séquences de calculs, issues du découpage d'un projet de calcul global, et utilise un middleware, qui s'occupe d'activer des composantes et de coordonner leurs activités de telle sorte qu'un utilisateur perçoive le système comme un unique système intégré[2].

Une propriété importante des systèmes distribués est que la distribution est généralement cachée pour l’utilisateur et les programmeurs de l’application. Il préfère voir l'ensemble comme un seul et unique système et ainsi cacher la complexité de la distribution le plus possible et augmenter la transparence du système distribué. Cela permet de développer le plus possible les applications de la même façon que les systèmes centralisés.

Un système distribué est généralement séparable en plusieurs composantes entièrement autonomes. Il n’existe pas de composante maître qui gère les autres et chacune est donc responsable de son propre fonctionnement. Cela permet, entre autres, d’avoir une hétérogénéité dans la technologie utilisée pour chaque composante, ils peuvent être écrits dans différents langages de programmation (Java, Cobol, C++, etc.) et s'exécuter sur différents systèmes d'exploitation (Mac OS X, Linux, Windows, etc.). L’autonomie des composantes fait que les systèmes sont exécutés simultanément (programmation concurrente). De plus, contrairement au système centralisé, les systèmes distribués possèdent plusieurs points de défaillances (problème de composantes, réseau, trafics, etc.).

Exigences des systèmes distribués

Le besoin d'utiliser un système distribué est souvent dérivé d'exigences non fonctionnelles soit :

  • extensibilité (« scalability ») – les systèmes distribués permettent facilement une expansion si nécessaire ;
  • ouverture – les composantes des systèmes distribués possèdent des interfaces bien définies ce qui leur permet d'être facilement extensibles et modifiables. Les services web sont un exemple de système distribué qui possède une grande ouverture ;
  • hétérogénéité – les composantes peuvent être écrites en différents langages sur différentes machines. Par exemple, les éléments d’un serveur peuvent être programmés en C++ et s'exécuter sous Unix, alors que le client peut être en Java et s'exécuter sous Windows ;
  • accès aux ressources et partage – les systèmes distribués fournissent un moyen de partager les ressources, c'est-à-dire à la fois le matériel, le logiciel et les données ;
  • tolérance aux pannes – les systèmes distribués peuvent être plus tolérants aux pannes que les systèmes centralisés, car ils permettent de répliquer facilement les composantes.

Projets

Total de la puissance de calcul des 500 meilleurs supercalculateurs mondiaux de 1993 à 2008. Source : TOP500

Le projet « pionnier », dans l'emploi du calcul distribué est le SETI@home, développé par l'université de Berkeley, en Californie (États-Unis). Ce projet, développé en collaboration avec le programme SETI (Search for Extra-Terrestrial Intelligence), vise la détection d'une possible trace d'activité extraterrestre dans l'espace.

Cependant, le besoin croissant de puissance de calcul informatique dans la recherche médicale et autres domaines est surtout ce qui a suscité l'emploi de plus en plus important de cette technologie. Le coût des superordinateurs étant trop élevé, il est ainsi envisagé d'utiliser la puissance de calcul « disponible » d'ordinateurs au repos (ou sous-utilisés). Le procédé consiste souvent en l'installation d'un logiciel qui télécharge des données brutes à partir d'un serveur, les retravaille (les « traite ») de façon transparente pour l'utilisateur (en n'utilisant que la puissance de calcul non utilisée par les autres applications), puis renvoie les résultats aux serveurs.

Certains systèmes de calcul distribué sont ouverts au public via Internet (cf. Quelques projets de calcul partagé) et attirent facilement les utilisateurs. On peut voir l'évolution du projet depuis ses débuts, le classement des utilisateurs, le temps de calcul réalisé par les possesseurs d'une architecture donnée, ou par tel ou tel système d'exploitation (Linux, Windows, Macintosh, etc.). Plusieurs de ces projets utilisent la plate-forme libre BOINC (Berkeley Open Infrastructure for Network Computing), une évolution du SETI@home original.

Le calcul distribué est aussi un thème actif de recherche, avec une abondante littérature. Les plus connues des conférences sur le calcul distribué sont « The International Conference on Dependable Systems and Networks[3] » et « ACM Symposium on Principles of Distributed Computing[4] ». Il existe également la revue Journal of Parallel and Distributed Computing[5].

Une part importante du génome humain a ainsi pu être décryptée par les internautes du programme « Décrypthon » de l'AFM[6] en collaboration avec le CNRS et IBM[7]. Des projets sont également en cours, centralisés par le World Community Grid visant à l'analyse des protéines et à l'élaboration de solutions contre le sida.

La grande majorité des projets de ce type sont faits par des universités et/ou des professeurs très sérieux diffusant leurs résultats. Le Décrypthon a par exemple contribué au décodage du génome humain qui est maintenant disponible sur Internet sans brevet déposé[8].

Notes et références

  1. (en) History of Network Switching., sur le site corp.att.com
  2. W. Emmerich (2000). Engineering distributed objets. John Wiley & Sons. Ltd.
  3. « The International Conference on Dependable Systems and Networks » (consulté en 22 janvier 2008)
  4. « ACM Symposium on Principles of Distributed Computing » (consulté en 22 janvier 2008)
  5. « Journal of Parallel and Distributed Computing » (consulté en 22 janvier 2008)
  6. « AFM France » (consulté en 22 janvier 2008)
  7. « Les trois partenaires fondateurs du Décrypthon » (consulté en 22 janvier 2008)
  8. « National Center of Biotechnology Iinformation » (consulté en 22 janvier 2008)

Voir aussi

Articles connexes

Quelques projets de calcul partagé

  • Genome@home (en) : séquençage de protéines dans le génome humain, ce projet est achevé puisque la fin du séquençage du génome humain a été annoncée le 14 avril 2003. L'université Stanford l'a remplacé par Folding@Home ;
  • Folding@home : simulations de la manière dont les protéines se replient et se déplient sur elles-mêmes ;
  • Ibercivis (en) : plusieurs projets de recherche scientifique, maintenus conjointement par les gouvernements espagnol et portugais ;
  • Distributed.net : héberge de nombreux projets, dont l'un est la recherche des règles de Golomb optimales ;
  • SETI@home : recherche des signes d'une intelligence extraterrestre ;
  • GIMPS : rechercher les nombres premiers de Mersenne ;
  • Seventeen or Bust : projet pour résoudre le problème de Sierpiński ;
  • Africa@Home : projet de lutte contre le paludisme ;
  • LHC@Home : simuler la trajectoire de particules élémentaires dans l'accélérateur de particules du CERN près de Genève.

Liens externes

  • (en) Très large panel de projets utilisant le calcul distribué
  • Le calcul distribué sur Internet
  • Cours sur les systèmes répartis
  • Portail de l’informatique
This article is issued from Wikipédia - version of the Thursday, June 25, 2015. The text is available under the Creative Commons Attribution/Share Alike but additional terms may apply for the media files.
Contents Listing Alphabetical by Author:
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z Unknown Other

Contents Listing Alphabetical by Title:
# A B C D E F G H I J K L M N O P Q R S T U V W Y Z Other

Medical Encyclopedia

Browse by first letter of topic:


A-Ag Ah-Ap Aq-Az B-Bk Bl-Bz C-Cg Ch-Co
Cp-Cz D-Di Dj-Dz E-Ep Eq-Ez F G
H-Hf Hg-Hz I-In Io-Iz J K L-Ln
Lo-Lz M-Mf Mg-Mz N O P-Pl Pm-Pz
Q R S-Sh Si-Sp Sq-Sz T-Tn To-Tz
U V W X Y Z 0-9

Biblioteca - SPANISH

Biblioteca Solidaria - SPANISH

Bugzilla

Ebooks Gratuits

Encyclopaedia Britannica 1911 - PDF

Project Gutenberg: DVD-ROM 2007

Project Gutenberg ENGLISH Selection

Project Gutenberg SPANISH Selection

Standard E-books

Wikipedia Articles Indexes

Wikipedia for Schools - ENGLISH

Wikipedia for Schools - FRENCH

Wikipedia for Schools - SPANISH

Wikipedia for Schools - PORTUGUESE

Wikipedia 2016 - FRENCH

Wikipedia HTML - CATALAN

Wikipedia Picture of the Year 2006

Wikipedia Picture of the Year 2007

Wikipedia Picture of the Year 2008

Wikipedia Picture of the Year 2009

Wikipedia Picture of the Year 2010

Wikipedia Picture of the Year 2011