V??rifi?? contenu

Ordinateur

Saviez-vous ...

Cette s??lection de wikipedia a ??t?? choisi par des b??n??voles aidant les enfants SOS de Wikipedia pour cette s??lection Wikipedia pour les ??coles. Pour comparer les organismes de bienfaisance de parrainage ce est le meilleur lien de parrainage .

Ordinateur
Acer Aspire 8920 Gemstone par Georgy.JPG Britannique Supercomputer - NASA Supercomputing avanc??e Facility.jpg Intertec Superbrain.jpg
2010-01-26-technikkrempel par RalfR-05.jpg Thinking Machines connexion automatique CM-5 Frostburg 2.jpg G5 fournir Wikipedia via Gigabit au Lange Nacht der Wissenschaften 2006 ?? Dresden.JPG
DM IBM S360.jpg Acorn BBC Master Series Microcomputer.jpg Dell PowerEdge Servers.jpg

Un ordinateur est un dispositif ?? usage g??n??ral qui peut ??tre programm?? pour effectuer un ensemble fini d'op??rations arithm??tiques ou logiques. Depuis une s??quence d'op??rations peut ??tre facilement chang??, l'ordinateur peut r??soudre plus d'un type de probl??me.

Classiquement, un ordinateur est constitu?? d'au moins un ??l??ment de traitement, typiquement une unit?? centrale de traitement (CPU) et une certaine forme de m??moire. L'??l??ment de traitement effectue des op??rations arithm??tiques et logiques, et une unit?? de s??quencement et de commande qui peut modifier l'ordre des op??rations bas??es sur les informations stock??es. P??riph??riques permettent d'extraire l'information ?? partir d'une source externe, et le r??sultat des op??rations enregistr??es et r??cup??r??es.

La premi??re ??lectronique ordinateurs num??riques ont ??t?? d??velopp??s entre 1940 et 1945 dans le Royaume-Uni et ??tats-Unis. L'origine, ils ??taient de la taille d'une grande salle, consommant autant de pouvoir que plusieurs centaines d'ordinateurs personnels modernes (PC). En cette ??re m??canique ordinateurs analogiques ont ??t?? utilis??s pour des applications militaires.

Les ordinateurs modernes bas??es sur des circuits int??gr??s sont des millions ?? des milliards de fois plus susceptibles que les premi??res machines, et occupent une fraction de l'espace. Ordinateurs simples sont assez petit pour tenir dans les appareils mobiles, et ordinateurs mobiles peuvent ??tre aliment??s par les petits batteries. Les ordinateurs personnels dans leurs diverses formes sont ic??nes de la Information Age et sont ce que la plupart des gens pensent que "ordinateurs". Cependant, la calculateurs embarqu??s trouv??s dans de nombreux dispositifs de lecteurs MP3 ?? avions de combat et des jouets aux robots industriels sont les plus nombreux.

Histoire de l'informatique

Le M??tier ?? tisser Jacquard, expos??e au Mus??e des sciences et de l'Industrie ?? Manchester, en Angleterre, a ??t?? l'un des premiers appareils programmables.

La premi??re utilisation du mot "ordinateur" a ??t?? enregistr?? en 1613 dans un livre intitul?? "Les yong mans glanage?? par l'??crivain anglais Richard Braithwait je Haue lu l'ordinateur le plus vrai du Times, et le meilleur arithm??ticien que euer respirait, et il reduceth tes jours dans un num??ro court. Il se est r??f??r?? ?? une personne qui a effectu?? des calculs ou des calculs, et le mot est poursuivie avec le m??me sens jusqu'?? ce que le milieu du 20e si??cle. De la fin du 19??me si??cle, le mot a commenc?? ?? prendre son sens plus familier, une machine qui effectue les calculs.

Limit??e ?? fonction premiers ordinateurs

L'histoire de l'ordinateur moderne commence avec deux technologies distinctes, le calcul automatis?? et la programmabilit??. Toutefois, aucun p??riph??rique peut ??tre identifi?? comme le premier ordinateur, en partie ?? cause de l'application incoh??rente de ce terme. Quelques dispositifs sont toutefois dignes de mention, comme certaines aides m??caniques ?? l'informatique, qui ont tr??s bien r??ussi et ont surv??cu pendant des si??cles jusqu'?? l'av??nement de la calculatrice ??lectronique , comme le sum??rien boulier , con??us autour de 2500 avant JC dont un descendant a remport?? un concours de vitesse contre un bureau moderne machine ?? calculer au Japon en 1946, la r??gles ?? calcul, invent??s dans les ann??es 1620, qui ont ??t?? effectu??s sur cinq Apollo missions spatiales, y compris la lune et sans doute le astrolabe et M??canisme d'Anticyth??re, un ancien ordinateur astronomique construit par les Grecs environ 80 BC. Le math??maticien grec H??ron d'Alexandrie (c. 10-70 AD) a construit un th????tre m??canique qui a jou?? une pi??ce d'une dur??e de 10 minutes et a ??t?? exploit?? par un syst??me complexe de cordes et tambours qui pourrait ??tre consid??r?? comme un moyen de d??cider quelles parties du m??canisme effectu??es qui actions et quand. Ce est l'essence de la programmabilit??.

Vers la fin du 10??me si??cle, le moine fran??ais Gerbert d'Aurillac ramen?? d'Espagne les dessins d'une machine invent??e par les Maures qui ont r??pondu Oui ou Non aux questions qu'il a pos??es. Encore une fois dans le 13??me si??cle, les moines Albertus Magnus et Roger Bacon construit parler andro??des sans d??veloppement (Albertus Magnus plaints qu'il avait perdu 40 ann??es de sa vie quand Thomas d'Aquin , terrifi?? par sa machine, d??truit).

En 1642, la Renaissance a vu l'invention de la calculatrice m??canique, un dispositif qui pourrait effectuer les quatre op??rations arithm??tiques sans compter sur l'intelligence humaine. La calculatrice m??canique est ?? l'origine du d??veloppement des ordinateurs de deux fa??ons distinctes. Initialement, ce ??tait d'essayer de d??velopper des calculateurs les plus puissants et plus souples que l'ordinateur a ??t?? th??oris??e par Charles Babbage , puis d??velopp??. Deuxi??mement, le d??veloppement d'un faible co??t calculatrice ??lectronique , successeur de la calculatrice m??canique, a abouti ?? l'??laboration par Intel de la premi??re disponible dans le commerce microprocesseur circuit int??gr??.

Premi??res ordinateurs ?? usage g??n??ral

En 1801, Joseph Marie Jacquard a fait une am??lioration de la M??tier ?? tisser textile en introduisant une s??rie de cartes perfor??es de papier comme un mod??le qui a permis ?? son m??tier ?? tisser des motifs complexes automatiquement. Le m??tier ?? tisser Jacquard r??sultant ??tait une ??tape importante dans le d??veloppement des ordinateurs parce que l'utilisation des cartes perfor??es pour d??finir motifs tiss??s peut ??tre consid??r?? comme un d??but, quoique limit??e, sous forme de programmabilit??.

L'image la plus c??l??bre dans l'histoire pr??coce de l'informatique

Ce portrait de Jacquard a ??t?? tiss??e en soie sur un m??tier ?? tisser Jacquard et requis 24 000 cartes perfor??es pour cr??er (1839). Il a ??t?? seulement produit sur commande. Charles Babbage poss??dait un de ces portraits; il lui a inspir?? en utilisant des cartes perfor??es dans son moteur d'analyse
Le Zuse Z3, 1941, consid??r??e comme la premi??re de travail programmable, enti??rement automatique machine de l'informatique mondiale.

Ce est la fusion de calcul automatique avec programmabilit?? qui a produit les premiers ordinateurs reconnaissables. En 1837, Charles Babbage a ??t?? le premier ?? conceptualiser et concevoir un enti??rement programmable ordinateur m??canique, son moteur analytique. Finances limit??es et l'incapacit?? de Babbage pour r??sister ?? bricoler avec la conception signifie que l'appareil n'a jamais ??t?? achev??e-n??anmoins son fils, Henry Babbage, a compl??t?? une version simplifi??e de l'unit?? de calcul du moteur d'analyse (le moulin) en 1888. Il a fait une d??monstration r??ussie de son utiliser dans les tableaux de calcul en 1906. Cette machine a ??t?? donn??e aux Mus??e des sciences ?? South Kensington en 1910.

?? la fin des ann??es 1880, Herman Hollerith a invent?? l'enregistrement de donn??es sur un support lisible par machine. Utilisations ant??rieures de supports lisibles par machine avait ??t?? pour le contr??le, pas de donn??es. "Apr??s quelques essais initiaux avec ruban de papier, il se installe sur des cartes perfor??es ... "Pour traiter ces cartes perfor??es Il a invent?? le tabulation, et de la machines perforatrices. Ces trois inventions ??taient le fondement de l'industrie moderne de traitement de l'information. ?? grande ??chelle le traitement automatis?? de donn??es des cartes perfor??es a ??t?? r??alis??e pour le Recensement des Etats-Unis par la soci??t?? de Hollerith, qui devint plus tard le noyau de 1890 IBM . ?? la fin du 19??me si??cle un certain nombre d'id??es et de technologies, qui allait plus tard se av??rer utile dans la r??alisation d'ordinateurs pratiques, avaient commenc?? ?? appara??tre: Alg??bre de Boole, le tube ?? vide (valve thermo??onique), cartes et bandes perfor??es, et de la t??l??imprimeur.

Au cours de la premi??re moiti?? du 20e si??cle, de nombreux scientifiques besoins informatiques ont ??t?? accueillis par de plus en plus sophistiqu??e ordinateurs analogiques, qui ont utilis?? un mod??le m??canique ou ??lectrique directe du probl??me de base pour calcul. Toutefois, ceux-ci ne ??taient pas programmable et g??n??ralement ne avaient pas la polyvalence et la pr??cision des ordinateurs num??riques modernes.

Alan Turing est largement consid??r?? comme le p??re de moderne informatique . En 1936, Turing a fourni une formalisation influence du concept de l' algorithme et le calcul avec la Machine de Turing, fournir un sch??ma directeur pour l'ordinateur num??rique ??lectronique. De son r??le dans la cr??ation de l'ordinateur moderne, Le magazine Time en nommant l'un des Turing 100 personnes les plus influentes du 20e si??cle, d??clare: ??Le fait est que tous ceux qui tape sur un clavier, l'ouverture d'une feuille de calcul ou un programme de traitement de texte, travaille sur une incarnation d'une machine de Turing".

Le ENIAC, qui est devenu op??rationnel en 1946, est consid??r?? comme le premier ordinateur ??lectronique ?? usage g??n??ral.
EDSAC fut l'un des premiers ordinateurs pour mettre en oeuvre le programme enregistr?? ( von Neumann) architecture.

Le Atanasoff-Berry Computer (ABC) a ??t?? le premier ordinateur num??rique ??lectronique au monde, mais pas programmable . Atanasoff est consid??r?? comme l'un des p??res de l'ordinateur. Con??u en 1937 par l'Iowa State College professeur de physique John Atanasoff, et construit avec l'aide d'??tudiants dipl??m??s Clifford Berry, la machine ne est pas programmable, ??tant con??u uniquement pour r??soudre des syst??mes d'??quations lin??aires. L'ordinateur ne emploient calcul parall??le. Un 1973 d??cision du tribunal dans un litige de brevet que le brevet pour le 1946 Ordinateur ENIAC d??riv?? de l'ordinateur Atanasoff-Berry.

Le premier ordinateur command?? par programme a ??t?? invent?? par Konrad Zuse, qui a construit le Z3, une machine de calcul ??lectrom??caniques, en 1941. Le premier ordinateur ??lectronique programmable ??tait le Colossus, construit en 1943 par Fleurs Tommy.

George Stibitz est internationalement reconnu comme un p??re de l'informatique moderne. Tout en travaillant ?? Bell Labs en Novembre 1937, Stibitz invent?? et construit une calculatrice ?? base de relais qu'il a baptis?? la "Mod??le K?? (pour ??table de la cuisine", sur lequel il avait assembl?? il), qui ??tait le premier ?? utiliser binaires circuits pour effectuer une op??ration arithm??tique. Les mod??les post??rieurs ajout??es plus grande sophistication y compris l'arithm??tique et la programmabilit?? complexe.

Une succession de cesse plus puissant et flexible dispositifs informatiques ont ??t?? construits dans les ann??es 1930 et 1940, en ajoutant progressivement les principales caract??ristiques que l'on voit dans les ordinateurs modernes. L'utilisation de l'??lectronique num??rique (largement invent?? par Claude Shannon en 1937) et la programmabilit?? plus souple ??tapes ??taient d'une importance vitale, mais d??finir un point sur cette route comme ??le premier ordinateur ??lectronique num??rique?? est difficile Shannon 1940 r??alisations notables comprennent.:

  • Konrad Zuse de ??lectrom??caniques "machines ?? Z??. Le Z3 (1941) fut la premi??re machine de travail avec binaire arithm??tique, y compris l'arithm??tique flottante point et une mesure de programmabilit??. En 1998, le Z3 a ??t?? prouv?? ??tre Turing compl??te, ??tant donc premier ordinateur op??rationnel au monde.
  • Le non-programmable Atanasoff-Berry Computer (commenc?? en 1937, achev?? en 1941) qui a utilis?? repose tube ?? vide calcul, les nombres binaires, et La m??moire de r??g??n??ration condensateur. L'utilisation de la m??moire r??g??n??ratrice permis d'??tre beaucoup plus compact que ses pairs (soit environ la taille d'un grand bureau ou un ??tabli), puisque les r??sultats interm??diaires pourraient ??tre stock??es, puis r??introduits dans le m??me ensemble d'??l??ments de calcul.
  • Le secret britannique Ordinateurs Colossus (1943), qui avait limit?? mais programmabilit?? d??montr?? qu'un dispositif utilisant des milliers de tubes pourrait ??tre raisonnablement fiable et ??lectronique reprogrammable. Il a ??t?? utilis?? pour casser les codes de guerre allemands.
  • Le Harvard Mark I (1944), un ordinateur ??lectrom??canique ?? grande ??chelle avec la programmabilit?? limit??e.
  • De l'arm??e am??ricaine Laboratoire de recherche balistique ENIAC (1946), qui a utilis?? d??cimal arithm??tique et est parfois appel?? le premier objectif g??n??ral ??lectronique ordinateur (depuis Konrad Zuse de Z3 de 1941 utilis?? ??lectroaimants lieu de l'??lectronique ). Au d??part, toutefois, ENIAC a une architecture qui a n??cessit?? un rec??blage plugboard de changer sa programmation.

L'architecture ?? programme enregistr??

Plusieurs d??veloppeurs de ENIAC, reconnaissant ses d??fauts, est venu avec un design beaucoup plus souple et ??l??gante, qui est venu pour ??tre connu comme ??l'architecture ?? programme enregistr??" ou architecture de von Neumann. Cette conception a ??t?? d'abord d??crit formellement par John von Neumann dans le document Premi??re ??bauche d'un rapport sur l'EDVAC, distribu?? en 1945. Un certain nombre de projets visant ?? d??velopper des ordinateurs bas??s sur l'architecture ?? programme enregistr?? commenc?? ?? cette ??poque, la premi??re a ??t?? achev??e en 1948 au Universit?? de Manchester en Angleterre, le Manchester petite ??chelle exp??rimentale automatique (SSEM ou "Baby"). Le D??lai de stockage ??lectronique Calculatrice automatique (EDSAC), a compl??t?? un an apr??s la SSEM ?? l'Universit?? de Cambridge, a ??t?? la premi??re pratique, la mise en ??uvre non exp??rimentale de la conception ?? programme enregistr?? et a ??t?? mis ?? utiliser imm??diatement pour les travaux de recherche ?? l'universit??. Peu de temps apr??s, la machine d??crite ?? l'origine par le Paper- de von Neumann EDVAC a ??t?? achev?? mais ne voit pas l'utilisation ?? temps plein pour deux ann??es suppl??mentaires.

Presque tous les ordinateurs modernes mettent en ??uvre une certaine forme de l'architecture ?? programme enregistr??, ce qui en fait le seul trait par lequel le mot ??ordinateur?? est maintenant d??fini. Alors que les technologies utilis??es dans les ordinateurs ont chang?? de fa??on spectaculaire depuis les premiers ordinateurs ??lectroniques, ?? usage g??n??ral des ann??es 1940, utiliser encore plus l'architecture de von Neumann.

Mourir d'une Intel 80486DX2 microprocesseur (taille r??elle: 12 x 6,75 mm) dans son emballage

Depuis les ann??es 1950, sovi??tiques scientifiques Sergue?? Sobolev et Nikolay Brusentsov men?? des recherches sur ternaires ordinateurs, des appareils qui op??raient sur un syst??me de num??ration en base trois -1, 0, et 1 plut??t que le classique num??rotation binaire syst??me sur lequel la plupart des ordinateurs sont bas??s. Ils ont con??u la Setun, un ordinateur ternaire fonctionnelle, au Universit?? d'Etat de Moscou. Le dispositif a ??t?? mis en production limit??e dans l'Union sovi??tique, mais supplant?? par l'architecture binaire plus fr??quente.

Semi-conducteurs et microprocesseurs

Les ordinateurs utilisant tubes ?? vide que leurs ??l??ments ??lectroniques ??taient en usage dans les ann??es 1950, mais par les ann??es 1960, ils avaient ??t?? largement remplac??e par machines ?? transistors, qui ??taient plus petits, plus rapides, moins chers ?? produire, moins d'??nergie n??cessaire, et ??taient plus fiables. Le premier ordinateur transistoris?? a ??t?? d??montr?? lors de la Universit?? de Manchester en 1953. Dans les ann??es 1970, circuit int??gr?? la technologie et la cr??ation subs??quente de microprocesseurs, tels que le Intel 4004, a encore diminu?? la taille et le co??t et en outre une vitesse accrue et la fiabilit?? des ordinateurs. ?? la fin des ann??es 1970, de nombreux produits tels que enregistreurs vid??o contenaient ordinateurs d??di??s appel??s microcontr??leurs, et ils ont commenc?? ?? appara??tre comme un remplacement ?? des contr??les m??caniques dans les appareils domestiques tels que machines ?? laver. Les ann??es 1980 ont vu ordinateurs personnels et l'ordinateur personnel aujourd'hui omnipr??sents. Avec l'??volution de l'Internet, les ordinateurs personnels sont de plus en commun que la t??l??vision et le t??l??phone dans le m??nage.

Moderne smartphones sont enti??rement programmables ordinateurs dans leur propre droit, et ?? partir de 2009 pourrait bien ??tre la forme la plus commune de ces ordinateurs dans l'existence.

Programmes

La caract??ristique des ordinateurs modernes qui les distingue de tous les autres machines, ce est qu'ils peuvent ??tre programm??s . Ce est-??-dire qu'un certain type de des instructions (le programme) peut ??tre donn?? ?? l'ordinateur, et il les traiter. Les ordinateurs modernes bas??es sur la von Neumann l'architecture ont souvent du code de la machine sous la forme d'un langage de programmation imp??ratif.

En termes pratiques, un programme d'ordinateur peut ??tre quelques instructions ou se ??tendre ?? plusieurs millions d'instructions, comme le font les programmes pour traitement de texte et navigateurs Web par exemple. Un ordinateur moderne typique peut ex??cuter milliards d'instructions par seconde ( gigaflops) et fait rarement une erreur au cours de nombreuses ann??es de fonctionnement. Les grands programmes informatiques constitu??s de plusieurs millions d'instructions peuvent prendre ??quipes de programmeurs ann??es ?? ??crire, et en raison de la complexit?? de la t??che contiennent presque certainement des erreurs.

Architecture de programme enregistr??

R??plique de la machine exp??rimentale ?? petite ??chelle (SSEM), la premi??re mondiale ordinateur ?? programme enregistr??, au Mus??e des sciences et de l'Industrie ?? Manchester, en Angleterre

Cet article se applique ?? la plus commune RAM ordinateurs bas??s machine.

Dans la plupart des cas, les instructions informatiques sont simples: ajouter un num??ro ?? l'autre, d??placer des donn??es d'un endroit ?? un autre, envoyer un message ?? un certain dispositif externe, etc. Ces instructions sont lues ?? partir de l'ordinateur de m??moire et sont g??n??ralement effectu??es ( ex??cut??e) dans l'ordre o?? ils ont ??t?? donn??s. Cependant, il ya g??n??ralement des instructions sp??cialis??es pour indiquer ?? l'ordinateur pour sauter en avant ou en arri??re pour un autre endroit dans le programme et de poursuivre l'ex??cution ?? partir de l??. Ils sont appel??s "des instructions de saut" (ou branches). En outre, des instructions de saut peuvent ??tre apport??es ?? produire conditionnellement sorte que diff??rentes s??quences d'instructions peuvent ??tre utilis??es en fonction du r??sultat d'un calcul pr??c??dent ou d'un ??v??nement ext??rieur. De nombreux ordinateurs soutiennent directement sous-programmes en fournissant un type de saut qui "se souvient" l'emplacement o?? il a saut?? de et une autre instruction pour revenir ?? l'instruction suivant celui instruction de saut.

L'ex??cution du programme peut ??tre compar?? ?? la lecture d'un livre. M??me si une personne sera normalement lire chaque mot et la ligne dans l'ordre, ils peuvent parfois revenir en arri??re ?? un lieu plus t??t dans le texte ou sauter des sections qui ne sont pas d'int??r??t. De m??me, un ordinateur peut parfois revenir en arri??re et r??p??ter les instructions de certaines sections du programme, encore et encore jusqu'?? ce qu'une condition interne est rencontr??. Ceci est appel?? le flux de contr??le dans le programme et ce est ce qui permet ?? l'ordinateur pour effectuer des t??ches ?? plusieurs reprises sans intervention humaine.

En comparaison, une personne utilisant une poche calculatrice peut effectuer une op??ration arithm??tiques de base telles que l'ajout de deux chiffres en quelques pressions de boutons. Mais d'additionner tous les nombres de 1 ?? 1000 prendrait des milliers de pressions de boutons et beaucoup de temps, avec une quasi-certitude de faire une erreur. D'autre part, un ordinateur peut ??tre programm?? pour faire cela avec quelques instructions simples. Par exemple:

       mov n ?? 0, somme;  d??finir somme ?? 0 mov n ?? 1, num;  num mis ?? 1 boucle: ajouter num, somme;  num ajouter pour r??sumer ajouter n ?? 1, num;  ajouter 1 ?? num num cmp, # 1000;  num comparer ?? 1000 boucle ble;  si num <= 1000, revenir ?? l'arr??t ??boucle??;  la fin du programme.  arr??ter de courir 

Une fois dit pour ex??cuter ce programme, l'ordinateur effectuera la t??che de plus r??p??titif sans intervention humaine. Il ne sera presque jamais faire une erreur et un PC moderne peut accomplir la t??che dans environ un millioni??me de seconde.

Bugs

La r??elle premier bogue informatique, une mite coinc??e sur un relais de l'ordinateur Harvard Mark II

Erreurs dans les programmes informatiques sont appel??s " bugs ". Ils peuvent ??tre b??nignes et ne pas affecter l'utilit?? du programme, ou que des effets subtils. Mais dans certains cas, ils peuvent provoquer le programme ou l'ensemble du syst??me" accrocher "- plus r??agir aux entr??es telles que clics de souris ou les touches - pour compl??tement ??chou?? ou crash. Sinon bogues b??nignes peuvent parfois ??tre exploit??es ?? des fins malicieuses par un utilisateur peu scrupuleux ??crire un exploiter, code con??u pour profiter d'un bug et de perturber la bonne ex??cution d'un ordinateur. Bugs ne sont g??n??ralement pas la faute de l'ordinateur. Puisque les ordinateurs simplement ex??cuter les instructions qui leur sont donn??s, les bugs sont presque toujours le r??sultat d'une erreur de programmation ou d'une omission faite de la conception du programme.

Grace Hopper est cr??dit?? pour avoir d'abord utilis?? le terme "bugs" dans le calcul, apr??s un papillon mort a ??t?? trouv?? un relais court-circuit dans le Ordinateur Harvard Mark II en Septembre 1947.

Code de la machine

Dans la plupart des ordinateurs, des instructions individuelles sont stock??es sous forme de code machine ?? chaque instruction ??tant un num??ro unique (son code de fonctionnement ou opcode pour faire court). La commande pour additionner deux nombres serait ainsi avoir un opcode, la commande de les multiplier aurait un opcode diff??rent et ainsi de suite. Les ordinateurs les plus simples sont en mesure d'effectuer une quelconque d'une poign??e d'instructions diff??rentes; les ordinateurs plus complexes ont plusieurs centaines ?? choisir, chacun avec un code num??rique unique. Depuis la m??moire de l'ordinateur est capable de stocker des num??ros, il peut ??galement stocker les codes d'instruction. Ceci conduit au fait que des programmes entiers importante (qui sont seulement des listes de ces instructions) peuvent ??tre repr??sent??es comme des listes de nombres et eux-m??mes peuvent ??tre manipul??es ?? l'int??rieur de l'ordinateur de la m??me mani??re que des donn??es num??riques. Le concept fondamental de stocker des programmes dans la m??moire de l'ordinateur ?? c??t?? les donn??es qu'ils fonctionnent sur le noeud de la von Neumann, ou programme enregistr??, l'architecture. Dans certains cas, un ordinateur peut stocker une partie ou la totalit?? de son programme dans une m??moire qui est maintenue s??par??e de l'donn??es fonctionne sur. Ceci est appel?? le L'architecture de Harvard apr??s la Ordinateur Harvard Mark I. Ordinateurs de von Neumann modernes affichent quelques traits de l'architecture de Harvard dans leurs conceptions, comme dans caches du processeur .

Se il est possible d'??crire des programmes informatiques que de longues listes de num??ros ( langage machine) et si cette technique a ??t?? utilis??e avec beaucoup de premiers ordinateurs, il est extr??mement fastidieux et potentiellement sujette ?? erreur de le faire dans la pratique, en particulier pour des programmes complexes. Au lieu de cela, chaque instruction de base peut ??tre donn?? un nom court qui est indicatif de sa fonction et facile ?? retenir - un mnemonic comme ADD, SUB, MULT ou JUMP. Ces mn??moniques sont collectivement connus comme un ordinateur de langage d'assemblage. Conversion de programmes ??crits en langage d'assemblage en quelque chose de l'ordinateur peut effectivement comprendre (langage machine) est g??n??ralement effectu??e par un programme informatique appel?? un assembleur.

A 1970 carte perfor??e contenant une ligne ?? partir d'un Programme FORTRAN. La carte lit: "Z (1) = Y + W (1)" et est ??tiquet?? "PROJ039" ?? des fins d'identification.

Langage de programmation

Les langages de programmation fournissent diverses fa??ons de sp??cifier les programmes pour ordinateurs ex??cutent. Contrairement ?? langues naturelles, les langages de programmation sont con??ues pour permettre aucune ambigu??t?? et d'??tre concis. Ils sont purement langues ??crites et sont souvent difficiles ?? lire ?? haute voix. Ils sont g??n??ralement soit traduit code machine par un compilateur ou un assembleur avant d'??tre ex??cut??, ou traduit directement lors de l'ex??cution par un interpr??te. Parfois, les programmes sont ex??cut??s par un proc??d?? hybride de ces deux techniques.

Langages de bas niveau

langues de machines et les langages d'assemblage qui les repr??sentent (collectivement appel??s langages de programmation de bas niveau) ont tendance ?? ??tre unique ?? un type particulier de l'ordinateur. Par exemple, un ordinateur architecture ARM (comme on peut trouver dans un Ou un PDA jeu vid??o portatif) ne peut pas comprendre le langage de la machine d'un Intel Pentium ou AMD Athlon 64 ordinateur qui pourrait ??tre dans un PC .

Langues de niveau sup??rieur

Bien que beaucoup plus facile que dans le langage de la machine, l'??criture de longs programmes en langage d'assemblage est souvent difficile et est ??galement sujette aux erreurs. Par cons??quent, les programmes les plus pratiques sont ??crits en plus abstrait les langages de programmation de haut niveau qui sont capables d'exprimer les besoins de la programmeur plus facilement (et donc aider ?? r??duire les erreurs de programmation). Langages de haut niveau sont g??n??ralement "compil??es" en langage machine (ou parfois en langage d'assemblage, puis en langage machine) en utilisant un autre programme informatique appel?? compilateur. Langages de haut niveau sont moins li??es au fonctionnement de l'ordinateur cible de langage d'assemblage, en plus li??es ?? la langue et la structure du probl??me (s) doit ??tre r??solu par le programme final. Il est donc souvent possible d'utiliser diff??rents compilateurs pour traduire le m??me programme de langage de haut niveau dans la langue de la machine de beaucoup de diff??rents types d'ordinateurs. Cela fait partie des moyens par lesquels les logiciels comme les jeux vid??o peut ??tre mis ?? disposition pour diff??rentes architectures informatiques tels que les ordinateurs personnels et diverses consoles de jeux vid??o .

La conception du programme

La conception du programme de petits programmes est relativement simple et implique l'analyse du probl??me, la collecte de donn??es, selon les constructions de programmation dans les langues, ??laborant ou en utilisant des proc??dures et des algorithmes ??tablis, fournir des donn??es pour les appareils et solutions sortie au probl??me le cas ??ch??ant. Comme les probl??mes deviennent plus grandes et plus complexes, des fonctionnalit??s telles que les sous-programmes, des modules, de la documentation formelle, et de nouveaux paradigmes tels que la programmation orient??e objet sont rencontr??s. Les grands programmes impliquant des milliers de ligne de code et plus n??cessitent des m??thodologies logicielles formelles. La t??che de d??velopper grande syst??mes logiciels pr??sente un d??fi intellectuel important. La production de logiciels avec une fiabilit?? ??lev??e acceptable dans un calendrier pr??visible et le budget a toujours ??t?? difficile; la discipline acad??mique et professionnelle des g??nie logiciel se concentre sp??cifiquement sur ce d??fi.

Composants

Un ordinateur d'usage g??n??ral comporte quatre volets principaux: le Unit?? arithm??tique et logique (ALU), le unit?? de commande, le la m??moire et les dispositifs d'entr??e et de sortie (collectivement appel??s E / S). Ces pi??ces sont reli??es entre elles par bus, souvent en groupes de fils.

A l'int??rieur de chacune de ces pi??ces sont des milliers de milliards de petits circuits ??lectriques qui peuvent ??tre activ??s ou d??sactiv??s ?? l'aide d'un interrupteur ??lectronique. Chaque circuit repr??sente un bit (chiffre binaire) d'informations de sorte que lorsque le circuit est en elle repr??sente un "1", et quand il repr??sente un off "0" (dans la repr??sentation de logique positive). Les circuits sont dispos??s dans des portes logiques de telle sorte que l'un ou plusieurs des circuits peuvent contr??ler l'??tat d'un ou de plusieurs des autres circuits.

L'unit?? de commande, ALU, registres, et I / O de base (et souvent d'autres mat??riels ??troitement li??s avec ces) sont collectivement connu comme un unit?? centrale de traitement (CPU). Les premiers processeurs ??taient compos??es de nombreux ??l??ments distincts mais depuis les CPU milieu des ann??es 1970 ont g??n??ralement ??t?? construits sur un seul circuit int??gr?? appel?? microprocesseur.

Unit?? de contr??le

Sch??ma montrant comment un particulier L'architecture MIPS instruction sera d??cod?? par le syst??me de commande.

L'unit?? de contr??le (souvent appel?? un syst??me de contr??le ou contr??leur central) g??re diff??rents composants de l'ordinateur; il lit et interpr??te (d??code) les instructions de programme, en les transformant en une s??rie de signaux de commande qui activent d'autres parties de l'ordinateur. syst??mes de contr??le dans les ordinateurs de pointe peuvent modifier l'ordre de certaines instructions de mani??re ?? am??liorer les performances.

Un ??l??ment cl?? commun ?? toutes les CPU est le compteur de programme, une cellule de m??moire particuli??re (a inscrivez-vous) qui conserve la trace de quel emplacement en m??moire la prochaine instruction est ?? lire ?? partir.

La fonction du syst??me de contr??le est la suivante-noter que ce est une description simplifi??e, et certaines de ces ??tapes peut ??tre r??alis??e simultan??ment ou dans un ordre diff??rent selon le type de CPU:

  1. Lire le code de l'instruction suivante ?? partir de la cellule indiqu??e par le compteur de programme.
  2. D??coder le code num??rique de l'instruction dans un ensemble de commandes ou de signaux pour chacun des autres syst??mes.
  3. Incr??menter le compteur de programme afin qu'il pointe vers la prochaine instruction.
  4. Lire toutes les donn??es de l'instruction n??cessite des cellules dans la m??moire (ou peut-??tre ?? partir d'un p??riph??rique d'entr??e). L'emplacement de ces donn??es requis est g??n??ralement stock?? dans le code d'instruction.
  5. Fournir les donn??es n??cessaires ?? une ALU ou vous inscrire.
  6. Si l'instruction n??cessite une ALU ou mat??riel sp??cialis?? pour compl??ter, charger le mat??riel pour effectuer l'op??ration demand??e.
  7. Ecrire le r??sultat de l'ALU revenir ?? un emplacement de m??moire ou ?? un registre ou peut-??tre un p??riph??rique de sortie.
  8. Aller retour ?? l'??tape (1).

??tant donn?? que le compteur de programme est (conceptuellement) juste un autre ensemble de cellules de m??moire, il peut ??tre modifi?? par des calculs effectu??s dans l'unit?? ALU. Ajout de 100 de compteur de programme entra??nerait l'instruction suivante ?? lire dans un endroit plus bas 100 emplacements du programme. Instructions qui modifient le compteur de programme sont souvent appel??s ??sauts?? et permettent de boucles (instructions qui sont r??p??t??s par l'ordinateur) et ex??cution de l'instruction souvent conditionnelle (deux exemples de flux de contr??le).

La s??quence d'op??rations que l'unit?? de commande passe par le traitement d'une instruction est en lui-m??me comme un programme d'ordinateur court, et en effet, dans certaines conceptions de CPU plus complexes, il est encore plus petite d'un autre ordinateur appel?? micros??quenceur, qui g??re un programme de microcode qui provoque tous ces ??v??nements se produise.

Unit?? arithm??tique et logique (ALU)

L'ALU est capable d'effectuer deux classes d'op??rations arithm??tiques et logiques:.

L'ensemble des op??rations arithm??tiques notamment un soutien ALU peuvent ??tre limit??es ?? l'addition et la soustraction, ou peuvent inclure multiplication, division, trigonom??trie fonctions telles que sinus, cosinus, etc., et des racines carr??es . Certains ne peuvent fonctionner sur des nombres entiers ( nombres entiers ) tandis que d'autres utilisent virgule flottante pour repr??senter des nombres r??els , quoique avec une pr??cision limit??e. Cependant, ne importe quel ordinateur qui est capable d'effectuer seulement les op??rations les plus simples peut ??tre programm?? pour briser les op??rations plus complexes en ??tapes simples qu'il peut effectuer. Par cons??quent, ne importe quel ordinateur peut ??tre programm?? pour effectuer toute op??ration arithm??tique bien-qu'il faudra plus de temps pour le faire si son ALU ne supporte pas directement l'op??ration. Un ALU peut ??galement comparer les chiffres et le retour valeurs de v??rit?? bool??ennes (vrai ou faux) selon que l'on est ??gal ??, sup??rieur ou inf??rieur ?? l'autre ("64 est sup??rieure ?? 65???).

op??rations logiques impliquent logique bool??enne : ET, OU, XOR et PAS. Ceux-ci peuvent ??tre utiles pour cr??er compliqu?? instructions conditionnelles et le traitement logique bool??enne .

Superscalaires ordinateurs peuvent contenir plusieurs ALU, leur permettant de traiter plusieurs instructions simultan??ment. Les processeurs graphiques et des ordinateurs avec SIMD et MIMD fonctionnalit??s contiennent souvent ALUs qui peut effectuer des op??rations arithm??tiques sur les vecteurs et matrices .

M??moire

La m??moire de noyau magn??tique est la m??moire de l'ordinateur de choix dans les ann??es 1960, jusqu'?? ce qu'elle soit remplac??e par la m??moire ?? semi-conducteur.

La m??moire d'un ordinateur peut ??tre consid??r??e comme une liste de cellules dans lesquelles les num??ros peuvent ??tre plac??s ou lus. Chaque cellule a une ??adresse?? num??rot??e et peut stocker un num??ro unique. L'ordinateur peut ??tre charg?? de "mettre le num??ro 123 dans la cellule num??rot??e 1357?? ou ?? ??ajouter le num??ro qui est dans la cellule 1 357 le nombre qui est dans la cellule 2468 et de mettre la r??ponse dans la cellule 1595". Les informations stock??es dans la m??moire peut repr??senter pratiquement ne importe quoi. Lettres, chiffres, voire des instructions informatiques peuvent ??tre plac??s dans la m??moire avec la m??me facilit??. Depuis le CPU ne fait pas de distinction entre les diff??rents types d'informations, il est de la responsabilit?? du logiciel ?? donner un sens ?? ce que la m??moire voit rien, mais une s??rie de chiffres.

Dans presque tous les ordinateurs modernes, chaque cellule de m??moire est configur??e pour stocker des nombres binaires en groupes de huit bits (appel?? octet). Chaque octet est capable de repr??senter 256 num??ros diff??rents (2 ^ 8 = 256); soit de 0 ?? 255 ou -128 ?? 127. Pour stocker un plus grand nombre, plusieurs octets cons??cutifs peuvent ??tre utilis??s (typiquement, deux, quatre ou huit). Lorsque les nombres n??gatifs sont n??cessaires, ils sont g??n??ralement stock??s dans notation compl??ment ?? deux. D'autres arrangements sont possibles, mais ne sont g??n??ralement pas vus en dehors des applications sp??cialis??es ou des contextes historiques. Un ordinateur peut stocker tout type d'informations dans la m??moire si elle peut ??tre repr??sent??e num??riquement. Les ordinateurs modernes ont des milliards, voire des milliers de milliards d'octets de m??moire.

Le CPU contient un ensemble sp??cial de cellules de m??moire appel?? registres qui peuvent ??tre lus et ??crits ?? beaucoup plus rapidement que la zone de m??moire principale. Il existe typiquement entre deux et cent registres en fonction du type de processeur. Les registres sont utilis??s pour les ??l??ments de donn??es les plus fr??quemment n??cessaires pour ??viter d'avoir ?? acc??der ?? la m??moire principale chaque fois que des donn??es est n??cessaire. Comme les donn??es sont constamment travaill?? sur, r??duisant la n??cessit?? d'acc??der ?? la m??moire principale (qui est souvent lent par rapport ?? l'ALU et de contr??le unit??s) augmente consid??rablement la vitesse de l'ordinateur.

m??moire principale de l'ordinateur se d??cline en deux vari??t??s principales: random-access memory ou RAM et la mémoire morte ou ROM. RAM peut être lu et écrit à chaque fois que le CPU commandes, mais ROM est pré-chargé avec des données et des logiciels qui ne change jamais, donc le CPU ne peut lire. ROM est généralement utilisé pour stocker des instructions de démarrage initial de l'ordinateur. En général, le contenu de la RAM sont effacées lorsque l'alimentation de l'ordinateur est éteint, mais ROM conserve ses données indéfiniment. Dans un PC, la ROM contient un programme spécialisé appelé le BIOS qui orchestre chargement de l'ordinateur du système d'exploitation à partir du lecteur de disque dur dans la RAM lorsque l'ordinateur est sous tension ou réinitialisée. En ordinateurs embarqués, qui ne souvent pas de lecteurs de disques, tous les logiciel requis peut être stocké dans la ROM. Un logiciel stocké dans la mémoire morte est souvent appelé firmware, car il est théoriquement plus comme matériel que logiciel. La mémoire flash brouille la distinction entre ROM et RAM, comme il conserve ses données quand il est éteint, mais est également réinscriptible. Il est généralement beaucoup plus lent que ROM RAM classique et cependant, son utilisation est limitée aux applications où la haute vitesse est inutile.

Dans les ordinateurs plus sophistiqués il peut y avoir un ou plusieurs RAM mémoires caches , qui sont plus lentes que les registres mais plus rapide que la mémoire principale. Généralement ordinateurs avec ce genre de cache sont conçus pour déplacer les données les plus fréquemment utilisées dans le cache automatiquement, souvent sans la nécessité d'une intervention de la part du programmeur.

D'entrée / sortie (E / S)

Les disques durs sont des dispositifs de stockage couramment utilisées avec des ordinateurs.

I / O est le moyen par lequel l'information a des échanges informatiques avec le monde extérieur. Dispositifs qui fournissent entrée ou de sortie à l'ordinateur sont appelés périphériques. Sur un ordinateur personnel typique, périphériques comprennent des dispositifs d'entrée tels que le clavier et la souris, et des dispositifs de sortie tels que les affichage et de imprimante. lecteurs de disque dur, lecteurs de disquettes et lecteurs de disques optiques servir les deux périphériques d'entrée et de sortie. Les réseaux informatiques est une autre forme de I / O.

Périphériques d'E / S sont souvent des ordinateurs complexes dans leur propre droit, avec leur propre CPU et de la mémoire. Un processeur graphique peut contenir une cinquantaine de plus petits ordinateurs qui exécutent les calculs nécessaires à l'affichagedes graphiques 3D. Moderne ordinateurs de bureau contiennent de nombreux petits ordinateurs qui aident la principale CPU dans l'exécution d'E / S.

Multit??che

Alors que d'un ordinateur peut être considéré comme exécutant l'un gigantesque programme stocké dans sa mémoire principale, dans certains systèmes, il est nécessaire de donner l'apparence de l'exécution de plusieurs programmes simultanément. Ceci est réalisé en multitâche dire présentant rapidement le commutateur entre l'ordinateur exécutant chaque programme à son tour.

Un moyen par lequel cela est fait est un signal spécial appelé interruption, ce qui peut provoquer périodiquement l'ordinateur pour arrêter l'exécution d'instructions où il était et faire autre chose à la place. En se souvenant où il exécutait avant l'interruption, l'ordinateur peut revenir à cette tâche plus tard. Si plusieurs programmes sont en cours d'exécution "en même temps", alors le générateur d'interruption peut être à l'origine de plusieurs centaines interruptions par seconde, ce qui provoque un programme basculer à chaque fois. Puisque les ordinateurs modernes exécutent généralement des instructions de plusieurs ordres de grandeur plus rapide que la perception humaine, il peut apparaître que de nombreux programmes sont en cours d'exécution dans le même temps même si un seul est toujours en cours d'exécution dans un instant donné. Cette méthode de multitâche est parfois appelé "temps partagé" puisque chaque programme est alloué une "tranche" de temps à son tour.

Avant l'ère des ordinateurs bon marché, l'utilisation principale pour le multitâche était de permettre à de nombreuses personnes à partager le même ordinateur.

Apparemment, le multitâche serait provoquer un ordinateur qui permute entre plusieurs programmes afin de fonctionner plus lentement, en proportion directe avec le nombre de programmes, il est en cours d'exécution, mais la plupart des programmes passent beaucoup de leur temps d'attente pour les périphériques lents d'entrée / sortie pour effectuer leurs tâches. Si un programme est en attente pour l'utilisateur de cliquer sur la souris ou appuyez sur une touche du clavier, puis il ne prendra pas une "tranche de temps" jusqu'à ce que l'événement qu'elle attend est produite. Cela permet de libérer du temps pour d'autres programmes à exécuter de telle sorte que de nombreux programmes peuvent être exécutés simultanément sans perte de vitesse inacceptable.

Multiprocessing

Cray a conçu de nombreux superordinateurs utilisés multitraitement lourdement.

Certains ordinateurs sont conçus pour distribuer leur travail à travers plusieurs processeurs dans une configuration multitraitement, une technique, une fois employée que dans des machines grandes et puissantes telles que les superordinateurs, ordinateurs centraux et des serveurs. Multiprocesseurs et multic??urs (plusieurs processeurs sur un seul circuit intégré) personnels et ordinateurs portables sont maintenant largement disponibles, et sont de plus en plus utilisés dans les marchés bas de gamme comme un résultat.

Les superordinateurs en particulier ont souvent des architectures très uniques qui diffèrent de manière significative de l'architecture de programme stocké base et à partir d'ordinateurs à usage général. Ils comportent souvent des milliers de processeurs, les interconnexions à haut débit sur ??????mesure, et du matériel informatique spécialisé. Ces conceptions ont tendance à être utile que pour des tâches spécialisées en raison de la grande échelle de l'organisation du programme nécessaire pour utiliser avec succès la plupart des ressources disponibles à la fois. Les superordinateurs habitude de voir dans l'utilisation à grande échelle de simulation, le rendu graphique, et cryptographie applications, ainsi que d'autres soi-disant « embarrassant tâches parallèles ».

Réseaux et Internet

La visualisation d'une partie desroutes sur l'Internet.

Les ordinateurs ont été utilisés pour coordonner les informations entre plusieurs endroits depuis les années 1950. De l'armée américaine le système SAGE a été le premier exemple de grande envergure d'un tel système, qui a conduit à un certain nombre de systèmes commerciaux à usage spécial tels que Sabre.

Dans les années 1970, les ingénieurs informatiques dans les établissements de recherche à travers les États-Unis ont commencé à relier leurs ordinateurs entre eux en utilisant la technologie des télécommunications. L'effort a été financé par l'ARPA (maintenant DARPA), et le réseau informatique qui a résulté a été appelé l' ARPANET. Les technologies qui ont fait la propagation Arpanet possible et évolué.

Dans le temps, le réseau étendu au-delà des institutions académiques et militaires et est devenu connu comme l'Internet. L'émergence des réseaux impliqué une redéfinition de la nature et les limites de l'ordinateur. Les systèmes d'exploitation et applications informatiques ont été modifiés pour inclure la capacité à définir et à accéder aux ressources d'autres ordinateurs sur le réseau, tels que les périphériques, les informations stockées, etc., comme des extensions des ressources d'un ordinateur individuel. Initialement, ces installations étaient disponibles principalement pour les personnes travaillant dans des environnements de haute technologie, mais dans les années 1990 la propagation d'applications comme l'e-mail et le World Wide Web , combinée avec le développement des technologies de réseau bon marché, rapides comme Ethernet et ADSL ont vu la mise en réseau informatique devenu presque omniprésent. En fait, le nombre d'ordinateurs qui sont en réseau est en croissance phénoménale. Une très grande proportion d'ordinateurs personnels connecter régulièrement à Internet pour communiquer et recevoir des informations. Réseau de réseaux "sans fil", souvent en utilisant des réseaux de téléphonie mobile, a signifié est de plus en plus omniprésente même dans les environnements informatiques mobiles.

paradigmes de l'architecture informatique

Il existe de nombreux types d'architectures informatiques:

  • Ordinateur quantiquevsordinateur chimique
  • Processeur scalaire vsprocesseur Vecteur
  • Non Uniform Memory Access (NUMA) ordinateurs
  • Créer Machine vsMachine Stack
  • Harvard l'architecture vsarchitecture de von Neumann
  • L'architecture cellulaire

L'architecture d'ordinateur quantique est la plus prometteuse à révolutionner l'informatique.

Les portes logiques sont une abstraction commune qui peut appliquer à la plupart des dessusnumériques ouanalogiques paradigmes.

La possibilité de stocker et d'exécuter les listes d'instructions appelés programmes rend les ordinateurs extrêmement polyvalent, en les distinguant des calculatrices . Le Thèse de Church est un énoncé mathématique de cette polyvalence: tout ordinateur avec une capacité minimale (étant Turing-complet) est, en principe, capable d'effectuer les mêmes tâches que n'importe quel autre ordinateur peut exécuter. Par conséquent tout type d'ordinateur ( netbook, supercalculateur, automate cellulaire, etc.) est en mesure d'effectuer les mêmes tâches de calcul, étant donné assez de temps et de capacité de stockage.

Les id??es fausses

Un ordinateur n'a pas besoin d'être électronique , ni même avoir un processeur , ni mémoire, ni même un disque dur. Alors que l'usage populaire du mot "ordinateur" est synonyme d'un ordinateur électronique personnelle, la définition moderne d'un ordinateur est littéralement « Un dispositif qui calcule , en particulier un programmable [habituellement] machine électronique qui effectue des opérations mathématiques ou logiques à grande vitesse ou que assemble, les magasins, en corrélation, ou autrement traite l'information ". Tout dispositif qui traite l'information est considéré comme un ordinateur, surtout si le traitement est utile.

Technologie nécessaire

Historiquement, les ordinateurs ont évolué à partir des ordinateurs mécaniques et éventuellement de tubes à vide aux transistors. Cependant, les systèmes informatiques que conceptuellement souple comme un ordinateur personnel peuvent être construits à partir de presque rien. Par exemple, un ordinateur peut être fabriqué à partir de boules de billard ( informatiques) boule de billard; un exemple souvent cité. De façon plus réaliste, les ordinateurs modernes sont fabriqués à partir de transistors en photolithographiée semi-conducteurs .

Il ya une recherche active pour rendre les ordinateurs sur de nombreux nouveaux types prometteurs de la technologie, tels que les ordinateurs optiques, ordinateurs à ADN, les ordinateurs neuronaux et les ordinateurs quantiques . La plupart des ordinateurs sont universels, et sont en mesure de calculer n'importe quel fonction calculable, et ne sont limités que par leur capacité de mémoire et de vitesse de fonctionnement. Cependant différents modèles d'ordinateurs peuvent donner des performances très différentes pour des problèmes particuliers; par exemple les ordinateurs quantiques peuvent potentiellement casser quelques algorithmes de cryptage modernes (par affacturage quantique) très rapidement.

Autres sujets

  • Glossaire des ordinateurs

Intelligence artificielle

Un ordinateur sera de résoudre les problèmes exactement de la façon dont il est programmé pour, sans égard à l'efficacité, des solutions alternatives, raccourcis possibles, ou les erreurs possibles dans le code. Les programmes informatiques qui apprennent et adaptent font partie du domaine émergent de l'intelligence artificielle et l'apprentissage machine.

Mat??riel

Le terme matériel couvre l'ensemble de ces parties d'un ordinateur qui sont des objets tangibles. Circuits, écrans, alimentations, câbles, claviers, imprimantes et les souris sont tout le matériel.

Histoire de matériel informatique

Première génération (mécanique / électromécanique) Calculatrices Pascaline,Arithmometer,moteur de différence,Norden viseur
Dispositifs programmablesmétier à tisser Jacquard,moteur analytique,Harvard Mark I, Z3
Deuxième génération (tubes à vide) Calculatrices Atanasoff-Berry Computer,IBM 604,UNIVAC 60,UNIVAC 120
Dispositifs programmablesColossus,ENIAC,Manchester petite échelle expérimentale Machine,EDSAC,Manchester Mark 1,Ferranti Pegasus,Ferranti Mercury,CSIRAC,EDVAC,UNIVAC I,IBM 701,IBM 702,IBM 650,Z22
Troisième génération (des transistors discrets et SSI, MSI, LSIcircuits intégrés)MainframesIBM 7090,IBM 7080,IBM System / 360,BUNCH
Mini-ordinateurPDP-8,PDP-11,IBM System / 32,IBM System / 36
Quatrième génération (circuits intégrés VLSI)Mini-ordinateurVAX,IBM System i
4 bits micro-ordinateurIntel 4004,Intel 4040
8 bits micro-ordinateurIntel 8008,Intel 8080,Motorola 6800,Motorola 6809,MOS Technology 6502,Zilog Z80
16-bit micro-ordinateurIntel 8088,Zilog Z8000,WDC 65816/65802
Micro-ordinateur 32 bitsIntel 80386,Pentium,Motorola 68000,architecture ARM
64-bit micro-ordinateurAlpha, MIPS, PA-RISC,PowerPC,SPARC, x86-64
Ordinateur embarquéIntel 8048,Intel 8051
Ordinateur personnel Ordinateur de bureau,Accueil ordinateur,ordinateur portable,assistant numérique personnel (PDA),ordinateur portable,Tablet PC,ordinateur portable
Théorique / expérimentale Ordinateur quantique,informatique chimique,l'ADN informatique,ordinateur optique,ordinateur basé spintronique

Autres sujets de matériel

Périphérique (entrée / sortie) Contribution Souris,clavier,joystick,l'image scanner,webcam,tablette graphique, microphone
Sortie Moniteur,imprimante,haut-parleur
Les deux Lecteur de disquette,disque dur,lecteur de disque optique, t??l??scripteur
bus informatiquesCourte portée RS-232, SCSI,PCI, USB
Longue portée (réseaux informatiques)Ethernet,ATM,FDDI

Logiciel

Softwarese réfère à des parties de l'ordinateur qui ne disposent pas d'une forme matérielle, comme les programmes, données, protocoles, etc. Lorsque le logiciel est stocké dans le matériel qui ne peut pas être facilement modifiés (tels que BIOS ROM dans unPC compatible IBM), il est parfois appelé «firmware».

Syst??me d'exploitation Unixet BSD UNIX System V,IBM AIX,HP-UX,Solaris (SunOS),IRIX,Liste des systèmes d'exploitation BSD
GNU/Linux Liste des distributions Linux,Comparaison des distributions Linux
Microsoft Windows Windows 95, Windows 98, Windows NT,Windows 2000,Windows Me,Windows XP,Windows Vista,Windows 7,Windows 8
DOS 86-DOS (QDOS),PC-DOS,MS-DOS,DR-DOS,FreeDOS
Mac OS Mac OS classique, Mac OS X
Embarqués ettemps réelListe des systèmes d'exploitation embarqués
Exp??rimental Amoeba,Oberon /Bluebottle,Plan 9 from Bell Labs
Biblioth??que Multim??dia DirectX,OpenGL,OpenAL
bibliothèque de programmationC bibliothèque standard,Standard Template Library
Donn??es Protocole TCP / IP,Kermit,FTP,HTTP,SMTP
Format de fichierHTML,XML,JPEG,MPEG, PNG
Interface utilisateur Interface utilisateur graphique (WIMP) Microsoft Windows,GNOME,KDE,QNX Photon,CDE,GEM, Aqua
Interface utilisateur basée sur le texteL'interface de ligne de commande,interface utilisateur du texte
Application suite OfficeLe traitement de texte,éditique,programme de présentation,système de gestion de base de données, planification et gestion du temps,feuille de calcul,logiciels de comptabilité
Acc??s Internet Navigateur,client e-mail,serveur Web,courrier agent de transfert,messagerie instantanée
Conception et fabricationla conception assistée par ordinateur,de fabrication assistée par ordinateur, la gestion de l'usine, la fabrication robotisée, gestion de la chaîne d'approvisionnement
Graphique Raster éditeur graphique,éditeur de graphiques vectoriels,modeleur 3D,éditeur d'animation,de l'infographie 3D,montage vidéo,traitement de l'image
Acoustique Éditeur audio numérique,la lecture audio, mixage,la synthèse audio,la musique Informatique
Génie logicielCompilateur,l'assembleur,interprète,débogueur,éditeur de texte,environnement de développement intégré,l'analyse des performances du logiciel,le contrôle de révision,gestion de la configuration logicielle
P??dagogique Edutainment,jeu éducatif,Serious game, Simulateur de vol
Jeux Stratégie, Arcade,Puzzle, Simulation,First-person shooter,Plate-forme,massivement multijoueur,fiction interactive
Divers L'intelligence artificielle,logiciel antivirus,scanneur de Malware,installateur /systèmes de gestion de paquets,gestionnaire de fichier

Langues

Il ya des milliers de différentes langues-certaine programmation destinée à être objectif général, d'autres ne sont utiles que pour les applications hautement spécialisées.

Langages de programmation
Listes des langages de programmationChronologie des langages de programmation,Liste des langages de programmation par catégorie,la liste des générations de langages de programmation,Liste des langages de programmation,langages de programmation à base de non-anglais
Communément utiliséles langages d'assemblage ARM, MIPS, x86
Communément utilisédes langages de programmation de haut niveauAda,BASIC,C,C ++, C #, COBOL,Fortran,Java,Lisp,Pascal,Pascal Objet
Communément utilisédes langages de scriptLe script Bourne,JavaScript,Python, Ruby, PHP,Perl

Professions et organisations

Comme l'utilisation des ordinateurs est répandue dans toute société, il ya un nombre croissant de carrières impliquant ordinateurs.

Professions relatifs à l'informatique
Liés au matériel Génie électrique,génie électronique,génie informatique,génie des télécommunications,l'ingénierie optique,Nanoengineering
Relatifs aux logiciels Informatique,Génie informatique,éditique,l'interaction humain-ordinateur, la technologie de l'information,systèmes d'information,la science informatique,génie logiciel,l'industrie du jeu vidéo,Web design

La nécessité pour les ordinateurs de bien travailler ensemble et d'être en mesure d'échanger des informations a engendré la nécessité de nombreux organismes de normalisation, les clubs et les sociétés de nature à la fois formelle et informelle.

Organisations
Groupes de normalisationANSI,CEI,IEEE,IETF,ISO, W3C
Sociétés professionnellesACM,AIS,IET,IFIP, BCS
Gratuit /groupes open source de logicielsFree Software Foundation,la Fondation Mozilla,Apache Software Foundation
R??cup??r?? ?? partir de " http://en.wikipedia.org/w/index.php?title=Computer&oldid=539872357 "