PLURIEL microordinateurs ou micro-ordinateurs.
Un micro-ordinateur est un ordinateur complet à petite échelle, conçu pour être utilisé par une personne à la fois. Terme archaïque, un micro-ordinateur est aujourd'hui principalement appelé ordinateur personnel (PC), ou un dispositif basé sur un microprocesseur à une seule puce.
Petit ordinateur construit autour d'un microprocesseur auquel on adjoint l'environnement logiciel et matériel (écran, clavier, lecteur de CD/DVD), nécessaire au traitement complet de l'information.
Le mini-PC et l'ordinateur portable.
L'ENIAC (Electronic Numerical Integrator And Computer, ou calculateur et intégrateur électronique numérique) fut le premier ordinateur réellement programmable, donc utilisable pour toute sorte de calcul et non pas pour résoudre un problème particulier.
Et bien c'est le Français Jacques Perret, latiniste et philologue (celui qui étudie une langue et sa littérature), qui a proposé ce mot à IBM au moment où l'entreprise s'apprêtait à commercialiser une nouvelle machine, l'IBM 650. Aux Etats-Unis, on appelle ça un 'computer' que l'on peut traduire par 'calculateur'.
Un ordinateur de bureau ou ordinateur fixe (desktop computer en anglais) est un ordinateur personnel destiné à être utilisé sur un bureau ou tout autre endroit fixe à cause de ses dimensions, de sa masse et de son alimentation électrique.
Il faut attendre 1946 et l'ENIAC (Electronic Numerical Integrator and Computer) conçu par Presper Eckert et John William Mauchly pour voir apparaître le premier ordinateur entièrement électronique construit pour être Turing-complet.
PC n.m. Synonyme de ordinateur personnel.
Machine automatique de traitement de l'information, obéissant à des programmes formés par des suites d'opérations arithmétiques et logiques.
En 1941, l'ingénieur allemand Konrad Zuse conçoit et réalise, dans un isolement complet, le z3 (Zuse 3), premier ordinateur au monde « Turing-complet ». Cette machine est programmable (au moyen d'un langage de programmation appelé Plankalkül), binaire, digitale et électromagnétique.
Définition de Logiciel
Un « logiciel » est, selon le vocabulaire officiel de l'informatique, l'« ensemble des programmes, procédés et règles, et éventuellement de la documentation, relatifs au fonctionnement d'un ensemble de traitement de données » (Journal Officiel du 17 janvier 1982).
Vous pouvez en trouver à partir de 300 ou 400 €. Si vous envisagez un usage multimédia (stockage de photos, création de documents avec graphiques, lecture de vidéos, etc.), vérifiez qu'il dispose d'un processeur un peu plus puissant et d'une connectique suffisante. Dans ce cas, comptez plutôt autour de 500 ou 600 €.
L'informatique s'intéresse à la mise en œuvre de méthodes scientifiques pour traiter l'information au moyen d'ordinateurs. Elle enrichit notamment les domaines suivants : Gestion des entreprises et les échanges financiers. Communications de toutes sortes.
Internet est officiellement né le 12 mars 1989. Son inventeur : Tim Berners-Lee.
Deuxième génération (1957-1965) La deuxième génération d'ordinateurs est basée sur l'invention du transistor en 1947. Cela permit de remplacer le fragile et encombrant tube électronique par un composant plus petit et fiable.
Les premiers ordinateurs datent de 1949. C'est la notion de programme enregistré, due à John von Neumann et à ses collaborateurs, en 1945, qui transforme les machines à calculer en ordinateurs.
Le bit est la plus petite quantité d'information manipulable par un PC. non 2) Un ensemble de huit bits s'appelle un octet.
Le traitement de l'information peut être séquentiel ou parallèle, les deux pouvant être soit centralisés ou décentralisés (distribués). Le traitement distribué parallèle, dans le milieu des années 1980, fut popularisé sous le nom de connexionisme.