Abonnez-vous à Universalis pour 1 euro

ÉLECTRONIQUE INDUSTRIE

Article modifié le

L'informatique

C'est à la fin de la Seconde Guerre mondiale que John von Neumann met à profit, aux États-Unis, les idées émises en 1936 par le Britannique Alan Mathison Turing. Aujourd'hui encore, les calculateurs numériques universels (en anglais general purpose computers) fonctionnent suivant les conceptions de von Neumann : « Je vais voir dans la mémoire de programmes ce que je dois faire maintenant – Je vais voir dans la mémoire de données la donnée sur laquelle je dois agir – J'agis – Je retourne voir dans la mémoire de programmes... ». Depuis 1995, les Français les appellent souvent « ordinateurs », notamment quand il s'agit des matériels domestiques (« ordinateur personnel » pour le vocable anglo-américain personnal computer).

Même si un Allemand, Konrad Zuse, a sans doute réalisé en 1944 le premier calculateur numérique opérationnel, on s'accorde à donner comme point de départ de l'informatique moderne, la réalisation (en 1945) de l'Electronic Numerical Integrator And Computer (E.N.I.A.C.) construit par les Américains J. Presper Eckert et John Mauchly, énorme machine de 30 tonnes contenant 18 000 tubes électroniques et dissipant une puissance énorme, avec une fiabilité réduite.

Abonnez-vous à Universalis pour 1 euro

À cette époque et pendant une dizaine d'années (jusqu'à la fin des années 1950), on a utilisé avec efficacité des « calculateurs analogiques », dont on modifiait le fonctionnement en câblant différemment leurs éléments. Leur puissance de calcul était ridicule comparée à la puissance des machines numériques qu'utilisent aujourd'hui Météo France ou le C.É.A. – la précision du calcul ne dépassait pas 1 p. 100 –, mais elles furent bien utiles (exemple : le calculateur Analac de la française C.S.F.).

Dès le début des années 1950, sous l'impulsion des ingénieurs du ministère de l'Air, on a construit en France (François Raymond de la S.E.A.) des calculateurs numériques pour remplacer les précédents. On trouvait en France, à la fin des années 1950, des calculateurs de 2 mètres cubes appelés CAB 500 (de la même S.E.A.) programmés à l'aide d'un « langage évolué », voisin du langage américain Basic.

Il faut préciser qu'à cette époque on programmait généralement les calculateurs universels en « langage machine », un langage (fastidieux) très près du fonctionnement de la machine, par opposition aux nombreux langages dits « haut niveau » qui vont fleurir et qui sont plus proches du langage de tout un chacun (anglophone !), et adaptés à l'usage que l'on veut faire de la machine (Fortran d'I.B.M. pour le calcul scientifique par exemple, Cobol pour l'informatique de gestion, Jovial pour les systèmes de défense aérienne, plus tard le langage Ada du Français Jean Ichbiah standardisé par les militaires américains et l'O.T.A.N., puis... le langage C, le C++, le Java, etc. Ces langages de haut niveau ont besoin d'être traduits pour être compris par la machine (par exemple grâce à des programmes traducteurs dits « compilateurs »).

Abonnez-vous à Universalis pour 1 euro

Le premier calculateur numérique universel embarquable français a sans doute été, au milieu des années 1960, celui du système d'armes antiaérien Crotale de Thomson, qui n'a pu être réalisé au début en circuits intégrés (faute d'avoir ce genre de composants « militarisés ») et dont la mémoire pouvait contenir 8 kilo-octets (le moindre ordinateur portable avait, en 2006, une mémoire un million de fois plus importante !), et cela avait été un gros progrès de le transformer en « Douchka » (c'est-à-dire de l'équiper d'une mémoire contenant plus de douze kilo-octets).

À la fin des années 1950, Jean-Pierre Brulé, à I.B.M.-France, proposa de réaliser des machines numériques à transistors pour aider au contrôle des avions militaires dans les systèmes de défense aérienne à base de radars. Il mit au point, à cette fin, des machines spécifiques nommées CAPAC (« calculateur de poursuite et d'acquisition ») et CADI (« calculateur d'interception »), qui rivalisèrent heureusement avec leurs homologues américaines et dont les fonctions sont aujourd'hui remplies par des machines « universelles ».

La firme Hewlett-Packard fabriqua dès le début des années 1970 des machines à calculer (calculettes) qui ne faisaient que du calcul, et dont les descendants peuvent aujourd'hui effectuer des calculs très savants, avec des écrans pour afficher graphiquement les résultats.

Abonnez-vous à Universalis pour 1 euro

Mais le premier ordinateur portable a peut-être été (dans la seconde moitié des années 1970) le « SHARP PC-1211 pocket computer », petit ordinateur programmé en Basic, dix mille fois plus petit que la CAB 500 construite vingt années plus tôt, pour des performances très voisines.

C'était bien sûr la conséquence de l'irruption des circuits intégrés dans la vie de l'informatique. Leurs progrès, continuels, produisent encore et toujours leurs effets, associés aux progrès considérables également dans le domaine des mémoires (après l'époque des mémoires à tores magnétiques), notamment dans le domaine des mémoires non volatiles dites « à disque dur », avec, récemment, l'utilisation de mémoires qui utilisent le fait que les électrons ont un « spin » (domaine de la « spintronique »). Parmi les circuits intégrés, il convient de faire une place à part aux « microprocesseurs » – et, pour le traitement du signal, aux digital signal processor (D.S.P.) – qui sont, sur une seule pastille de semiconducteur, de véritables cœurs de calculateurs. À titre indicatif, en 1971, l'Intel 4 bits avait 2 300 transistors sur une pastille de 18 mm2 ; au début des années 1980, le Motorola 68 000 en avait, dit-on, 68 000, et il n'est pas déraisonnable d'envisager, à la fin des années 2010, des circuits de ce type avec un milliard de transistors sur un bonne dizaine de centimètres carrés.

Hormis les petites machines que l'on vient d'évoquer, l'informatique a longtemps été essentiellement le domaine des grosses machines, utilisées souvent en réseau pour des applications d'envergure. On parlait dans les années 1980 de « main frame » pour les plus grosses, dont le prix dépassait le million d'euros actuels. Les machines un peu moins grosses s'appelaient alors des « mégaminis ». Ces machines servent à faire de la gestion, à tous les sens (nombreux) du terme : gestion financière, du personnel, des vols d'avions civils ou militaires, guidage des armes. Elles fournissent des outils de plus en plus puissants dans la conception assistée par ordinateur (C.A.O., en anglais computer aided design, C.A.D.) – comme le CATIA développé chez Dassault –, d'abord en deux dimensions, puis en trois dimensions (il y a même eu des programmes en deux dimensions et demie), dans la fabrication et les tests automatisés.

Abonnez-vous à Universalis pour 1 euro

On caractérise, de façon incomplète, la puissance de ces machines par le nombre d'instructions qu'elles peuvent, en théorie, traiter par seconde. Au début des années 1980, un million d'instructions par seconde (1 MIPS) était déjà une bonne puissance. Le microprocesseur Pentium 60 avait en 1993 une puissance de 100 MIPS, le Power PC 620 permettait 600 MIPS en 1996. On en était à la vingtaine de GIPS (gigaIPS, ou mille MIPS) en 2006, et il n'est pas exclu de dépasser le TIPS (téraIPS, ou un million de MIPS) au milieu des années 2010.

Le calcul scientifique proprement dit effectué à l'aide de machines numériques a commencé dès le début des années 1960, avec par exemple des machines CDC (comme le CDC 6600). La puissance des machines scientifiques se caractérise plus volontiers par le nombre de calculs (multiplications, à virgule flottante) par seconde. Le record du monde était, au début des années 1980, d'un gigaflops (flops, pour flotting point operations per second). L'utilisation de nombreuses machines en parallèle (qui convient à beaucoup de problèmes tels que les prévisions météorologiques, et généralement au « calcul vectoriel »), associée à l'évolution des circuits intégréset autres mémoires, a permis en 2005 d'obtenir des puissances de calcul 350 000 fois plus élevées, et le pétaflops (1 000 téraflops = 1 000 000 gigaflops) a été atteint en 2006 pour un institut de recherche japonais, avec 201 machines en parallèle utilisant des circuits intégrés avec une finesse de dessin de 0,13 ìm.

Le nombre de MIPS ou de flops n'est pas suffisant pour qualifier une machine informatique : la précision du traitement (du calcul) dépend du nombre de bits avec lequel est représenté un nombre : au début de l'informatique (années 1960), maintes machines se contentaient de mots de 16 bits, qui donnaient une précision au mieux de 1/10 000, ce qui était 100 fois mieux que les machines analogiques. On est ensuite passé partout à 32 bits, avec les machines exceptionnelles (scientifiques) qui travaillaient en 64 bits. À partir de 2006 se sont généralisées, pour les « stations de travail » des ingénieurs, des machines à 64 bits.

Abonnez-vous à Universalis pour 1 euro

Le traitement de signal intégré dans certains équipements complexes (comme les sonars, les radars) utilise généralement des méthodes et des structures de calcul qui leur sont propres et adaptées au problème posé, pour fournir la meilleure performance possible au moment de la conception.

C'est dans les années 1970, alors qu'I.B.M. régnait sans partage sur l'informatique mondiale, qu'Apple a conçu sa machine informatique à usage personnel ou domestique. Son succès a alors amené I.B.M. à concevoir (en liaison avec les logiciels de Bill Gates et autres) ce qu'il a appelé un personal computer (PC, en français « ordinateur personnel »), sorti en 1981. D'autres sociétés lui ont emboîté le pas et les machines en question sont maintenant tout à fait du domaine grand public.

La société Hewlett-Packard, qui a été fondée (au début dans un célèbre garage) par William Hewlett et David Packard pour concevoir et fabriquer des appareils de mesure (d'abord des oscilloscopes), était devenue en 1980 le numéro un mondial de la mesure, notamment en hyperfréquences. Elle a progressivement étendu ses activités en faisant des calculettes de plus en plus performantes, ainsi qu'en informatique, notamment en informatique personnelle, au point que son activité de mesure, tout en restant au tout meilleur niveau mondial, est devenue largement minoritaire, et qu'elle a fini par en faire une société autonome (Agilent).

Abonnez-vous à Universalis pour 1 euro

Quelques mots sur la « souris » qu'utilisent la majorité des internautes et autres utilisateurs d'ordinateurs. Dans les années 1960, on a utilisé de petits manches à balais (joysticks) analogues à ceux qu'utilisent les pilotes d'Airbus, lorsqu'on voulait – sur une « face parlante », écran cathodique représentant une partie des informations utiles fournies par la machine informatique – désigner quelque chose à la machine. Puis on les a remplacés par des « boules roulantes » beaucoup plus souples et précises à manipuler, mais qui coûtaient cher, ne serait-ce qu'à cause de leur nécessaire étanchéité. En les retournant (boule au-dessous), elles sont devenues les souris bien connues, moins chères. Juste retour des choses, on retrouve sur les avions neufs (Airbus 380, Falcon haut de gamme, etc.), les boules roulantes d'autrefois fournies par Thales ou Honeywell pour « cliquer » au bon endroit sur les écrans multirôles du cockpit.

Accédez à l'intégralité de nos articles

  • Des contenus variés, complets et fiables
  • Accessible sur tous les écrans
  • Pas de publicité

Découvrez nos offres

Déjà abonné ? Se connecter

Écrit par

  • : ancien directeur technique général de Thomson et de Thomson-C.S.F. (aujourd'hui Thales)

Classification

Médias

André-Marie Ampère - crédits : Hulton Archive/ Getty Images

André-Marie Ampère

Alexander Graham Bell - crédits : Ullstein Bild/ Getty Images

Alexander Graham Bell

William Crookes - crédits : Hulton Archive/ Getty Images

William Crookes

Autres références

  • ASIE (Géographie humaine et régionale) - Espaces et sociétés

    • Écrit par
    • 23 143 mots
    • 4 médias
    Les pays d'Asie orientale se sont spécialisés dans lafabrication électronique : téléviseurs (62,6 % de la production mondiale en 2005), lecteurs de DVD (90 %), téléphones mobiles (58 %), ordinateurs domestiques (90 %), appareils photos numériques (100 %). La Chine est devenue le « pays atelier »...
  • CALIFORNIE

    • Écrit par
    • 3 074 mots
    • 8 médias
    ...par la National Aeronautics and Space Administration (NASA). Les crédits accordés à l’université Stanford par le ministère de la Défense financent la recherche et le développement de matériel électronique puis de l’informatique dans la  vallée de Santa Clara – appelée Silicon Valley à partir des années...
  • CHINE - Économie

    • Écrit par et
    • 8 247 mots
    • 5 médias
    ...augmenté de 12 p. 100 par an en moyenne depuis trente ans, et qui est à 80 p. 100 issue des secteurs manufacturiers. Les industries électriques et surtout électroniques ont connu un essor spectaculaire, propulsé par des investissements étrangers et la forte demande extérieure et intérieure pour ces nouveaux...
  • CIRCUITS INTÉGRÉS

    • Écrit par et
    • 8 998 mots
    • 20 médias
    Le marché des semi-conducteurs, bien que fortement instable, croît en moyenne de 14 p. 100 par an depuis 1960. C'est un marché très compétitif et à hauts risques. En effet, en plus de la croissance exponentielle du coût des équipements de gravure proprement dits, il faut investir entre 3 et 5 milliards...
  • Afficher les 44 références

Voir aussi