2ème partie :
LES MATERIELS

2.1. Historique

La première machine à calculer a probablement été le boulier. Développé en Chine vers l'an 500 avant J.C., il est toujours utilisé ! Il faut attendre ensuite 1617 pour que John NAPIER montre comment effectuer des multiplications, puis 1642 pour que Blaise PASCAL mette au point sa célèbre calculatrice mécanique, améliorée par Samuel MORLAND puis par Gottfried Wilhelm von LEIBNITZ en 1694.

Au XVIIe siècle, JACQUARD invente un métier à tisser programmé avec des cartes perforées. Puis Charles BABBAGE, en 1833, marie les innovations de JACQUARD et de PASCAL et propose sa machine analytique, trop complexe pour l'époque cependant.

Moins élaborée, la première machine électromécanique est réalisée par le docteur Hermann HOLLERITH ; elle travaille avec des cartes perforées, et servira, elle, lors du recensement des Américains en 1885.

Au début de ce siècle apparaissent de puissantes sociétés spécialisées dans la fabrication de matériels électromécaniques à vocation comptable et statistique : Remington Rand, Samos, IBM et la Compagnie des Machines Bull.

La première machine électronique, l'ENIAC, apparaît en 1944. Elle est due aux travaux des professeurs ECKERT et MAUCHLY, à l'Université de Pennsylvanie, et comporte 18 000 tubes.

C'est encore une machine a programme câblé. En effet, c'est en 1946 que le docteur John von NEUMANN, alors à l'Institut de recherches avancées de Princeton, élabore le concept de programme enregistré, : la séquence d'instructions du programme est fournie à la mémoire du calculateur, qui devient un ordinateur. Le premier ordinateur commercial, l'UNIVAC I, est alors proposé vers 1950.

Entre-temps, la technologie des composante amorce une véritable révolution. Ainsi en 1948, les laboratoires de la BELL TELEPHONE inventent le transistor, oeuvre de BARDEEN, BRATTAIN et SCHOCKLEY. En 1959, la Société TEXAS INSTRUMENTS dépose un brevet sur le circuit intégré tandis que la société FAIRCHILD, américaine elle aussi, met au point le procédé PLANAR.

L'ère des circuits intégrés commence ; elle marque la 3e génération des ordinateurs, la 2e étant celle des machines à transistors, et la Ire celle des machines à tubes.

En 1959, apparaît ainsi le premier ordinateur entièrement transistorisé : son unité centrale comporte 8 000 diodes et 4 000 transistors et il effectue une addition en 60 us. C'est dire que le moindre micro qui fonctionnera 15 ans après le bat aisément.

Tout l'accent semble alors mis sur le développement de machines de plus en plus puissantes et "sophistiquées". Pourtant, en 1960, Kenneth H. OLSEN, qui a créé la Société DIGITAL EQUIPMENT, fabrique le PDPI, suivi en 1963 par le PDP5, à transistors et mémoire à tores de ferrite qui valait 30 000 dollars. Deux ans plus tard, c'est au tour du PDP8 de voir le jour : l'addition passe de 18 à 3,2 us et le prix à 18 000 dollars : l'ère des minis est commencée.

Ce progrès constant du matériel s'accompagne d'une évolution non moins importante du logiciel, dont on ne peut ici qu'évoquer quelques titres : apparition de langages évolués, travail en temps réel, en temps partagé, par lots, création de moniteurs, ...

Les mémoires centrales, à tores, passent aux circuits intégrés. Les périphériques, eux aussi, ne développent : en 1972 apparaÎt ainsi le disque souple, périphérique quasi idéal pour les minis et les micros.

C'est dès 1969-1970 que l'ère de la micro-informatique s'annonce. Elle résulte de la naissance des circuits intégrés à grande échelle (notés LSI, de "large scale integration").

En 1973, la Société INTEL met au point le microprocesseur 8080, à circuit intégré de technologie MOS, suivi en 1974 par Motorola qui annonce sur 6800, microprocesseur 8 bits.

La période 1970-1975 connaît une explosion extraordinaire dans la concentration et l'augmentation de puissance des microprocesseurs.

A partir de 1975, l'accent sera porté sur la question des "secondes sources", c'est à dire sur l'existence de plusieurs fabricants d'un produit identique, qui constituent un gage de sécurité pour l'utilisateur.

La période actuelle connaît toujours d'importants progrès scientifiques, sans qu'aucun d'eux ne constitue réellement le pas décisif qui permettrait d'affirmer qu'il s'agirait d'une quatrième génération de matériels. L'évolution actuelle s'oriente plutÔt dans plusieurs voies complémentaires :

Que sera la quatrième génération, alors que nous sommes loin d'avoir encore imaginé toutes les applications possibles de la troisième ?

De leur côté, les japonais, en guise de défi, ont créé une équipe de recherches sur un ordinateur de cinquième génération. Ce projet, jugé ici encore trop ambitieux, vise à mettre au point une combinaison de matériels et de logiciels particulièrement puissants, douée d'une intelligence artificielle évoluée, capable d'açquérir, de manipuler et d'exploiter les connaissances, de communiquer avec l'homme dans un langage naturel, etc ...

Poursuivant l'idée, un humoriste a tenté d'imaginer ce que pourrait être un ordinateur de septième génération :

En France, la situation est délicate. Face à des constructeurs qui disposent de nombreux atouts, mais sont trop dispersés, les pouvoirs publics n'ont cessé de rechercher une politique cohérente. En 1977, le gouvernement avait lancé un premier plan quinquennal "composants" articulé, autour de cinq pôles : trois entreprises existantes (une filiale commune à Thomson-CSF et au Commissariat à l'Energie Atomique Thomson-CSF et Compelec, filiale du hollandais Philips et deux créations (Eurotechnique, enfant né de la liaison entre Saint-Gobain et National -Semi -Conductor et Matra-Harris). L'effort de l'Etat s'élevait au total à 742 MF.

Les résultats n'ont pas été entièrement concluants. Comme leurs grands concurrents étrangers, ces constructeurs semblent avoir été pris de court par le déferlement des mini et des micro-ordinateurs, beaucoup plus souples, moins onéreux et souvent capables de rivaliser avec succès avec des machines d'une taille plus importante.

Dès 1982, le gouvernement interviendra à nouveau dans ce secteur, dans le but de développer les circuits intégrés, notamment au silicium et à l'arséniure de gallium, les machines, les mémoires à bulles et les circuits basse température. On attend pour Juillet 1982 les conclusions du groupe interministériel pour les circuits intégrés (GICI) pour lancer un nouveau "plan de développement de l'industrie des composants" qui couvrira la période 1983-1986.

La tâche de reconquête du marché national est immense, si on analyse 1'état des matériels les plus vendus :

a) les petits systèmes d'apprentissage
Pour une dépense dérisoire, un amateur d'électronique peut aujourd'hui réaliser un ensemble qui, malgré une apparence extérieure de "bricolage", présente toutes les caractéristiques d'un véritable ordinateur. Il s'agit de OHIO-Scientific, SINCLAIR Z 80, NASCOM, EXORCISER, AIM 65, PROTEUS, ACORN et TAVERNIER .

b) les trois grands de la micro-informatique

c) les imitateurs de la micro-informatique
VIDEO GENIE (copie de TANDY), SHARP, SANYO SANCO, Hewlett Packard, GOUPIL (100 % français et télématique, si l'on en croit les publicités), ISTC, ITT 3280, DYNABYTE, ATOM, DAI, ZENITH, IBM (jusque là inconnu en micro-informatique) et MATRA (qui construira sous licence TANDY !).

2.2. Les technologies actuelles

Quel progrès accompli depuis les premières bascules binaires électromécaniques, ou à tubes électroniques, coûteuses, volumineuses, énergivoraces et finalement peu fiables ! Toutes les courbes d'évolution de performances ou de prix des matières informatiques en fonction du temps doivent être tracées sur papier semi-logarithmique.

On ne connaît guère d'exemple de technique créée pour l'homme qui ait suivi une évolution aussi fulgurante, de sorte que, consciemment ou non, nous vivons probablement actuellement une véritable révolution technique.

Un exemple spectaculaire est donné ci-après. Il s'agit de l'évolution du prix du composant intégré unitaire :

Dans le domaine des microprocesseurs, que l'on tend de plus à concentrer dans le volume minuscule d'une "puce", deux grandes technologies rivales demeurent en présence : les technologies de type bipolaires, plus traditionnelles, d'une part, et les technologies de type MOS (Metal Oxide Semiconductor) d'autre part.

a) technologies de type bipolaires

Les technologies de type bipolaire mettent en oeuvre (les transistors de type traditionnel, très rapides, mais difficiles à intégrer en grand nombre sur une même puce. Elles sont le plus souvent rencontrées sous la désignation TTL classique (Transistor Transistor Logic).

La technologie TTL "Schottky" est une version améliorée de la précédente, dans laquelle on intercale une diode "Schottky" entre le collecteur et la base d'un transistor, ce qui permet d'améliorer ses caractéristiques de commutation et d'accroître sa fréquence de fonctionnement sans augmenter la consommation de manière exagérée.

La technologie I2L (Intagrated Injection Logic) utilise des transistors NPN à multicollecteure autorisant des fonctions câblées de grande complexité. Bien que sa vitesse soit quand même inférieure à celle de la TTL Schottky, c'eut une logique rapide ayant une très faible consommation et conduisant à une forte densité d'intégration comparable à celle des circuits MOS.

La technologie ECL (Emitter Coupled Logic) est une logique non saturée à couplage par émetteur. C'est à l'heure actuelle la tectinologie la plus rapide. Elle exige un certain nombre de précautions lors (lit câblage car les interconnexions doivent être considérées comme des lignes de transmission. Il faut en particulier veiller soigneusement à l'adaptation des impédances et tenir compte des temps de propagation des signaux sur les lignes.

b) technologies de type MOS

Les technologies de type MOS ont connu un très grand développement car elles permettent d'obtenir des circuits à grande intégration et de faible puissance dissipée avec une vitesse de fonctionnement satisfaisante. Elles sont les plus utilisées dans le domaine des mémoires des microprocesseurs classiques et des circuits périphériques.

On a ainsi vu apparaître initialement la technologie P-MOS (MOS canal P) peu onéreuse, facile à mettre en oeuvre et très fiable, mais avec une densité d'intégration limitée et une faible vitesse. Elle a permis la sortie du premier microprocesseur d'Intel 4004 en 1971) et elle est encore très utilisée dans les microprocesseurs 4 bits de bas de gamme.

La technologie N-MOS (MOS canal N) a favorisé l'apparition vers 1973 des premiers microprocesseurs 8 bits. Elle est caractérisée par une mise en oeuvre plus délicate, une densité d'intégration plus importante et une vitesse plus élevée. Elle est très utilisée dans les microprocesseurs à usage général et les contr8leurs de périphériques associés.

La technologie C.MOS (Complementary MOS) combine les processus en canal P et N. Elle permet une réduction considérable de la consommation ce qui la destine aux systèmes autonomes ou embarqués. Parmi les technologies MOS de pointe, on peut citer la V.MOS, la D.MOS, la H.MOS et la SOS.

La technologie H.MOS est actuellement utilisée pour les microprocesseurs 16 bits à très haute performance (Intel 8086, Zilog 38000, Motorola MC68000). Elle semble très prometteuse par sa rapidité élevée et sa densité d'intégration importante. Elle est en passe de conquérir une partie du domaine des applications qui relèvent encore des microprocesseurs en tranches.

La technologie SOS (Silicon On Sapphire) utilise un substrat isolant sur lequel ont vient déposer du silicium pour élaborer les transis tors. C'est également une technologie d'avenir. D61icate à mettre en oeuvre, elle ne semble actuellement être maîtrisée que par Hewlett Packard qui l'utilise en instrumentation et dans ses systèmes informatiques.

2.3. Les unités périphériques

Parallèlement aux développements des unités centrales, les unités périphériques ont connu une évolution. Pour l'introduction et la sortie d'informations, les supports en papier perforés (rubans ou cartes) sont en voie de disparition au profit des supports magnétiques, tandis que certaines mémoires actives (mémoires à CCD et à bulles magnétiques) ont atteint un coût unitaire si bas qu'elles commencent à les concurrencer.

Prix au bit et temps d'accès de diverses mémoires :

Le domaine des disques magnétiques, lui-même, évolue vers un meilleur rapport coût/capacité.

Les petits disques souples (disquettes) ont des capacités unitaires variant entre 100 K et 1 000 kilo-octets, tandis que les nouveaux disques durs (technologie WINCHESTER) qui commencent à apparaître offrent une capacité de 10 Méga-octets.

Le domaine de la communication avec l'homme a connu aussi une évolution rapide.

Les voyants électriques, dont la fiabilité était imparfaite pour une consommation d'énergie importante, ont été remplacés par des diodes électroluminescentes (LED), qu'il a été possible d'assembler pour former des chiffres, puis des caractères alphanumériques. Concurremment, les cristaux liquides (LCD), qui bénéficient d'une consommation très inférieure s'imposent chaque fois que leur faible contraste de luminosité n'est pas un handicap. Pour l'affichage de messages, l'écran de type télévision tend à remplacer la classique machine à écrire, en attendant qu'il soit lui-même remplacé par des dispositifs moins encombrants (écrans plats ?). Les constructeurs mettent maintenant sur le marché des synthétiseurs de parole humaine qui vont encore faciliter la communication vers l'homme, tandis que, dans l'autre sens, la compréhension par l'ordinateur de la voix humaine n'en est encore qu'au premier balbutiement et relève essentiellement, pour l'instant du logiciel.

Des progrès rapides sont enregistrés dans le domaine des imprimantes. Les machines modernes réalisent une impression matricielle à l'aide d'aiguilles pouvant dépasser le critère de 100 caractères par seconde, alors que les premières machines à écrire électromécaniques évoluaient entre 10 et 15 caractères /seconde.

2.4. Les réseaux

Le besoin de communiquer n'est pas l'exclusivité de l'homme et, très tôt, il a été possible d'établir entre des ordinateurs et certains de leurs organes terminaux lointains des communications de données à travers le réseau téléphonique commuté traditionnel des PTT.

Ce n'était pas sans difficulté. Les signaux digitaux devaient être convertis en fréquences sonores audibles, seules capables d'être acheminées par ce réseau, par l'intermédiaire des "modems" (modulateurs-démodulateurs). La qualité des lignes téléphoniques était variable et imprévisible. De plus, lorsqu'il existait encore des opératrices manuelles, celles-ci étaient si peu habituées aux bruits bizarres de ces transmissions qu'elles coupaient brutalement les lignes.

Aujourd'hui, la qualité générale du réseau commuté des PTT permet d'acheminer 2 400 bits par seconde, et parfois même davantage si la ligne est excellente, et les gros utilisateurs peuvent demander l'attribution de lignes spécialisées, mises à disposition 24 heures sur 24, capables de véhiculer jusqu'à 48 000 bits/seconde.

Cette facilité a permis à de grands organismes de créer des réseaux spécialisés avec configuration en étoile autour d'un grand ordinateur central compagnies aériennes, S.N.C.F.) ou des réseaux maillée d'ordinateurs (direction générale des impôts). La télématique était née, avant même que le vocable lui-même soit inventé par MM. NORA et MINC dans leur célèbre rapport sur l'informatisation de la société française.

Pour combiner les avantages d'un réseau commuté et d'une capacité de transmission de 48 000 bits/seconde, les PTT ont ouvert depuis 1978 un grand réseau public de transmission de données baptisé TRANSPAC. L'originalité de ce réseau est que la tarification y est indépendante de la distance : ce système, accessible depuis tous les points du territoire, optimise l'occupation de ses lignes en groupant les données par paquets.

Un autre réseau, TRANSMIC, ouvert en 1979, offre aux entreprises des liaisons permanentes, non commutées, à grand débit, allant de 2,4 à 2048 kilobits/seconde, qui permettent des interconnexions d'ordinateurs et notamment des transferts de fichiers.

Initialement, ce réseau n'était accessible que dans un rayon d'une trentaine de kilomètres autour des 8 pointe d'accès nationaux qui doivent être portés au nombre de 60 en 1983.

Outre ces réseaux, pour les très prochaines années en France, de véritables innovations techniques transformeront radicalement la situation et accélèreront encore la mutation télématique.

Il s'agit tout d'abord du satellite TELECOM I qui sera mis en orbite en 1983 et permettra d'offrir des liaisons numériques à tous débits et notamment aux débits les plus importants (2 millions de bits/seconde). Ces liaisons seront commutées, mises à disposition de l'utilisateur à sa demande, même pour des périodes très brèves, au contraire de ce qui est offert sur les réseaux terrestres.

A plus long terme, mais nous y reviendrons ultérieurement, la substitution progressive des fibres optiques aux supports classiques permettra un accroissement considérable de la capacité du réseau (un câble coaxial de 5 cm de diamètre a une capacité de 10 000 communications ; un câble de fibres de verre de 2 cm de diamètre atteint une capacité de 60 000 communications)_

Dès à présent, les fibres optiques sont utilisées en France pour des liaisons à faible distance et à débit élevé entre plusieurs centraux téléphoniques et en 1982 devrait être réalisé à BIARRITZ un premier réseau expérimental.

Pour être complet sur les réseaux télématiques, il faut également considérer les réseaux de télévision. A la différence des précédents qui assurent des liaisons point à point et dans les deux sens (émission et réception) les réseaux de télévision sont unidirectionnels, émettant d'un centre vers des récepteurs.

Dans quelques années, nouvelles techniques et nouveaux supports (numérisation, satellites, fibres optiques) permettront grâce aux débits élevés de diffuser des images mobiles en couleur et à terme c'est donc bien vers un réseau télématique unique que l'on ne dirige et qui sera le continuateur du réseau téléphonique unique traditionnel.

Quelques exemples montrent que cette évolution est d'ores et déjà en marche :

A l'étranger, bien sûr, d'autres projets, grandioses, se développent, notamment aux U.S.A. :

IBM mise sur les satellites à travers la société SBS (Satellite Business Systems Inc.)

ATT tente une percée télématique à travers BABY BELL

XEROS s'est engagé vers des solutions de prestige

Aux Etats-Unis, outre des réseaux bien connus à orientation plus professionnelle comme DIGICAST ou PCNET (personal computer network) deux nouveaux réseaux à orientation plus "besoins individuelsl" ont vu le jour depuis 1979. Il n'agit des réseaux SOURCE et MICRONET :

2.5. Les applications

Nous passerons ici rapidement en revue les principales catégories d'applications de l'informatique rendues possibles dans la société moderne par la baisse phénoménale des coûts.

a) Les jeux

L'activité de jeu est indissociable de toute période d'apprentissage, chez l'homme comme chez l'animal. Après le succès des jeux vidéo, permettant de jouer au tennis et à quelques autres jeux similaires simples sur un téléviseur ordinaire, une belle percée pourrait bien être réalisée dans le grand public par le système "ATARI" qui permet d'accéder, sur l'ordinateur familial et avec une grande simplicité de maniement, à une variété infinie de programmes de jeux sophistiqués et en couleurs. Le constructeur a même glissé dans l'éventail de programmes proposés une cartouche qui permet de transformer le téléviseur familial en ... ordinateur individuel. Voilà sans doute le cheval de Troie de l'ordinateur dans nos foyers !

b) A l'usine

Les automates programmables sont utilisés depuis longtemps dans les ateliers de production.: On introduit actuellement de nouveaux concepts :-

CAO : conception assistée par ordinateur
FAO : fabrication assistée par ordinateur

et demain peut-être
DAO : décision assistée par ordinateur

c) Dans le tertiaire

De nombreuses professions ont des besoins spécifiques que les ordinateurs pourraient satisfaire :

Curieusement, et sauf dans les deux premières catégories, la pénétration est lente, sans doute liée à des facteurs humains : mauvaise approche commerciale, craintes mythiques ou fondes, un peu semblables à celles des "canuts" de Lyon face à la pénétration des métiers à tisser.

Aucune considération technique en permet d'exclure que les ordinateurs ne deviennent capables, dans un avenir plus ou moins lointain de :

Sans trop s'engager dans une réflexion aussi prophétique, force est de reconnaître qu'à l'heure actuelle, l'ordinateur est utilisé en dessous de ses possibilités réelles et que l'un des problèmes les plus immédiats à résoudre doit vraisemblablement être de ralentir suffisamment sa pénétration pour que les hommes puissent la supporter et s'y adapter progressivement.


Annexe 1

le code ASCII dans sa presentation d'origine


Annexe 2

Search AdmiNet : options
Copyright. ©2000 AdmiNet. All rights reserved
Designed by vb - Powered by Spirit
URL : http://dredad.org/industrie/drire/1982/partie2.html
Top of page
Feedback
(Last update : Fri, 22 Dec 2000)