Technologies de l'information

LE ROLE MOTEUR DE PLAQUES TECHNOLOGIQUES

Les lignes de force du progrès technique dans les technologies de l'information peuvent ainsi être résumées par un schéma.

Aujourd'hui, trois grands domaines tirent les développements technologiques, que l'on peut représenter sous forme de "plaques" étroitement enchevêtrées: les réseaux, l'image, la mobilité.

L'essor de ces domaines est conditionné par les progrès réalisés en matière de logiciels et de composants.

Réseaux

La notion de réseau trouve toute son importance dans le secteur des télécommunications, avec les réseaux hauts débits et les réseaux intelligents. Elle joue aussi un rôle majeur dans les développements de l'informatique, avec l'essor des architectures distribuées.

Le développement de réseaux étendus dépendra de l'évolution de l'informatique vers une distribution massive, avec notamment la diffusion d'architectures clients serveurs.

Ces systèmes distribués s'accompagneront de technologies spécifiques, notamment de l'ensemble des technologies transactionnelles (cryptage, authentification, sécurité distribuée, contrôle d'accès).

Des freins technologiques au développement de réseaux intelligents

Il est certain que les problèmes que rencontrent les réseaux d'entreprise proviennent en grande partie d'une prise de conscience tardive par les gestionnaires de l'importance de l'administration du réseau. Cette prise en compte n'a d'ailleurs pas été facilitée par les constructeurs qui, en développant des systèmes "propriétaires", pouvaient rendre captive leur clientèle.

L'absence de normalisation des protocoles a donc permis une grande hétérogénéité des matériels, à laquelle il faut maintenant ajouter une très grande diversité dans la nature des équipements raccordés (mobiles, voix, données). Ces lacunes ont rendu encore plus difficile la tâche de la gestion centralisée d'une distribution physique étendue et d'une grande hétérogénéité de matériels.

Toutefois, de nombreux indicateurs prouvent que cette prise de conscience est en train de s'effectuer. Aujourd'hui, les organismes de normalisation internationaux préconisent des standards qui assureront l'interopérabilité des différents réseaux. Il en est ainsi des normes CMIP du CCITT (Comité consultatif international télégraphique et téléphonique).

Cette préoccupation est maintenant présente au stade de la normalisation du mode de transmission. Ainsi, la norme SDH (Synchronous digital hierarchy), au stade de la conception de sa signalisation, intègre déjà des protocoles de gestion normalisés. Cela permet d'imaginer une meilleure configuration pour les prochains réseaux de transport large bande.

De plus, les constructeurs eux-mêmes anticipent des politiques d'achats multiconstructeurs de la part des opérateurs et intègrent de façon volontariste l'interopérabilité comme nouvel argument de vente. Ainsi IBM a-t-il développé le système de supervision NetView, en collaboration avec le constructeur de réseaux publics Ericsson et son système TMOS.

Une telle approche d'intégration totale du réseau relève forcément du long terme, car les investissements d'infrastructures sont planifiés sur des durées de quinze à vingt ans. De plus, la non-finalisation de la norme SDH a conduit de nombreux opérateurs et entreprises à adopter un protocole plus simple, SNMP (Simple network management protocol), qui est devenu un standard de marché. Ce standard moins complet correspond, de la part des opérateurs, à une approche intermédiaire plus pragmatique de compatibilité par module ("end-to-end network management"). Elle repose sur la mise au point d'interfaces normalisés CME (Common management entity) qui permettent l'interopérabilité entre les éléments concernés du réseau.

Une complexité accrue des traitements

Aujourd'hui, les flux d'administration représentent près du dixième des flux d'in formation échangés. La multiplication (en réponse à l'hétérogénéité des équipements) des interfaces applicatifs et des modules d'interconnexion de protocoles, et l'augmentation continue de la taille des bases de données utilisateurs ont décuplé les besoins en espace mémoire, en temps de traitement, en génération de trafic.

Pour traiter cette complexité, deux solutions déjà utilisées, mais dont les développements seront déterminants, sont la conception de programmes orientée objet et les architectures massivement parallèles à base de processeurs Risc.

D'ores et déjà, les normes CMIP/CMIS reposent sur une syntaxe maniant des objets. Ce système de gestion, qui correspond d'ailleurs bien aux nouvelles architectures distribuées client/serveur, est susceptible de décupler la productivité des programmeurs. Mais le gain ne se limite pas au développeur de l'application: la clarté, la réutilisabilité et les facilités de maintenance inhérentes à ce type de langage sont aussi des atouts pour les entreprises utilisatrices.

A priori, les nouvelles fonctionnalités (maintenance, etc...) des équipements (routeurs, stations de travail) permettent de délocaliser une partie de l'intelligence de gestion de réseau. Toutefois, cette tendance se heurte à deux obstacles. Le prix d'équipements terminaux à la sophistication accrue dresse une barrière économique. Mais surtout, cette sophistication peut devenir un facteur complexifiant pour l'administration du réseau. Ainsi, pour prendre un cas extrême, la gestion de la mobilité dans des réseaux numériques radioélectriques à ressources partagées utilisant la norme Tetra multiplie par sept la complexité logicielle de l'administration du réseau.

L'augmentation des volumes d'information transportés, leur vitesse de transmission et le champ toujours plus large des différentes technologies utilisées vont faire de la supervision des réseaux et de la gestion de son intelligence un enjeu majeur auquel seront confrontés les opérateurs des futurs réseaux de télécommunications.

Seules les technologies de supervision des réseaux et de gestion de leur intelligence permettront d'offrir la haute qualité de service que devront atteindre les opérateurs dans un environnement toujours plus concurrentiel. Cette supervision passera par la poursuite et l'intensification des efforts de normalisation dans les architectures de réseaux et les protocoles de gestion. La prise de conscience de l'intérêt du partage de l'intelligence semble générale. Elle pourrait déboucher à moyen terme sur la mise en place d'une architecture entièrement standardisée des réseaux assurant le fort développement des services associés. La définition de cette architecture passe par des politiques coopératives entre les acteurs.

En effet, outre la caractère inhibant sur les entreprises de la persistance de l'hétérogénéité des protocoles de réseaux, l'absence de solutions coopératives ne permettrait pas de rassembler les investissements gigantesques nécessaires. De tels investissements sont notamment nécessaires pour relever le défi que pose l'immense chantier logiciel, et notamment le développement des nouvelles approches utilisant la programmation orientée objet.

Mobilité

La mobilité apparaît comme une autre "plaque" technologique qui fédère des évolutions en cours dans les télécommunications et l'informatique, et qui nécessite le développement de technologies telles que les antennes, l'alimentation énergétique, les architectures de réseaux intelligents.

La portabilité nécessaire du terminal

L'exigence de portabilité de l'utilisateur final est très forte. L'exemple des micro ordinateurs portables, dont les ventes n'ont décollé qu'à partir du moment où la réduction de leur poids est devenue significative, l'illustre bien.

Bien que les niveaux de complexité des terminaux soient variables entre les différents systèmes mobiles, les progrès technologiques se font dans quatre directions communes: la miniaturisation, l'allégement, l'autonomie, l'ergonomie. Le champ d'action concerne à la fois la partie logique du terminal, consacrée au traitement numérique du signal (qui représente aujourd'hui les deux tiers du prix), et la partie radio.

La première voie de recherche, pour miniaturiser et alléger, vise à réduire le nombre de composants en groupant plusieurs fonctions sur un même élément. Ce mouvement vers l'intégration est clairement amorcé dans les composants logiques du traitement de la parole. Ainsi, les différentes fonctions que sont le codage de la voix, la gestion des trames digitales et l'annulation d'écho correspondent actuelle ment à trois composants différents, mais seront bientôt regroupées sur un même processeur.

Les seuils techniques à franchir relèvent de la taille et de la géométrie des semi-conducteurs C-MOS utilisés: les technologies de lithographie et d'assemblage doivent permettre d'amincir les traits (0,8 ,um) et de réduire les espacements (400 um).

A la différence des semi-conducteurs, qui bénéficient de façon évidente de la course à la puissance engagée dans l'informatique, les composants radio (synthétiseur, modem, convertisseurs de fréquence) ne font pas encore l'objet d'une approche similaire d'intégration par les industriels. Seule l'intégration partielle des fonctions semble aujourd'hui envisagée. C'est le cas des composants AsGa hyperfréquences qui prennent en charge pré- et post-amplification du signal.

L'élément sur lequel l'effort d'allégement porte en priorité est la batterie. Les recherches actuelles visent à la fois réduire son encombrement (et donc son poids) et à augmenter son autonomie grâce à la mise au point d'autres couples (NiH, LiH) que le nickel-cadmium.

La réduction de la consommation est une préoccupation centrale: elle concerne bien sûr la partie émission radio, mais aussi les composants logiques qui consomment lorsque le terminal est à l'état de veille (la consommation est moindre mais l'état de veille dure en moyenne dix fois plus longtemps). Leur tension d'alimentation doit s'abaisser progressivement, de 5 V aujourd'hui jusqu'à 3,3 V.

De même, les composants mémoires "flash" permettent de répondre à cet impératif de faible consommation et de miniaturisation.

La maîtrise de l'énergie ne se réduit pas à la capacité de la batterie. Elle passe aussi par le contrôle du processus de charge de la batterie (plus particulièrement sa vitesse et sa fréquence), lui-même piloté par des composants électroniques spécifiques de puissance. Des synergies sont peut-être possibles avec les préoccupations des constructeurs automobiles concernant le véhicule électrique urbain.

L'ergonomie, pour sa part, nécessitera des écrans plats, amincis et allégés, et un clavier convivial. L'apparition de touches à fonctions multiples ("smart keys") illustre la prise en compte de cette contrainte.

Dans bien des cas, ces progrès technologiques se situent à la convergence de plu sieurs domaines. En tout état de cause, il s'agit là d'évolutions plus que de révolutions. La mise au point de process adaptés et fiables, de faible coût, constitue un objectif prioritaire, qui semble réalisable.

Toutefois, deux freins majeurs sont susceptibles d'entraver les développements annoncés. Les coûts grandissants des investissements de R-D doivent s'appuyer sur des marges commerciales dont la faiblesse est caractéristique des marchés de masse. Cela a conduit à la multiplication d'accords de coopération et certains y voient les premiers signes d'une concentration des industriels. D'autre part, le retard accumulé par les constructeurs européens dans les industries électroniques crée dès aujourd'hui le danger d'une situation de dépendance vis- à-vis des fabricants japonais de composants (notamment dans les composants logiques).

La coexistence des réseaux: des choix au service de logiques commerciales

La diversité des besoins, en couverture et en nature de la transmission, ainsi que l'équilibre des forces en présence, a rendu inévitable la coexistence d'une multitude de réseaux. La pérennité de cette coexistence dépendra, bien sûr, de l'évolution des services associés à ces réseaux et résultera du jeu concurrentiel. Mais elle sera aussi rendue possible par l'adéquation des choix technologiques, notamment ceux afférents au partage du spectre de fréquences hertziennes et de la gestion du réseau.

Le constat d'un spectre encombré n'est pas récent. La technologie peut-elle suppléer aux difficultés de planification et d'harmonisation européenne ?

Ce constat a déjà provoqué une montée en fréquence des communications mobiles, sensible dans les recommandations des organismes internationaux de normalisation. Ainsi, la norme UMPS a annoncé l'apparition d'un réseau de communication universel à 2 GHz. Les fréquences inférieures à 1 GHz semblent vouées à une saturation inévitable à plus ou moins long terme. Cette montée en fréquences des mobiles semble devoir s'arrêter en deçà de 3 GHz, du fait de limites physiques tout d'abord, mais aussi parce que d'éventuelles saturations à ces niveaux de fréquences semblent beaucoup plus lointaines. De plus, il est envisageable que l'avènement de la TVHD, voire de la radiodiffusion DAB, libèrent dans le long terme une partie du spectre occupée par la télévision analogique et la radio en modulation de fréquences.

L'annonce des nouveaux réseaux d'entreprise sans fil, du type RLAN (réseaux locaux radioélectriques) et Hiperlan dans la bande 5 à 17 GHz ou le développement des communications par satellites en orbite basse (autour de 1,5 GHz), ne semblent pas susceptibles d'aggraver les problèmes à moyen terme. Il faut toutefois signaler l'exception des réseaux Tetra qui, autour de 400 MHz, se placent d'emblée dans une partie du spectre durablement encombrée. Ils dépendront donc fortement de l'action des réglementeurs.

Les nouvelles techniques d'étalement du spectre (technique CDMA) n'ont pas encore emporté l'adhésion de la communauté industrielle. Ces techniques, qui permettent l'occupation d'un même canal par plusieurs communications, au prix d'une puissance amoindrie, n'ont pas démontré qu'elles réduisaient véritablement l'encombrement du spectre. Elles requièrent en effet en contrepartie des bandes plus larges. D'autre part, les problèmes d'interférences ne sont pas complètement résolus.

Les avancées dans l'intégration du terminal peuvent lui permettre de prendre en charge l'interconnexion des réseaux. Ainsi, des terminaux bi-bande, qui changent de fréquences suivant la zone géographique, ont fait leur apparition sur certains réseaux analogiques. Une telle approche pragmatique pourrait, pour un temps tout du moins, compenser les lenteurs inévitables de l'harmonisation européenne, voire même concilier des intérêts divergents. De telles solutions ont été parfois dictées par le jeu des circonstances (par exemple la saturation non anticipée du réseau R2000). Elles pourraient cependant préfigurer une nouvelle génération de terminaux agiles en fréquences. Il est clair que le surcoût de ces terminaux est un facteur limitant, mais des synergies avec les militaires, qui ont déjà développé de tels systèmes à un niveau de sophistication élevé (système Rita de Thomson), sont envisageables.

De telles avancées vont dans le sens d'une compatibilité des réseaux, elle-même clé de voûte de leur pérennité. Mais celle ci dépendra aussi du partage de l'intelligence et de l'accessibilité aux réseaux, conditions du maintien de la qualité du service. L'intelligence du réseau doit en effet le rendre transparent aux yeux de l'utilisateur. Cette transparence repose notamment sur des administrations de réseaux ouvertes et normalisées. Il ne faut pas sous estimer la complexité technique qu'implique l'introduction de la mobilité (et sa gestion au sein du réseau) et, par conséquent, les investissements logiciels nécessaires.

Cette complexité technique est d'ailleurs un des principaux freins à l'avènement d'une généralisation du sans fil, qu'il s'agisse de réseaux d'entreprise radioélectriques ou de "communicateurs personnels". Un autre frein est constitué par les obstacles qui se dressent devant la possible migration des données sur les réseaux de téléphonie cellulaire. La sécurité des transmissions et la confidentialité (sauf à introduire des fonctions supplémentaires en cryptage) posent de nombreux problèmes.

Image

La numérisation de l'information est un mouvement de fond qui consacre l'unification des technologies de l'information et de la communication. Le gigantisme du marché potentiel est évident compte tenu des masses de données requises pour la représentation de la voix, de l'image et, plus encore, de l'image animée. A l'heure actuelle, seulement 10 % de l'écrit existant est numérisé. Cela souligne l'ampleur du chemin à accomplir pour atteindre une intégration totale des systèmes d'information.

L'homogénéisation totale des quatre supports de l'information (texte, voix, image et image animée) ouvre aux techniques multimédias un champ d'application qui reste à défricher. De plus, elle multiplie les débits d'information à transmettre, tout en complexifiant les modes de transmission.

L'apparition de l'image a des répercussions considérables sur l'ensemble des maillons de la chaîne de l'information (composants - production - transmission diffusion - affichage - interactivité) :

- L'image nécessite de très hauts débits qui ont des répercussions directes sur l'architecture des systèmes et des réseaux. Les serveurs vidéo haut débit (pour la vidéo a la demande) doivent ainsi respecter une forte contrainte de temps, alors même que le "processing" (calcul proprement dit) est très réduit. Plus généralement l'architecture des systèmes est aussi dépendante de la nature des services et des exigences de leur convivialité. Les créateurs d'images de synthèse devront maîtriser les hauts débits pour utiliser les réseaux de transmission.

- L'image accélère le besoin en stockage de masse, déjà existant avec les très grandes bases de données. Elle rend surtout nécessaires des technologies de stockage de masse à accès rapide (pour alimenter un serveur de vidéo à la demande). La technologie RAID est un standard de fait qu'il semble important de maîtriser.

- La compression est essentielle au traitement de l'image. Les normes JPEG et MPEG représentent des étapes importantes. Leur obsolescence ne pourrait résulter que de l'hypothétique développement de nouvelles technologies, qui constituerait un véritable saut technologique.

- L'image représente un brutal changement d'échelle pour tous les problèmes d'indexation automatique et de liens hypermédia, alors même que ceux-ci ne sont pas maîtrisés pour les liens hypertexte. Ainsi en est-il, par exemple, de la recherche dans des bases de données graphiques (par exemple bases de logos commerciaux).

- L'aspect temps réel se révèle être très important compte tenu de la dimension interactive des services futurs (vidéo à la demande). Dès lors, la technique de programmation synchrone et toutes les techniques temps réel (comme l'acquisition de données temps réel) sont importantes.

- L'importance des technologies pour écrans plats ne résulte pas seulement de l'importance des marchés pour un composant qui ne peut que se diffuser toujours plus, notamment dans l'électronique grand public, et donc d'une problématique de maîtrise de la valeur ajoutée: elle provient aussi des nouveaux usages que pourrait révéler l'ergonomie des écrans plats (livres électroniques, "notepads", etc.).

- L'interactivité constitue un autre pôle du domaine de l'image autour duquel se structurent des technologies spécifiques: les liens hypertexte et hypermédia, les techniques de médiation.

Des technologies multimédias a la recherche d'utilisateurs

L'effondrement du ratio prix/performances des composants électroniques et les progrès dans la miniaturisation ont permis une floraison commerciale de produits grand public proposant, à un niveau souvent sommaire, des applications multimédias. Leur succès mitigé laisse penser qu'un tel marché n'est pas mûr et que l'expression claire d'un besoin par le grand public fait encore défaut. Il n'est pas impossible que le manque d'imagination des concepteurs d'applications soit en cause. Le nouvel univers qui s'ouvre avec la convergence de tous les médias est souvent célébré mais il n'est pas encore réellement exploré. Cela ne nécessite-t-il pas des technologies de traitement du contenu ?

En fait, en l'absence d'une application de masse comparable à celle du tableur dans les années 80, le multimédia semble encore réservé au marché professionnel.

Des besoins en haut débit insatisfaits

L'hypothèque de la richesse d'une offre multimédia professionnelle n'a pas besoin d'être levée pour constater que les besoins en transmission de hauts débits sont déjà réels.

Cette demande se nourrit de deux phénomènes, la multiplication des puissances de traitement des équipements et la montée en débit des réseaux locaux, qui ont créé une habitude de service. Cette habitude ne peut être que renforcée par l'irruption du multimédia et des applications correspondantes. Parallèlement, la diffusion du modèle de l'entreprise élargie a étendu géographiquement la notion de communauté de travail et créé de forts besoins de transmission haut débit.

La convergence de ces deux phénomènes plaide pour l'apparition prochaine d'infrastructures large bande adaptées, prioritairement dans l'interconnexion des réseaux locaux. La baisse des coûts des hauts débits pose des problèmes pour amortir les dépenses de R-D engagées et rentabiliser les infrastructures.

Les avancées technologiques peuvent-elles déplacer l'équilibre ?

L'inadéquation avérée entre offre et demande a créé une situation instable. En effet, les progrès technologiques des réseaux locaux autoriseront très bientôt le développement du multimédia. Mais, dans de nombreux pays, les besoins de transmission à haut débit ainsi créés ne sont pas totalement satisfaits par les opérateurs publics, malgré le développement d'offres de services d'interconnexion de réseaux locaux d'entreprise à haut débit et longue distance.

Il importe donc de savoir si la prochaine génération d'infrastructures publiques large bande telle qu'elle est annoncée, le couple SDH/ATM, pourra se développer.

Il est acquis que celle-ci peut migrer loin dans l'architecture des réseaux locaux, y compris jusqu'aux stations de travail. Mais, en l'absence d'infrastructures publiques disponibles, les entreprises pourraient se rabattre sur des technologies déjà éprouvées, comme le relais de trames ou le X25 (norme de commutation par paquets).

Commutation asynchrone et transmission synchrone: une unanimité théorique

La supériorité technique des technologies de commutation asynchrone et de transmission synchrone est reconnue. Les normes SDH et ATM font l'objet d'un large consensus au niveau européen, même si celles-ci, et surtout la norme ATM, ne sont pas encore finalisées.

La transmission SDH permet notamment le multiplexage synchrone, qui facilite l'ex traction d'un canal faible débit en rendant non nécessaire le démultiplexage de la totalité du canal haut débit. Elle offre une infrastructure de transport sur fibre optique avec des paliers jusqu'à 2,488 6Bps. De plus, la qualité de la transmission est très élevée (taux d'erreur très faible).

Les facilités de routage sont compatibles avec la commutation asynchrone ATM qui, en maniant des cellules de taille fixe en flux rapide continu sans repérage de synchronisation entre l'émission et la réception, augmente considérablement la vitesse de commutation et permet l'intégration de la voix et de l'image vidéo. Outre l'augmentation conséquente du débit, cette technologie gagne en flexibilité de configuration et autorise notamment la bande passante à la demande. Cette flexibilité ouvre d'ailleurs les perspectives de réseaux privés virtuels coexistant sur une même artère large bande.

Du fait de ses spécificités, la technologie ATM s'adapte aux réseaux locaux ou étendus, aux réseaux publics comme privés. Mais son développement est entravé tout d'abord par l'inachèvement des spécifications de la norme, notamment en ce qui concerne la signalisation et le choix de l'architecture d'administration de réseau, et surtout par l'importance des investissements d'infrastructure à engager.

Parallèlement, les solutions locales montent en débit (Ethernet à 100 MBps). Compte tenu de l'absence d'applications locales interactives requérant des débits supérieurs au plafond des réseaux locaux antérieurs, la rentabilité d'investissements SDH/ATM, s'ils devaient se limiter aux liaisons d'interconnexion, devient plus problématique. Une telle configuration pourrait retarder durablement l'arrivée de l'ATM au profit de technologies déjà installées comme le relais de trame ou X25.

Les progrès annoncés de la compression

De tels débits pourraient s'avérer d'autant moins nécessaires que des progrès importants dans les algorithmes de compression et les puissances de traitement semblent inéluctables. On peut penser que la compression, qui se trouve au coeur de nombreuses applications, dont certaines destinées au grand public (CDI, TVHD), réalisera des progrès significatifs. La compression est d'autant plus nécessaire que le coût de la transmission est un facteur de première importance.

Les seuils techniques ne sont certes pas à négliger. Les normes JPEG et MPEG, la norme H261 de compression symétrique consacrée à la vidéophonie (la symétrie constitue la clé de l'interactivité), ont joué un rôle fédérateur important. Mais il n'est pas à exclure que de nouvelles approches algorithmiques (fractales, onde lettes) et de reconnaissance des formes (intelligence artificielle) permettent d'augmenter la qualité des images, à débit égal.

La fibre optique: support privilégié du haut débit

Les progrès de la compression d'une part, de nouvelles techniques de codage (HDSL) d'autre part, contribuent, en sus de facteurs économiques (montants financiers en jeu) à retarder l'introduction de la fibre optique en remplacement de la paire de cuivre torsadée. Pourtant, les principales propriétés physiques de la fibre optique (faible atténuation et grande bande passante) en font le support privilégié des transmissions large bande. Son débit est quasi illimité, mais son coût et celui des composants optoélectroniques restent les obstacles majeurs à sa large diffusion.

La réalisation de composants optoélectroniques à faible coût, et notamment des diodes laser "bas coût" (diodes Fabry-Perot), sera en particulier cruciale. Ces composants, nombreux dans une structure locale, représentent en effet près de 50 % du coût de la fibre optique. En fait, il est clair que le prix de ces composants ne bais sera qu'au stade de la production de masse. La question est de savoir si celle-ci est amorçable par une politique volontariste du type "fibre jusque chez l'abonné".

Outre les effets d'échelle, un des facteurs d'abaissement des coûts pourrait être le développement de nouvelles techniques d'assemblage et d'intégration des composants optoélectroniques hybridés sur silicium.

L'amélioration du ratio performance/coût serait alors un facteur susceptible de viabiliser l'émergence d'une infrastructure étendue SDH ainsi que l'extension de la fibre jusqu'au bâtiment, jusqu'à au coin de la rue ou jusqu'à l'abonné ("fiber-to-the- building" "fiber-to-the-curb", "fiber-to-the-home"). Ces développements sont en outre subordonnés au développement de technologies de mise en oeuvre (câbles et accessoires pour fibres optiques).

Aujourd'hui, la fibre optique jusque chez l'abonné est toutefois, à l'exception des zones d'affaires, surdimensionnée par rapport aux besoins. L'intérêt à long terme est pourtant évident. Un tel support permet d'ores et déjà l'apport sur un seul câblage de toutes les fonctions envisageables dans le futur ainsi qu'une grande souplesse d'utilisation, avec notamment la garantie de l'adéquation du débit quelle que soit l'évolution des besoins des deux prochaines décennies. L'obstacle essentiel est donc le prix.


Copyright © 1996 Ministère de l'Industrie

[bal.gif]