Services et communication
Les déterminants de la demande
TROIS IMPÉRATIFS
Les grandes lignes de force de la demande de services de communication sont résumées dans le schéma en page suivante.
La demande de services de communication est surtout sensible aux coûts et a la simplicité d'utilisation. Le demandeur souhaite d'autre part plus de mobilité dans l'utilisation du service et un plus grand choix.
Réduction des coûts
La sensibilité aux coûts entraîne la recherche de gains de productivité dans la production du service et de l'équipement associé. L'offreur a intérêt à faire jouer l'effet de volume en développant un marché de masse. La productivité des services fonctionnels, qui a relativement peu augmenté par rapport à la productivité industrielle, est un objectif essentiel.
De nombreuses technologies seront mises à profit pour améliorer les systèmes d'information de l'entreprise, faciliter et accélérer la circulation de l'information. Les réseaux locaux seront à la base de cette nouvelle organisation. L'architecture client-serveur s'imposera, avec le travail coopératif ("groupware") et les échanges de données informatisés. L'architecture client-serveur est un système distribué d'ordinateurs connectés entre eux. Ce modèle conduit à considérer chaque machine comme un serveur potentiel au service de toutes les autres. Outre sa convivialité, le système client-serveur permet une décentralisation des traitements tout en permettant un accès plus facile aux données.
Le "groupware" permet, lui aussi, le travail décentralisé, mais sur une même application informatique : par exemple, les membres d'un groupe de travail utilisent, en même temps et à distance, le même document électronique. La multiplication des réseaux locaux la volonté des utilisateurs d'avoir un accès transparent à une quantité toujours plus grande d'informations feront de l'interconnexion de réseaux un impératif incontournable.
Cette informatique répartie ne supprimera pas les grands et moyens systèmes qui auront un rôle évident de centralisation de l'information. Le "mainframe" deviendra, d'une part, un serveur de forte puissance et, d'autre part, le centre de sauvegarde et de contrôle des informations stratégiques, uniques pour toute l'organisation.
Les systèmes temps réel continueront à avoir une place privilégiée dans le traitement des flux de données en provenance du monde extérieur (gestion d'unité de production, contrôle du trafic, etc.). Ils pourront aussi être utilisés pour le traitement du signal et d'images.
Pour que l'entreprise soit plus rapide, plus productive et plus compétitive que ses concurrentes, la maîtrise et le développement de logiciels sont essentiels. De plus en plus de produits incorporent du logiciel. Toute la chaîne de conception et d'industrialisation en dépend: de la CAO à la CFAO, des robots programmés à la logistique, de la finance à la vente, tous les domaines de l'entreprise sont concernés.
Complexe, immatériel par définition, le logiciel devient un investissement coûteux. La capacité des systèmes ne cesse de croître. Par exemple, la taille des logiciels d'informatique embarquée double tous les cinq dans les produits de l'Aérospatiale. Plus le logiciel gagne en importance, plus il devient complexe. Les coûts de développement explosent : Alcatel estime ainsi qu'ils doublent chaque année dans les activités de télécommunications. La maîtrise des coûts de développement et de maintenance va, en même temps que la sécurité, devenir une question essentielle.
L'approche orientée objet offre une réponse intéressante car elle réduit considérablement les développements complexes ou de taille importante, fournit des solutions en environnement hétérogène et/ou distribué, autorise une maintenance et une évolution plus faciles et permet la réutilisation de composants logiciels. Elle devrait améliorer significativement la productivité des informaticiens.
Avec la complexité croissante des programmes, la hantise de l'erreur involontaire de programmation ou "bug" ne cesse de croître. La validation et la certification des logiciels deviennent la règle dans de nombreux secteurs. L'objectif est de fiabiliser les produits contenant du logiciel tout en maîtrisant les coûts liés aux tests.
Il est essentiel de développer des méthodologies garantes de la qualité de ces logiciels. Les techniques de test et de validation sont absolument nécessaires lorsque la sécurité des personnes ou encore les risques de dysfonctionnement ou de perte d'informations sont inacceptables, par exemple pour les systèmes de sécurité des transports ferroviaires ou pour les systèmes embarqués dans les avions. Le problème est de concilier fiabilité et coût de développement. Celui qui saura résoudre ce problème aura un avantage compétitif indéniable.
La réduction des coûts faisant jouer l'effet volume suppose un marché de masse. Celui-ci n'existera que si des normes ou des standards ont été définis et/ou imposés. La normalisation est un élément essentiel dans la recherche d'économies d'échelle, même si à l'origine elle coûte à l'entreprise, qui y investit en hommes et en temps.
Simplicité d'utilisation
La nécessité de simplifier l'utilisation des équipements ou la mise en oeuvre du service suppose d'une part que l'interface homme-machine soit la plus conviviale possible, d'autre part que les différents systèmes et équipements soient compatibles et puissent être interconnectés. L'utilisateur souhaite en fait que les technologies soient "transparentes". Les entreprises redoutent d'être enfermées dans des systèmes "propriétaires" ou des standards qui ne sont pas reliés aux autres par des passerelles.
L'informatique a déjà fait un pas dans la direction de la convivialité. La simplicité d'accès aux programmes et aux données constitue un besoin fondamental. Les interfaces graphiques se sont ainsi peu à peu imposées. L'innovation ne réside pas seulement dans les "menus déroulants" ou dans la souris. En passant d'une application à une autre (traitement de texte, tenue de fichiers, messagerie, tableur, graphique...), l'utilisateur découvre qu'il n'a pas besoin d'apprendre un nouveau langage, ni d'acquérir de nouveaux réflexes. La machine réagit toujours de la même manière aux sollicitations de son utilisateur.
La programmation "objet" est à la base de cet incontestable progrès. L'orientation objet a facilité l'arrivée d'informations imagées et sonores. La technologie des agents "intelligents" devrait faire franchir un nouveau pas à la convivialité de l'informatique, en donnant à tous les utilisateurs d'ordinateurs la possibilité de réaliser très facilement des opérations complexes sur des réseaux de communication.
Mais l'interface homme-machine ne deviendra véritablement conviviale que lorsque le traitement de la parole, la reconnaissance des formes, l'intelligence artificielle auront intégré de façon notable le coeur des machines.
La simplicité d'usage imposera en fait une complexité sans précédent dans la réalisation des interfaces. Les technologies vocales sont bien évidemment les plus séduisantes. La synthèse de la parole devrait connaître un succès plus précoce que la reconnaissance vocale : celle-ci étant plus difficile à maîtriser, son introduction prématurée risquerait de créer un phénomène de rejet et aller à l'encontre du but recherché. En attendant, l'interrogation en langage naturel et les technologies de reconnaissance des formes devraient être une façon commode de communiquer avec la machine.
Ces technologies bénéficieront du développement de l'intelligence artificielle, en particulier de la logique floue et des réseaux de neurones. Au lieu de traiter des données selon des programmes prédéfinis, ces techniques utiliseront des connaissances gardées en mémoire, sous une forme telle que la machine puisse les appeler et les organiser pour répondre à la situation à laquelle elle doit faire face. L'ergonomie autour de l'écran et du clavier fédérera l'ensemble pour permettre une utilisation aisée.
Mobilité
La demande de mobilité a des conséquences technologiques importantes qui touchent à la portabilité et à l'autonomie des terminaux ainsi qu'à l'utilisation du spectre hertzien.
La portabilité suppose que l'appareil soit d'un encombrement réduit et d'un poids acceptable. Toutes les technologies permettant de réduire la taille des composants et des sous-ensembles seront capitales, notamment au niveau du circuit imprimé et en particulier des connecteurs, qui sont les éléments pour lesquels la miniaturisation a encore peu joué.
Comme dans tout système traitant de l'information, le stockage de celle-ci est essentiel. Dans les appareils mobiles il prend toute sa valeur. Les mémoires "flash" en consommant peu d'énergie et en intégrant une grande taille de mémoire sur une surface très réduite, visent à remplacer les disques durs et à devenir le support de stockage des objets nomades tels que les communicateurs personnels ou les téléphones cellulaires.
L'autonomie de ces appareils et donc leur succès dans le grand public dépendra des performances des batteries et de la gestion de l'énergie. L'apparition de composants faible consommation permettra d'augmenter cette autonomie.
La mobilité suppose la liberté de mouvement. Seule l'utilisation du spectre hertzien le permet. La pénurie de fréquences pour les applications de télécommunications oblige à utiliser des bandes de plus en plus élevées. Demain, le radiotéléphone utilisera des fréquences dans les 2 GHz (1,8 GHz), comme les réseaux locaux sans fil. La navigation automobile utilisera des systèmes à 60 GHz. Les futurs radars anticollision des véhicules travailleront à 80 GHz. Les composants hyperfréquences vont donc s'imposer dans un nombre croissant d'applications.
Les écrans de visualisation occupent une place de plus en plus importante dans les systèmes de communication. Le tube cathodique devrait encore être le composant le plus employé dans les récepteurs de télévision. Après avoir conquis la montre digitale, la calculette et les jeux vidéo, l'écran plat est un des composants clés des ordinateurs portables. Il va devenir un élément essentiel des prochaines générations d'équipements de communication.
|