Santé et
technologies du vivant
Le patrimoine génétique des animaux peut être modifié par addition d'ADN provenant d'autres sources que le patrimoine génétique parental, en utilisant les techniques du génie génétique. Trois directions sont particulièrement prometteuses dans le domaine de la santé humaine: la préparation de protéines recombinantes dans le lait, la préparation d'animaux transgéniques modèles (pour tester des médicaments), la préparation d'animaux transgéniques donneurs d'organes pour la transplantation à l'homme. L'amélioration des animaux d'élevage par transgénése pose de nombreux problèmes tant techniques que d'acceptation sociale. Elle semble donc plus lointaine. |
Produits par clonage d'une cellule spécialisée, les anticorps monoclonaux reconnaissent un antigène bien déterminé. Ils ont trouvé de nombreuses applications (tests de dépistage, imagerie in vitro, immuno-purification, typage des groupes sanguins). Leur développement en thérapeutique, encore limité, prendra un nouvel essor si leur activité thérapeutique peut être mieux ciblée et si leur fabrication peut être industrialisée dans de bonnes conditions économiques. |
L'utilisation de matériaux en contact avec des tissus vivants se traduit par des exigences particulières, tout particulièrement la biocompatibilité. Les biomatériaux permettent de réaliser des prothèses orthopédiques, des organes artificiels ainsi que divers appareillages et des produits utilisés en ophtalmologie, odontologie urologie, etc. Le développement des marchés correspondants est fortement lié d'une part au vieillissement de la population, d'autre part aux accidents (transports, pratique sportive). |
La cartographie des génomes a pour but de définir l'inventaire complet des gènes d'un génome. Les recherches portent sur le génome humain mais aussi d'autres organismes: animaux (vache, porc, souris, insectes...), plantes (colza, tournesol, maïs, soja, riz...), micro organismes. Dans le domaine de la santé humaine, la cartographie des génomes des parasites et l'identification des gènes humains impliqués dans une pathologie permettent le développement d'approches et d'outils nouveaux. La cartographie du génome est également un point de passage obligé pour les filières de sélection animales, végétales et microbiologiques (par exemple levures de boulangerie et de brasserie). |
Ces technologies ont pour objectif l'allongement de la durée de conservation des aliments tout en préservant de bonnes qualités organoleptiques. Il s'agit notamment de l'utilisation: - de hautes pressions (4 000 à 8 000 bars) - de l'ionisation, - des ultra-sons, - de la température (stérilisation). |
A mesure que la gamme des molécules issues des biotechnologies s'étend, les techniques d'extraction, de purification et de séparation, qui constituent l'aval du procédé de fabrication, prennent de l'importance en raison de la complexité chimique des systèmes cellulaires qui synthétisent ces molécules. Ces techniques conditionnent les performances industrielles et déterminent la qualité du produit final. Les principaux procédés étudiés peuvent être classés en plusieurs catégories: extractions, centrifugations, procédés électrocinétiques, procédés de séparation membranaire. |
Parmi les principales technologies d'imagerie médicale, souvent complémentaires mais parfois concurrentes, on trouve: - la radiologie numérisée, - la tomodensimétrie X, - les scanners, - l'imagerie par résonance magnétique, - les ultra-sons (échographie, techniques basées sur l'effet Doppler). |
Des travaux portent sur la mise au point de nouvelles espèces végétales à haut contenu énergétique. L'utilisation de matières premières agricoles présente a priori des avantages en matière de protection de l'environnement ou d'indépendance énergétique, mais les problèmes économiques à résoudre restent considérables. |
L'identification des gènes impliqués dans le fonctionnement normal de l'organisme et dans les maladies humaines, le développement de systèmes permettant de les transférer et de les exprimer dans les cellules ont ouvert la voie à la production de médicaments recombinants (basés sur l'ADN recombinant, c'est-à-dire fourni par recombinaison de fragments d'ADN d'origines différentes). Les principaux objectifs de ces recherches sont les cancers, les maladies infectieuses et les maladies dégénératives (Parkinson, Alzheimer). |
Les progrès de la biologie moléculaire favorisent le développement de kits de détection microbiologique qui permettent des contrôles quantitatifs avec un temps de réponse plus court et une plus grande simplicité de mise en oeuvre. Détecter la présence de micro organismes, de produits chimiques, de métaux lourds et d'autres contaminants contribuera à améliorer la qualité sanitaire de la chaîne alimentaire. |
La microbiologie prédictive permet de prédire la croissance des populations microbiennes contenues dans un produit alimentaire en fonction, notamment, des traitements précédemment subis et des conditions logistiques de stockage et d'expédition. |
Le patrimoine génétique des plantes peut être modifié par addition d'ADN d'autres sources en utilisant les techniques du génie génétique. Ces modifications peuvent conférer diverses propriétés aux plantes (par exemple résistance aux rongeurs et parasites), améliorer la qualité des récoltes ou leur rendement. La technologie peut également trouver des applications pour la production de produits pharmaceutiques ou d'enzymes. |
Grâce aux progrès que le génie génétique a permis de réaliser dans la connaissance des mécanismes d'action thérapeutique, il devient envisageable de contrôler l'activité des facteurs circulants (hormones, notamment) qui délivrent aux récepteurs de la membrane de la cellule des messages à effet biologique que les récepteurs reconnaissent par un mécanisme de transduction. Une nouvelle pharmacologie devrait se développer sur ces bases, permettant de contrôler l'activité de bon nombre de cellules normales ou tumorales La recherche est particulièrement intense en ce qui concerne les maladies neuro-dégénératives et les cancers. |
Chaque espèce (virus, bactéries, plantes, animaux) est caractérisée par son ADN, structure linéaire constituée d'un enchaînement de 4 monomères élémentaires (bases). La structure de l'ADN conditionne les protéines susceptibles d'être synthétisées par l'organisme considéré ainsi que les mécanismes de régulation de son expression, et donc la physiologie de cet organisme. Le séquençage de l'ADN vise à déterminer cette structure. Son automatisation devrait raccourcir significativement cette opération actuellement très longue. |
Une sonde moléculaire reconnait une séquence donnée d'ADN. Les sondes moléculaires sont aujourd'hui utilisées comme outils de diagnostic, principalement de maladies infectieuses (en particulier de maladies sexuellement transmissibles). Elles pourraient élargir leurs possibilités dans ce domaine mais aussi, à l'avenir, trouver des applications thérapeutiques. |
Les substituts du sang sont des produits artificiels susceptibles de remplacer le sang lors d'interventions chirurgicales ou de transfusions. Leur développement pourrait éliminer les risques de contamination virale et permettre de s'affranchir des problèmes de compatibilité de groupes sanguins. |
Les systèmes de suppléance cardiaque régulent le rythme de pulsation. Ils apportent une assistance temporaire ou permanente à une défaillance liée à une opération ou résultant de crises aigües. Les principaux développements concernent les stimulateurs cardiaques implantables pour le traitement d'une part de la tachycardie d'autre part de la tachycardie et de la fibrillation. |
Pour produire une protéine recombinante (que l'organisme exploité ne synthétise pas naturellement), il faut mettre au point un système de production et, si possible, l'optimiser (rendements, coûts de production). Ces technologies sont donc indispensables à l'industrialisation des produits issus du génie génétique (vaccins, tests de diagnostic, protéines à visée thérapeutique, kits d'identification en microbiologie, enzymes). Parmi les principaux systèmes à l'étude, on trouve des bactéries des levures et champignons filamenteux, des cellules d'insectes, des animaux transgéniques, des plantes recombinantes, etc. |
Les technologies liées à l'hospitalisation à domicile sont celles qui apportent des aides à la vie quotidienne des patients ou des personnes dépendantes. Elles concernent des appareils de surveillance et d'enregistrement des paramètres de santé, ainsi que des systèmes thérapeutiques (par exemple hémodialyse à domicile). Le développement de ces technologies est lié au souci de maîtrise des dépenses de santé, qui tend a privilégier les soins à domicile des lors que le séjour à l'hôpital n'est pas considéré comme obligatoire. |
Les technologies peu invasives d'intervention médicale visent plusieurs objectifs: améliorer la sécurité et la précision dans la réalisation des actes médicaux, obtenir une meilleure "productivité" des actes par le développement de techniques qui permettent à la fois de repérer les lésions et de les traiter, offrir une meilleure qualité de vie aux patients. Le domaine technologique comprend notamment la "chirurgie par agent physique" (utilisation d'un agent physique tel que le laser en substitution de l'intervention classique avec bistouri) et la "chirurgie minimale" (qui limite à l'extrême la voie percutanée). |
La thérapie génique désigne l'ensemble des procédés qui visent à introduire in vivo ou in vitro un gène normal dans des cellules où le même gène, anormal, provoque un déficit fonctionnel à l'origine d'une maladie, ou à introduire un gène codant une protéine ayant une action antitumorale dans les cellules cancéreuses ou antivirale dans les cellules infectées par un virus pathogène. |
Le génie génétique peut permettre la production de vaccins en utilisant les techniques de l'ADN recombinant (c'est-à-dire formé par recombinaison de fragments d'ADN d'origines différentes). Ces vaccins devraient être plus efficaces (parce que plus ciblés) et plus sûrs que les vaccins préparés par les techniques classiques. |
Les procédés de décontamination des sols peuvent être regroupés selon deux familles distinctes : d'une part, celles qui font intervenir un traitement "ex situ" pour certains polluants et, d'autre part, celles qui autorisent une décontamination "in situ" des sols pollués. Ces deux familles ne constituent pas des groupes de solutions alternatives: chacune correspond à des contraintes spécifiques résultant à la fois de la nature des polluants, des objectifs de dépollution et du contexte environnemental. Parmi les principaux traitements, on trouve l'excavation, l'extraction hydraulique, l'extraction assistée par des souches bactériennes, la vaporisation assistée. |
Les stations d'épuration des eaux usées utilisent généralement des techniques d'épuration biologique avec, en complément, des traitements d'élimination des matières azotées et phosphatées. Il faut également traiter les boues. |
Les déchets nucléaires ultimes sont conditionnés sous forme solide non dispersable. Cet "inertage" est réalisé par solidification dans des matrices minérales (ciments, béton) ou organiques (bitumes, résines), par compactage, par fusion (déchets métalliques) ou par vitrification pour les déchets à haute activité contenant des radionucléides à vie longue. Ces colis de déchets sont soit stockés dans un centre de stockage (déchets ne contenant pas de radionucléides à vie longue, soit en volume 90 % des déchets), soit entreposés en attente de l'ouverture d'un site de stockage profond définitif. L'optimisation de la gestion des déchets à vie longue, y compris les études relatives à une destruction partielle et à des réductions de volume avant conditionnement et stockage, constitue un facteur important d'acceptabilité de l'industrie électronucléaire. |
Les technologies d'inertage et de stockage des déchets ultimes s'appliquent aux résidus des filières de valorisation ou de destruction, à l'exclusion des déchets nucléaires. Ces déchets contiennent souvent des éléments toxiques ou dangereux dont l'élimination doit faire l'objet d'un contrôle spécifique. Lorsque l'incinération n'est pas possible, il faut recourir à des traitements physico-chimiques (neutralisation, décyanuration, déchromation, échange d'ions, déshydration et/ou solidification des boues, etc.) pour inerter les déchets avant leur stockage dans un centre d'enfouissement technique. |
L'instrumentation pour l'environnement s'intéresse à l'état des pollutions dans les différents milieux (eau, air, sols et déchets solides). Elle doit être capable d'effectuer la mesure sélective de polluants spécifiques, souvent à de très faibles concentrations. Le bruit nécessite également une métrologie adaptée. La demande porte particulièrement sur des capteurs et analyseurs plus adaptés au fonctionnement en milieu industriel et sur le terrain, c'est-à-dire plus automatisés, plus fiables en exploitation, nécessitant moins de maintenance, intégrables au sein de systèmes complets ou avec les automates existants en contrôle de procédés. |
Il existe un besoin très fort d'une part de caractériser les procédés et produits industriels du point de vue des émissions directes ou indirectes de polluants, d'autre part de prévoir et d'évaluer l'impact de ces émissions sur l'environnement tant au niveau local qu'à un niveau plus global. Parmi ces techniques, on trouve en particulier le bilan écologique. Un bilan écologique analyse l'impact d'un produit sur l'environnement sur l'ensemble de son cycle de vie, depuis les matières premières nécessaires à sa fabrication jusqu'à sa destrudion. Il dresse un inventaire quantitatif des flux de matières et d'énergie d'un système. |
Les techniques de nettoyage sans effluents sont d'autant plus importantes que des législations ou des accords internationaux prévoient le remplacement des solvants chlorés et des CFC. Il existe des techniques en phase aqueuse qui impliquent le traitement et le recyclage des eaux usées. D'autres voies sont le CO2 supercritique, les plasmas à haute pression, le nettoyage au laser, etc. |
Des qualités des polymères (et particulièrement des matières plastiques), qui sont appréciées lors de leur utilisation (imputrescibilité, résistance aux agents chimiques...), deviennent souvent des inconvénients lorsqu'il s'agit de gérer les déchets qu'ils constituent. Les caractéristiques de ces déchets sont très variables selon qu'ils proviennent de l'industrie de transformation ou qu'ils sont issus de la masse des déchets de toute nature collectés par différents systèmes. Dans le second cas, les problèmes posés sont particulièrement complexes (identification et tri, compatibilité, etc.). Le recyclage n'est souvent possible que pour des usages dégradés. Son intéret économique reste problématique. |
Pour éliminer certains déchets très toxiques (notamment du fait d'une forte solubilité), mais solides et stables, la seule solution acceptable est actuellement le stockage souterrain dans des sites géologiquement sûrs. Les déchets éliminables par cette filière sont essentiellement les produits toxiques de laboratoires, certains déchets organométalliques, les sels de trempe cyanurés, les déchets arséniés non recyclables. |
Le traitement concerne des quantités de déchets d'autant plus croissantes que les dispositions législatives et règlementaires prévoient l'arrêt de la mise en décharge. Les principales technologies concernées sont l'incinération avec ou sans récupération d'énergie, la pyrolyse, le compostage et le recyclage. Les exigences environnementales (par exemple traitement des fumées) se renforcent. La valorisation des déchets reste un problème difficile. |
L'eau distribuée doit satisfaire en permanence plusieurs types de conditions : ne contenir aucun organisme parasite ou pathogène pouvant provoquer des maladies, respecter de sévères limites de concentration en substances toxiques ou indésirables, satisfaire les exigences des utilisateurs (goût, absence d'odeur). Les efforts portent en particulier sur la détection de polluants à l'état de traces, l'élimination des nitrates et des pesticides et la diminution de sous produits de la chloration. Les procédés mis en oeuvre, souvent de manière combinée, sont notamment l'oxydation, l'adsorption et divers types de filtration membranaire. |
Préalablement à leur traitement, les déchets urbains doivent être triés, stockés et compactés. Les technologies mises en oeuvre ne sont pas nécessairement très élaborées. La mécanisation des opérations se heurte à des problèmes techniques, mais aussi à des problèmes de rentabilité économique. |
L'utilisation de filières transersales pour la destruction des déchets présente a priori un grand intérêt économique, à condition de ne pas perturber le bon fonctionnement des installations concernées (fours de cimenteries ou de sidérurgie, centrales thermiques, etc.). |
Le développement des services de télécommunications, tels que la visiophonie, mais aussi des services multimédias qui incorporent des images fixes ou animées, nécessite le développement d'algorithmes de compression et de décompression de l'image et du son afin d'utiliser au mieux la capacité des réseaux de transmission et des unités de stockage. Une seule image couleur peut couramment représenter1 mégaoctet de données. Une seconde de vidéo au standard européen (25 images par seconde) représente un volume de 25 Mo. Le débit et le volume mémoire nécessaires obligent à comprimer les signaux. Ces algorithmes élaborés doivent permettre de réduire sensiblement la taille d'un fichier (d'un facteur de 10 à 100, voire plus), tout en conservant une qualité visuelle acceptable. Ces algorithmes peuvent prendre la forme d'un circuit intégré ou d'une application logicielle. |
L'architecture client-serveur permet à une application de s'adresser à une autre application, physiquement distante, à travers un protocole d'échanges standardisés, pour lui demander de réaliser une tâche pour son propre compte. La première application de cette technologie se comporte en client de la seconde. La pénurie d'outils méthodologiques pour la conception d'applications client serveur est un obstacle au développement de cette technologie. |
Le recours à l'informatique pour traiter, notamment, des problèmes de plus en plus complexes, oblige à disposer d'ordinateurs offrant une puissance de calcul et de traitement importante. Les ordinateurs (massivement) parallèles permettent de disposer de telles puissances. Ils sont conçus pour exécuter simultanément un programme sur un ensemble de processeurs communiquant entre eux. Une grande variété d'architectures existe, en fonction de l'application envisagée. Dans le domaine de la gestion, on fait souvent appel à des machines faiblement parallèles, c'est-à-dire utilisant plusieurs dizaines de processeurs. L'élément clé dans ces systèmes concerne la programmation. Si de nombreux modèles et environnements de programmation ont été développés, aucun ne répond véritablement au problème de la recherche d'erreurs dans un programme parallèle. |
Le développement des applications mobiles (ordinateurs portables, radiotéléphone, etc.) est conditionné par l'utilisation d'une source d'énergie à la fois peu volumineuse, légère et de relativement forte capacité. Les batteries actuelles sont, surtout, au nickel-cadmium. D'autres couples sont à l'étude, notamment le couple nickel-hydrures métalliques et le couple lithium-carbone. |
Les câbles et fibres optiques sont utilisées pour la transmission de communications sous forme de signaux lumineux. Ils permettent des transmissions à haut débit. Avec les projets d' "autoroutes de l'information", le défi que devront relever les fabricants est d'ordre économique. Le câblage en fibre optique jusqu'à l'abonné ne sera économiquement viable que si les coûts de production et d'installation baissent de façon importante. |
La tendance générale à l'augmentation de la complexité des circuits et systèmes se retrouve au niveau des composants d'interconnexion et d'interface (connecteurs, circuits hybrides, circuits imprimés). Tout comme les semi-conducteurs, ces composants doivent tenir le moins de place possible. De plus, ils doivent être légers. L'évolution actuelle conduit notamment à une diminution de la largeur des pistes des circuits imprimés et des modules de circuits hybrides (qui atteindra 50 microns), à l'interconnexion en trois dimensions des composants électroniques, et à l'utilisation de connexion par microbilles (qui autorisera l'augmentation du nombre d'entrées/sorties d'un boitier). |
Les composants hyperfréquences s'imposent dans un nombre croissant d'applications. Le premier marché concerne la communication sans fil. Du téléphone cellulaire aux réseaux locaux sans fil, en passant par les micro ordinateurs portables qui dialoguent à distance avec l'ordinateur du bureau. Les appareils qui communiquent par radio sont de plus en plus nombreux à utiliser des circuits intégrés hyperfréquences. Ces circuits utiliseront l'arséniure de gallium (AsGa) qui, seul, permet à la fois une utilisation à haute fréquence (supérieure au gigahertz) et une consommation réduite d'énergie. L'arrivée de microprocesseurs ultra puissants, fonctionnant à des fréquences jusqu'à 300 MHz, impose des circuits périphériques rapides pour lesquels l'AsGa est tout indiqué. |
Les composants opto-électroniques se répartissent en quatre types de module : - module d'amplification optique (qui se compose principalement d'un laser de pompe et de l'électronique associée) ; - module optique pour la transmission (qui regroupe les fonctions de conversion opto-électronique); - module de raccordement pour abonné qui se compose d'un laser et d'un photodétecteur (qui permet la transmission bidirectionnelle sur une seule fibre monomode) ; - module d'interconnexion optique (qui assure les raccordements optiques entre fibres ou entre carte et fibre). Le déploiement de la fibre optique jusque chez l'abonné entraine des contraintes économiques considérables pour les composants opto-électroniques. La recherche d'un faible coût de production devient plus importante que celle des performances techniques. L'utilisation de la transmission optique s'est en effet généralisée à l'ensemble de la partie transport du réseau de télécommunications (tant terrestre que sous-marin). La prochaine étape devrait consister à utiliser les transmissions optiques pour le réseau de distribution, aussi bien pour les liaisons téléphoniques que les transmissions de données ou la diffusion de la télévision. |
La diminution de la consommation d'énergie des composants électroniques est liée aux développements rapides des applications portables (micro-ordinateurs, radiocommunication, produits audio, etc.). En effet, une faible consommation électrique des composants est facteur d'allongement de l'autonomie des piles et batteries et permet, indirectement, la réduction de leur poids. La réduction de la consommation d'énergie est poursuivie à travers deux grandes tendances : une plus grande intégration des composants, la réduction des tensions d'alimentation. Un aspect essentiel est la meilleure gestion de la consommation d'énergie, ce qui suppose le développement de circuits spécifiques. |
Le développement de l'informatique distribuée entraine la connexion sur les réseaux de machines, d'applications et de systèmes d'exploitation différents. Il faut pouvoir faire appel, à distance, aux fonctions et aux données de n'importe quelles applications, sur n'importe quelle machine: c'est l'objet du "middleware". Ces logiciels servent, à la fois, d'intermédiaires entre les applications logicielles différentes et de tampon entre le logiciel d'application et l'architecture du réseau qu'ils essaient de rendre transparente. |
L'échange de données informatisé (EDI) est un moyen de transmettre électroniquement des documents administratifs standardisés (commandes, factures, bordereaux de livraison...) à ses partenaires (clients, fournisseurs, banques, transporteurs, administrations). L'évolution de l'EDI doit aller dans le sens de la transmission, non plus seulement de documents administratifs, mais aussi de données techniques telles que les plans ou les données de CAO. |
Le marché des équipements portables a fait des écrans plats, une technologie essentielle. Mais l'utilisation des écrans plats ne se limite plus à ces seuls appareils : à terme, les applications à tubes cathodiques pourraient être concernées. Trois technologies au moins permettent d'obtenir des écrans plats : - les cristaux liquides, développés à l'origine pour l'affichage des calculettes dominent largement le marché des ordinateurs portables. L'écran se compose d'une multitude de points commandés par un transistor individuel. Le point est plus ou moins lumineux en fonction du signal qui arrive au transistor. - les écrans à plasma utilisent un gaz dont les molécules sont dissociés en ions et en électrons pour obtenir un point lumineux. La fabrication de ces écrans se rapproche plus des procédés d'imprimerie ou de sérigraphie, ce qui permet de traiter de grandes surfaces. - les écrans à "micropointes" utilisent un principe proche de celui des tubes cathodiques. La lumière de l'image est produite par un faisceau électronique qui excite des substances luminescentes mais, au lieu d'un seul canon à électrons, ce sont plusieurs milliers de "micro-pointes" qui excitent les récepteurs. |
De plus en plus d'équipements utilisent un écran et un clavier comme interface entre l'homme et la machine. Face à la complexité des applications et à la multiplicité des fonctionnalités offertes, il est essentiel de proposer des systèmes conviviaux et simple d'usage. L'ergonomie permet d'éclairer les choix à faire pour les dessins des postes, l'implantation et la forme des commandes, la conception des interfaces (graphiques notamment), les aides au travail, etc. |
Les réseaux "intelligents" sont à la base du développement des services de télécommunications (renvoi d'appel, numéro "vert", réseaux privés virtuels, etc.). Ce concept a pour objet de faciliter l'introduction de nouveaux services en apportant plus de flexibilité et des fondionnalités nouvelles. Les programmes et les bases de données sont centralisés; l'ensemble des commutateurs est "piloté" quasi simultanément. Les principaux objectifs sont la réduction du délai d'introduction et de modification de nouveaux services, une baisse des coûts de développement, des fonctionnalités plus élaborées (telles que permettre à l'usager de gérer et modifier ses propres données). |
La simulation, le design, mais aussi les jeux vidéo créent d'importants besoins d'images de synthèse (2D et 3D) qui trouvent déjà des applications trés diverses: simulation d'un crash automobile ou de la propagation d'une pollution, effets spéciaux pour le cinéma, décors des simulateurs d'apprentissage... L'élément essentiel est la conception d'outils logiciels pour la création d'images (artificielles). |
L'ingénierie linguistique participe à l'amélioration de l'interface homme-machine. L'utilisation de l'étude de la langue trouve son application dans de nombreux domaines : consultation de bases de données, traduction automatique, résumé de textes, fusion d'informations textuelles. L'interrogation en langage naturel revient à poser des questions à une machine en utilisant le vocabulaire courant. |
Les nouveaux produits logiciels doivent s'adapter aux utilisateurs non spécialistes de l'informatique. Les interfaces métaphoriques sont un mode de relations entre l'homme et la machine qui permet à l'utilisateur de "travailler" sans avoir recours à un apprentissage fastidieux de procédures et de commandes. Ils utilisent, le plus souvent, des représentations graphiques d'objets courants évoquant une action précise. |
Les appareils "nomades" (micro ordinateurs portables, radiotéléphones, etc.) imposent une gestion "économe" de l'énergie si l'on souhaite une autonomie conséquente entre deux recharges des batteries. L'avantage majeur des mémoires flash est, contrairement aux mémoires vives de conserver l'information stockée même lorsque l'alimentation électrique est coupée. En fonctionnement, leur consommation énergétique est très faible. Avec les progrés de la technologie (la capacité de stockage, les temps d'accès et la durée de vie s'améliorent), les mémoires flash vont concurrencer les disques magnétiques et les mémoires Dram (Dynamic random access memory). |
Avec le développement du multimédia et l'évolution des applications informatiques, le stockage des données devient un problème crucial. Outre la capacité de stockage, les mémoires devront avoir des caractéristiques de plus en plus "pointues", que ce soit au niveau des taux de transfert ou de la fiabilité. Deux technologies sont en concurrence : les technologiques magnétiques et les technologies optiques. |
Les outils de programmation ont pour but d'améliorer la productivité et la qualité de développement d'applications informatiques, mais aussi de maîtriser les coûts et les délais de développement des programmes. Ils mettent en oeuvre les principes de génie logiciel : structuration, modularité, prototypage des applications. Ils utilisent de nouvelles techniques : approche objet, intelligence artificielle, traitement coopératif. |
Alors que la programmation classique sépare données et traitements, un logiciel "objet" est constitué d'un assemblage d' "objets" contenant à la fois des données et des procédures de traitement. Ces objets communiquent entre eux par des messages. Grâce à la standardisation des objets, on peut "bâtir" des programmes en intégrant simplement des "composants logiciels". La programmation orientée objet est une évolution radicale de l'écriture des logiciels. Elle améliore la productivité des équipes de développement et facilite la maintenance et l'évolution des applications. La généralisation de ces méthodes et des langages objets devrait permettre une réutilisation plus systématique d'une partie des programmes. |
La commande vocale est un des divers modes d'interaction avec la machine. Il existe déjà des systèmes permettant la reconnaissance de vocabulaires de 100 000 mots, mais en "monolocuteur" et "mots isolés". Les développements en cours vont vers la reconnaissance de courtes séquences de mots "enchain"s" avec la possibilité de reconnaitre plusieurs locuteurs. |
reconnaissance des formes concerne aussi bien la reconnaissance des caractères que celle d'objets. Si la reconnaissance des caractères dactylographiés est bien au point, la reconnaissance des caractères manuscrits doit encore être améliorée. La reconnaissance d'objets doit également progresser, notamment pour toutes les applications touchant au domaine du contrôle: contrôle de pièces ou contrôle d'accès (par reconnaissance du visage, par exemple). |
Les systèmes à base de réseaux de neurones permettent de répondre à des problèmes de reconnaissance de données à partir d'une base de connaissances modifiable par apprentissage. La mise en oeuvre de ces systèmes suppose des bases de données complètes et variées pour créer l'apprentissage du système, mais surtout des outils de simulation. |
Avec le développement des systèmes informatiques et leur interconnexion à travers les réseaux de communication, les risques relatifs à la sécurité des informations échangées vont croissant. Qu'il s'agisse de malveillance, de sabotage (virus), de piratage ou de fraude, la vulnérabilité des systèmes transactionnels devient un sujet d'inquiétude. Il est vital de développer des outils permettant de sécuriser les échanges d'informations. Les principales fonctions à traiter sont l'identification et l'authentification des participants, la garantie de la confidentialité et l'intégrité des données, la gestion de la communauté des utilisateurs (autorisation d'accès général ou restreint, etc.). |
Dans tous les projets de "télévision interactive" ou de vidéo à la demande, le serveur d'images joue un rôle clé. La solution technologique pour distribuer l'information à un grand nombre d'abonnés repose sur des architectures massivement parallèles, offrant la tolérance aux pannes et utilisant des capacités de stockage très importantes. La maîtrise des logiciels de gestion, de stockage, d'adressage et de diffusion de l'information est un élément essentiel. |
Le développement des services en réseau suppose la mise en place d'outils pour accéder à des données complexes, ainsi qu'une utilisation facile pour l'usager Les agents intelligents sont des programmes prévus pour accomplir des tâches sur un réseau de communication pour le compte d'un utilisateur, sans que celui-ci ait besoin de le surveiller. Par exemple, l'utilisateur confiera à un agent la mission d'effectuer une recherche documentaire dans des bases de données différentes. Cette technologie exige une intégration fine avec le réseau, ainsi que des services capables de les utiliser. Les agents seront des auxiliaires intéressants pour les équipements tels que les PDA (Personal Digital Assistant) car ils seront à la base de leur fonction d'assistant intelligent et communicant. |
Avec l'arrivée du multimédia, l'utilisateur de services d'information ou de divertissement va se trouver face une multitude de possibilités de choix. Les systèmes de navigation pour services multimédias s'adresseront le plus souvent à des utilisateurs non spécialistes et devront donc être simples d'emploi. Ils permettront de choisir l'information ou le programme que l'on souhaite. Dans le cas des applications de loisirs, ils proposeront des sélections croisées par listes, thèmes, plages horaires mais aussi en fonction des habitudes et des goûts des utilisateurs. |
Les systèmes temps réel se distinguent des autres par un couplage très étroit avec leur environnement. Ils pilotent de très nombreuses tâches complexes : réservation de billet d'avion, vidéo à la demande, contrôle d'une chaine de fabrication, etc. A la différence d'un programme classique, un système temps réel est toujours à l'écoute de l'environnement avec lequel il doit être en totale interaction pour répondre, de façon quasi simultanée, à toute sollicitation. La qualité essentielle de ces systèmes doit être la fiabilité. Mais ils doivent aussi faire face à des contraintes de délais d'exécution et de simultanéité de tâches qui en rendent la conception fort délicate. |
L'intégration de plus en plus poussée des composants électroniques à semi conducteurs (mémoires d'un gigabit microprocesseurs 64 bits, etc.) oblige à réduire la taille des motifs et à augmenter la taille des puces. Cette évolution induit des contraintes technologiques importantes que l'on peut traduire par les questions suivantes : - quelle lithographie pour atteindre 0,1 micron ? - quelle technique de dépôt utiliser pour obtenir des oxydes minces d'une dizaine de nanomètres ? - pourra-t-on atteindre les degrés de pureté des matériaux pour obtenir des rendements acceptables ? - saura-t-on réaliser 6 à 7 niveaux d'interconnexion sur une puce ? - saura-t-on dissiper la chaleur produite par ces circuits rapides et denses ? C'est à ces questions (parmi d'autres) que doivent répondre les technologies submicroniques "profondes". |
Les programmes informatiques sont de plus en plus complexes. Ils sont utilisés dans tous les
domaines, notamment dans ceux qui touchent à la sécurité des personnes. L'erreur de
programmation peut donc être lourde de conséquences. Les tests de contrôle sont de trois ordres :
|
Les autoroutes de l'information, qui véhiculeront les services multimédias associant les données informatiques, la voix et l'image animée au sein d'une même application, exigeront des réseaux à très grand débit (plusieurs gigabits/s). Ces réseaux utiliseront en transmission la technologie SDH (Synchronous Digital Hierarchy) et, en commutation, la technologie ATM (Asynchronous Transfert Mode). Pour faire face au problème de saturation des réseaux locaux d'entreprises (interconnexion de réseaux, architecture client-serveur, transfert de fichiers électroniques), l'ATM semble être la solution actuellement retenue par les constructeurs de matériel. |
Le problème majeur de la recyclabilité des véhicules automobiles est celui du traitement des matières plastiques. On trouve dans un véhicule automobile une dizaine de matériaux plastiques différents et certaines pièces de carrosserie sont en matériaux composites. Les difficultés à résoudre sont le tri et le recyclage des matériaux obtenus après démontage. Les solutions passent par une meilleure conception des véhicules afin de réduire le nombre de matériaux plastiques et d'améliorer l'accessibilité des pièces pour faciliter le démontage. |
Le marché de la voiture électrique est fortement dépendant des améliorations de la source d'énergie. En effet, dans un véhicule électrique, la puissance et l'autonomie sont essentiellement liées aux caractèristiques de la batterie. Seule la batterie au plomb est industrialisée à grande échelle. Equipé d'une telle batterie, le véhicule électrique a une autonomie d'environ 60 km (pour une masse de batterie d'environ 240 kg). Le développement de ce marché passe par la mise au point de batteries de plus grande énergie massique. De nouveaux couples électrochimiques sont à l'étude: cadmium-nickel, sodium-soufre, lithium-carbone. Les progrés attendus concernent à la fois la densité d'énergie, la densité de puissance et la durée de vie (nombre de cycles possibles). |
La climatisation des véhicules est une des réponses à l'attente de confort des utilisateurs. C'est un système qui permet de maintenir automatiquement une température et un degré d'humidité constants à l'intérieur du véhicule, quelle que soit la température extérieure. Les efforts de développement portent surtout sur une réduction de la consommation énergétique de ces systèmes. |
Les composants électroniques de très forte puissance (de 100 kW à plus de 1000 kW) sont utilisés pour le contrôle de l'énergie. Les principaux domaines d'application sont le matériel ferroviaire et le contrôle industriel pour la commande de gros moteurs. |
La conception de poste de contrôle et de pilotage de véhicules (que ce soit avion, train à grande vitesse, voiture ou camion) doit en faciliter l'utilisation, l'objectif majeur étant la sécurité. Seront utilisés divers savoir-faire ou technologies. L'ergonomie agit sur la définition des différents modes d'interface homme-machine, comme la présentation des informations et leur visualisation ou la forme et la place des différents organes de commande. Un système d'aide à la décision, très utile face à la multiplication des informations disponibles, aura recours à l'intelligence artificielle. Il faut également prendre en compte les conséquences d'éventuelles défaillances humaines, d'oú la nécessité, par exemple, de prévoir de nouveaux dispositifs analysant l'état de veille du conducteur. |
Les problèmes de congestion urbaine, notamment, imposent le développement du contrôle et de la gestion dynamique des flux routiers. Il s'agit de concevoir des dispositifs électroniques informant l'automobiliste en temps réel de l'état des routes. Le système RDS (Radio Data System) est le précurseur de ces futurs systèmes. Des capteurs, des caméras, des radars et d'autres appareils enregistreront les mouvements du trafic routier et transmettront ces informations à des ordinateurs centraux. Les centres de contrôles adapteront la signalisation et les feux de circulation, mais aussi informeront les automobilistes afin d'optimiser les flux de circulation. |
La diminution de la consommation de carburant des moteurs, outre qu'elle permet une économie du coût d'exploitation du véhicule, s'inscrit dans le cadre de la lutte contre la pollution. L'utilisation de l'injection directe et le contrôle électronique du moteur sont les points essentiels. |
En matière de transport, la sécurité est une exigence de plus en plus forte. Aussi, les technologies permettant une meilleure tenue aux chocs deviennent importantes. Il s'agit de développer des matériaux à haute résistance, mais surtout de concevoir des structures qui permettent d'absorber l'énergie due au choc. |
Les limites d'émission des voitures neuves ont, entre 1970 et 1994, été divisées par 10 ou 20 selon les polluants. Cette évolution va se poursuivre : les développements autour du thème du moteur propre (à essence ou diesel) devront donc continuer. A moyen terme, ces travaux consisteront surtout à optimiser les solutions existantes de dépollution. Les actions devraient principalement porter sur l'amélioration des chambres de combustion, du système de distribution, du système d'allumage et du traitement des gaz d'échappement. Les recherches reposent, en partie, sur une modélisation plus performante (donc une meilleure connaissance des phénomènes à traiter). |
Le positionnement des véhicules est l'élément essentiel de l'aide à la navigation. Grâce à des capteurs de localisation du véhicule, une carte numérisée embarquée et un calculateur d'itinéraire, les systèmes d'aides à la navigation doivent permettre aux conducteurs de véhicules de repérer leur position sur un écran et leur indiquer le meilleur chemin à suivre pour atteindre leur destination. |
Une diminution de 10 % du poids d'un véhicule automobile se traduit par une réduction de la consommation de carburant d'environ 5 % en moyenne et de 10 % en ville. Toute la difficulté pour les constructeurs est d'alléger la voiture sans toucher à l'espace, au confort et à la sécurité. L'utilisation de nouveaux matériaux, tels que les tôles "sandwiches" ou les matériaux composites, de l'aluminium, du magnésium, des aciers de haute résistance devrait permettre des gains de poids significatifs. Il sera également nécessaire d'optimiser le dessin des caisses et des pièces mécaniques pour tirer le meilleur parti de ces avancées techniques. |
Le problème du bruit aérodynamique est un problème majeur des systèmes de transport à grande
vitesse (TGV, avions). A partir d'une certaine vitesse, le bruit aérodynamique augmente beaucoup
plus vite que toutes les autres sources de bruit. En matière ferroviaire, le bruit tient à la coexistence
de deux composantes :
|
La réduction du bruit des véhicules automobiles vise à la fois à améliorer le confort de l'utilisateur et à lutter contre une nuisance de plus en plus mal acceptée par les riverains. La réduction passive du bruit est prise en compte lors de la conception du véhicule. Elle se traduit par l'emploi de matériaux absorbants, mais aussi par un dessin approprié de certaines pièces ou sous-ensembles (les pneumatiques, par exemple). La réduction active du bruit est au stade pré-industriel et concerne essentiellement les bruits internes. Il s'agit d'introduire un bruit en opposition de phase qui annule le bruit produit par le véhicule. |
La banalisation des matériels électroniques et informatiques conduit, aujourd'hui, à une telle densité d'installation dans les véhicules que les phénomènes de parasitage risquent d'être de plus en plus nombreux, mais surtout dangereux. Le vocable de compatibilité électromagnétique (CEM) regroupe ces manifestations parasites. Il est essentiel de pouvoir simuler les conséquences électromagnétiques de l'intégration d'un matériel susceptible d'être à l'origine de perturbations. Ces matériels peuvent être de natures très diverses : émetteurs hertziens oscillateurs locaux, ordinateurs numériques, systèmes d'allumage des véhicules, composants électro mécaniques (relais, moteurs, etc.). |
Pour le ferroviaire, la réduction des temps de parcours est un objectif majeur, en particulier vis-à-vis des modes de transports concurrents (automobile, mais surtout avion). Le TGV de nouvelle génération doit être capable d'une vitesse supérieure ou égale à 350 km/h. Cet impératif pose un certain nombre de problèmes techniques, dont les solutions sont rassemblées sous le vocable de technologies roue-rail. Il s'agit en fait des études relatives à la chaine de traction, au système de freinage, à la réduction du bruit de roulement, à la stabilité des boggies, à la suspension active. |
Les alliages de polymères sont des mélanges physiques ou des associations chimiques d'au moins deux polymères différents et de compatibilisants. On cherche à obtenir des propriétés plus élevées que celles des constituants (par exemple résistance mécanique, tenue en température) et/ou une mise en forme plus facile. |
Le suivi permanent de l'état des pièces pendant leur durée de vie améliore la disponibilité et la fiabilité des systèmes qui les incorporent (réacteurs, ailes d'avion, ouvrages d'art...) et réduit leur coût d'exploitation. La caractérisation et la surveillance de l'endommagement nécessitent la mise en place de méthodes et de moyens de contrôle (capteurs, notamment). |
Le collage structural est l'assemblage par adhésif de pièces soumises à des contraintes sévères de nature mécanique ou liées à leur environnement de travail. Le choix de l'adhésif, la préparation des surfaces et le contrôle sont des points essentiels pour la maitrise du collage. Celui-ci permet souvent de simplifier les process industriels. Il trouve des applications dans tous les secteurs. |
Les matériaux composites à matrice organique sont constitués d'une matrice polymèrique (thermodurcissable ou thermoplastique) et d'un renfort fibreux (le plus souvent en fibre de verre, éventuellement en fibre de carbone ou en fibre aramide) qui améliore leurs propriétés mécaniques. Les travaux sur les divers procédés de mise en oeuvre ont principalement pour objectif la diminution des coûts (automatisation, réduction du temps de cycle) et l'amélioration des performances (on cherche notamment à réduire la dispersion des caractéristiques). |
Pour concevoir des pièces, définir les appareillages nécessaires à leur mise en oeuvre et déterminer les paramètres du procédé, on recourt à des logiciels de modélisation qui permettent de vérifier l'adéquation des moyens (matériau, procédé, machines de transformation, moules, etc.) au but poursuivi et d'évaluer les caractéristiques des pièces en fonctionnement. On peut ainsi éviter des essais dont la réalisation serait trop longue ou trop coûteuse). |
Les matériaux adaptatifs, parfois aussi appelés intelligents, offrent à terme de considérables perspectives de développement en raison de leur réactivité et de la possibilité d'être commandés de l'extérieur. Ils sont capables de détecter les variations de leur environnement et de s'y adapter. Il peut s'agir, suivant les cas, de modifier les caractéristiques en fonction des sollicitations, de s'autoréparer ou encore de transmettre la charge de la fonction à un autre matériau plus apte à y répondre. |
Certains procédés industriels, en particulier pour la production de métaux et superalliages, requièrent des températures de plus en plus élevées. Les matériaux utilisés sont généralement des céramiques, massives ou en revêtement. |
On cherche des fibres textiles susceptibles de conférer aux tissus des fonctionnalités et des caractéristiques nouvelles (par exemple pouvoir couvrant, anti transpiration, toucher agréable, entretien facile, résistance à la lacération, résistance au feu, résistance à la température pendant la mise en oeuvre, etc.) Il peut s'agir d'optimisation de fibres classiques mais aussi d'utilisations nouvelles, sous formes de fibres, de matériaux récemment développés ou encore de procédés nouveaux. Les débouchés se trouvent dans la mode, les vêtements de loisirs et de sports. Les nouvelles fibres peuvent cependant aussi être employées dans le secteur des transports (sièges automobiles ou ferroviaires) et trouver d'autres applications techniques. |
Les polymères piézo-électriques permettent de transformer une énergie mécanique en énergie électrique. L'état actuel de la technologie limite les applications à la faible puissance. Le coût de production est encore élevé. A plus long terme, on peut envisager que d'autres polymères (ferroélectriques, magnétiques) puissent également commander des actions. |
Les revêtements de surface correspondant à un ensemble de technologies diverses qui ont pour objectif de conférer aux pièces des fonctions multiples : résistance à l'abrasion, à la corrosion, protection thermique, propriétés tribologiques, propriétés tactiles, etc.). Les principaux procédés de revêtement sont: - par voie humide: l'électrolyse, l'électrophorèse, le dépôt chimique; - par voie sèche: le placage, le dépôt par projection, le rechargement, le dépôt chimique en phase vapeur, le dépôt physique en phase vapeur (évaporation, dépôt ionique, pulvérisation cathodique). |
Pour les besoins de l'industrie chimique (notamment agro-chimie et colorants) et, plus encore, de l'industrie pharmaceutique, on cherche à synthétiser par voie chimique des molécules organiques de plus en plus complexes. Il faut donc, dans les meilleurs délais, concevoir un schéma de production comportant plusieurs étapes qui aboutisse à une molécule donnée et puisse être industrialisé dans les meilleures conditions de fiabilité, de sécurité et de rentabilité. |
Les composants électroniques de moyenne puissance (entre 100 W et 100 kW) sont utilisés pour le contrôle de l'énergie à moyenne puissance. Ils trouvent des applications dans la commande de moteurs et dans les alimentations en énergie, principalement pour l'automobile et l'électroménager. |
La gestion des grands systèmes, comme les réseaux de communication, de transport et de distribution de l'énergie, ou encore les raffineries et les centrales nucléaires, fait appel à des technologies de contrôle commande extrêmement complexes. Par exemple, dans les cas de l'exploitation d'un réseau électrique, le système de contrôle commande doit fournir une certaine marge de sécurité en cas d'incident tout en conduisant le réseau de façon optimale du point de vue économique. L'utilisation de l'intelligence artificielle tend à se généraliser dans la conduite de ces grands systèmes: par exemple pour l'analyse des alarmes, la remise en service, l'évaluation des risques, le diagnostic de fonctionnement... |
La biomasse, constituée de l'ensemble de la matière végétale, est une véritable réserve d'énergie. Les ressources en biomasse sont de trois types : la biomasse forestière, la biomasse agricole et la biomasse aquatique. Il existe deux technologies pour récupérer l'énergie contenue dans la biomasse, selon la nature de la matière végétale. La première, thermochimique, est adaptée aux matériaux secs comme le bois et la paille. La seconde, biologique, convient mieux aux produits humides. La filière thermochimique recouvre trois types de techniques de conversion: la combustion, la carbonisation et la gazéification. La filière biologique met en jeu des processus microbiologiques qui ont pour effet de dégrader la matière végétale. On distingue la fermentation méthanique, la fermentation alcoolique et la fermentation acétonobutylique. |
L'éclairage représente une consommation énergètique importante. le marché grand public est le plus important et il représente le principal "gisement" d'économies d'énergie. Des technologies reposant sur la fluorescence permettent, par rapport aux ampoules à incandescence traditionnelles, de réduire significativement la consommation et d'allonger la durée de vie. |
La maintenance des grands systèmes doit être pensée en fonction d'au moins deux de leurs caractéristiques : leur complexité et les conséquences économiques de leur arrêt pour cause d'incident ou de panne. La maintenance de ces grands systèmes s'appuie sur des outils d'aide au diagnostic, mais aussi d'assistance aux opérations de maintenance. Mais au-delà de cette maintenance corrective, il y a l'aspect plus important de la maintenance préventive qui vise à diminuer les risques de panne. L'utilisation de systèmes experts est une solution qui semble se développer de plus en plus. |
Les technologies nucléaires visent deux objectifs complémentaires: la réduction des déchets et l'accroissement de la sécurité. Si le nucléaire n'émet ni gaz à effet de serre tel que le dioxyde de carbone (CO2), ni polluant acide du type dioxyde de soufre (SO2) OU oxyde d'azote (NO2), les centrales nucléaires rejettent dans l'environnement de trés faibles quantités de produits radioactifs qui se diluent dans l'air ou dans l'eau. Ces rejets doivent être contrôlés et réduits au maximum. La fin du cycle nucléaire appelle des solutions spécifiques pour préserver l'environnement à long terme. La gestion des combustibles usés impose une destination finale satisfaisante. La sûreté est, à l'évidence, l'un des points majeurs soulevés par l'exploitation de l'énergie nucléaire à des fins civiles. Si le principe d'une centrale nucléaire peut paraître simple, en revanche les technologies mises en oeuvre sont complexes. Les phénomènes en présence (la maîtrise de la réaction en chaîne, notamment), les puissances en jeu font que la sûreté nucléaire est une exigence qui doit s'exprimer à tous les stades : de la conception à la construction et à l'exploitation. |
La conversion photovoltaïque permet d'obtenir de l'énergie électrique à partir de l'énergie solaire. La cellule photovoltaïque la plus courante utilise le silicium. Le développement de ce type de convertisseur énergétique repose essentiellement sur le choix des matériaux semi-conducteurs qui le composent, car de ce choix découle le coût de la cellule. Le silicium nanocristallin, très pur, est d'un rendement satisfaisant (environ 20 %) mais d'un coût prohibitif. Le silicium multicristallin, moins pur, est d'un coût moins élevé et d'un rendement plus faible. Le silicum amorphe permet d'obtenir des cellules d'un prix de revient intéressant, mais son faible rendement en limite l'application à des appareils de petite puissance. Sont à l'étude le tellure de cadmium (CdTe) et le cuivre-indium sélénium (CIS), ainsi que des procédés qui permettront d'obtenir un meilleur rendement. |
La recherche de nouveaux gisements pétroliers ou gaziers se déplace vers des zones maritimes de plus en plus profondes. On considère qu'un tiers des réserves mondiales sont à grande profondeur d'eau (supérieure à 200 m). L'exploitation de ces gisements devrait doubler, pour représenter à la fin de cette décennie environ 50 % de la production off-shore. La majeure partie de la production off-shore provient, actuellement, de puits situés sur le plateau continental. Il existe deux types de technologies : - avec plate-forme ancrée (c'est la technologie utilisée aujourd'hui) ; - sans plate-forme (les installations sont posées sur le fond de la mer et les têtes de puits sont télécommandées depuis la surface. Des canalisations amènent le produit extrait vers une plate-forme classique située en eau moins profonde). |
Afin d'améliorer le rendement des champs pétrolifères, il est indispensable de développer des techniques de récupération optimisée du pétrole. En effet, ce n'est qu'environ 20 % du volume de brut (selon la qualité de l'huile et du gisement) qui est récupéré par pompage (récupération primaire). La récupération assistée ou secondaire consiste à injecter de l'eau ou du gaz dans le gisement qui " pousse " le pétrole restant vers les systèmes d'extraction. Ces techniques permettent de récupérer, en moyenne, un tiers des réserves disponibles. La récupération tertiaire met en oeuvre es techniques dont certaines sont encore au stade expérimentale: injection de vapeur, d'hydrocarbures miscibles ou d'eau additionnée de divers produits chimiques. Ce type de récupération porte le taux d'extraction à 40, voire 50 %. D'importants progrès peuvent encore être accomplis. |
Une fois extrait du sous-sol et épuré, le gaz naturel doit parvenir aux lieux de consommation: on utilise des gazoducs ou des navires méthaniers. Dans les gazoducs, le gaz circule sous pression et est recomprimé à des intervalles de 80 km environ. Le problème essentiel est celui de la détection des fuites éventuelles. Le transport du m_ éthane par voie maritime exige la liquéfaction du gaz à la pression atmosphérique et à une température de -160 C. Cette opération réduit de 600 fois le volume du méthane par rapport à son état gazeux. Ces navires utilisent des aciers et des alliages spéciaux. La consommation de gaz subissant des variations saisonnières importantes, le stockage doit amortir les à-coups de la demande. En France, deux techniques sont utilisées: le stockage en nappe aquifère profonde, entre 200 et 400 m, est la technique la plus répandue; le stockage en cavité saline, entre 900 et 1400 m, est un procédé plus récent. |
En France, la part du charbon dans le marché énergétique résidentiel est très modeste: environ 2 %. Dans l'industrie, L'intérêt économique du charbon est remis en cause par l'évolution générale des prix de l'énergie. Le débouché essentiel actuel est celui des centrales électriques. Le charbon contribue pour 7,4 % à la production totale brute d'électricité, et il joue un rôle essentiel dans le " bouclage " du système énergétique lors des aléas climatiques et de la demande. La combustion (mais aussi la pyrolyse et la méthanisation) des différents types de déchets, urbains et industriels, permet de récupérer une partie de l'énergie qu'ils contiennent. Cette combustion se traduit par des émissions de composants plus ou moins polluants. Les techniques de traitement des fumées doivent limiter au maximum ces effets. |
L'optimisation des performances du béton concerne aussi bien ses qualités de mise en oeuvre (fluidité, vitesse de prise, durabilité, aspect, réduction du prix) que ses performances proprement dites. Elle est fonction des contraintes spécifiques relatives à chaque partie de l'ouvrage (résistance aux sollicitations mécaniques, thermiques, chimiques). Cette optimisation est obtenue notamment par l'utilisation d'adjuvants, de poudres réactives, de granulats. |
L'entretien et la réhabilitation des réseaux d'eau et d'assainissement font appel à un ensemble de techniques de diagnostic de l'état des ouvrages, de mesures et d'intervention. Les mesures portent notamment sur la dégradation des performances (étanchéité, débit), la conformité des branchements, le repérage rapide des sections défectueuses. Les techniques d'intervention visent plusieurs objenifs: rapidité, économie, impact réduit pour les usagers des voies publiques. |
La gestion de l'air (ou génie climatique) dans les bâtiments d'habitation et professionnels (usines, bureaux, hôpitaux) vise trois domaines principaux: le confort (thermique, hygrométrique), la salubrité (poussières, germes pathogènes) et la consommation d'énergie. Son champ d'application concerne non seulement les bâtiments nouveaux mais également l'aménagement des bâtiments anciens. Sa maîtrise relève tout autant d'une approche scientifique, qui en est encore au stade de la recherche (modèles de diffusion), que de l'utilisation de systèmes de mesure et de régulation. |
La gestion des ressources en eau permet de disposer de ressources suffisantes, en termes de qualité et de quantité, face à l'augmentation continue des consommations et à la dégradation du milieu naturel, indépendamment des risques consécutifs aux périodes de sécheresse. Elle concerne principalement la prospection (localisation, mesure), le stockage et l'interconnexion des bassins. |
La connaissance des ouvrages de BTP a deux objets principaux : leur vieillissement et leurs pathologies. Les outils qui permettent cette connaissance relèvent tant de disciplines théoriques (modèlisations mathématiques, physiques, chimiques) que de l'utilisation de procédures continues ou discontinues de contrôle faisant appel à des capteurs capables (ou non) de traiter l'information (mesures des sollicitations, des déformations, de l'étanchéité, etc.). |
Les travaux souterrains ont trois domaines majeurs d'applications: l'aménagement de l'espace urbain (transports, parkings, développement des réseaux), les infrastructures de transports (tunnels) et les stockages (énergie, déchets). Ils s'appuient sur des disciplines théoriques (théorie des ouvrages, maîtrise des problématiques liées aux grandes distances, à la profondeur et à la variété des terrains) et des études scientifiques (géologie), ainsi que sur la mise en oeuvre de techniques et d'équipements utilisés dans la construction (bétons optimisés, tunneliers, micro-tunneliers, suivi du vieillissement des ouvrages, équipements de forage, havage...). |
Plusieurs méthodes d'analyse permettent, sous la contrainte d'impératifs prédéterminés, de définir les différentes fonctions d'un produit et de les hiérarchiser selon l'importance objective et subjective accordée à chacune d'elles par l'utilisateur ou le consommateur. L'analyse fonctionnelle est une démarche à caractère général qui consiste à rechercher, ordonner, caractériser, hiérarchiser et/ou valoriser les fonctions d'un produit. Appliquée à la création ou à l'amélioration d'un produit, elle est un élément fondamental de l'analyse de la valeur, principalement pendant les phases d'expression des besoins et de spécifications fonctionnelles. L'analyse de la valeur est une méthode opérationnelle et créative visant la satisfaction du besoin de l'utilisateur par une démarche prenant simultanément en compte les fonctions et les coûts. La conception pour un coût objectif (CCO) est une méthode de gestion de projet sous la contrainte d'un objectif de coût prédéterminé et fixé indépendamment de toute référence à des coûts de solution. |
Plusieurs méthodes d'analyse permettent, sous la contrainte d'impératifs prédéterminés, de définir les différentes fonctions d'un produit et de les hiérarchiser selon l'importance objective et subjective accordée à chacune d'elles par l'utilisateur ou le consommateur. L'analyse fonctionnelle est une démarche à caractère général qui consiste à rechercher, ordonner, caractériser, hiérarchiser et/ou valoriser les fonctions d'un produit. Appliquée à la création ou à l'amélioration d'un produit, elle est un élément fondamental de l'analyse de la valeur, principalement pendant les phases d'expression des besoins et de spécifications fonctionnelles. L'analyse de la valeur est une méthode opérationnelle et créative visant la satisfaction du besoin de l'utilisateur par une démarche prenant simultanément en compte les fonctions et les coûts. La conception pour un coût objectif (CCO) est une méthode de gestion de projet sous la contrainte d'un objectif de coût prédéterminé et fixé indépendamment de toute référence à des coûts de solution. |
L'ergonomie des postes de travail a pour finalité la transformation des situations de travail, non pas seulement dans leurs aspects techniques mais aussi dans leurs aspects socio-organisationnels, de façon à ce que le travail puisse être réalisé dans le respect de la santé et de la sécurité des hommes et avec le maximum d'efficacité économique. |
L'ergonomie est une démarche qui repose sur l'observation et l'analyse de l'utilisation du produit par un panel correspondant à sa cible, dans une situation aussi proche que possible du réel, afin de repérer les difficultés rencontrées par les utilisateurs et d'y remédier. L'ergonomie ne prend pas seulement en compte les caractéristiques objectives du produit mais également la perception subjective qu'en a le consommateur du fait de sa culture et de ses habitudes. |
Les étiquettes électroniques sont des cartes ou des badges dotés d'une mémoire assortie (ou non) d'une capacité de traitement de l'information. Attachées à un porteur quelconque (par exemple un produit en cours de fabrication) elles permettent, sans contact physique avec un système de lecture, d'identifier automatiquement ce porteur et d'opérer le traitement attendu (usinage, comptage, ouverture de portes, etc.). Les étiquettes électroniques sont en fait une petite partie d'un système complexe de production, de gestion et de contrôle facilitant non seulement les opérations industrielles mais également celles qui sont liées à la logistique et à la grande distribution. |
La gestion logistique en temps réel permet de gérer au plus juste les stocks en liaison continue avec la vente et la production: elle rend possibles des délais de livraison plus courts et la reconstitution rapide des stocks. Son enjeu est donc principalement économique et concerne toutes les activités avec un large éventail de produits et de variantes. Un système logistique intégré permet de centraliser en temps réel les informations sur les articles vendus dans le monde entier et de les transmettre à la production. Sont principalement concernées les industries manufacturières et les grandes sociétés de distribution. |
L'ingénierie simultanée fait travailler en parallèle les différentes équipes qui, auparavant, intervenaient de façon successive, depuis la phase de recherche jusqu'au lancement en fabrication. C'est un mode d'organisation particulièrement approprié à la gestion de projet dans les industries manufacturières car elle permet de mobiliser l'ensemble des connaissances et des savoir-faire d'une entreprise selon une vision intégrée du produit. L'ingénierie simultanée utilise les technologies de la communication (téléréunion, réseaux locaux, logiciels de travail coopératif, mais il lui faudra intégrer également des méthodes de créativité, de résolution de conflits, ou encore l'intégration multi-point de vue. |
La qualité est une notion complexe intégrant non seulement les caractéristiques physiques objectives du produit, mais également l'appréciation subjective que le client en a (la qualité perçue): elle moilise donc des contrôles techniques et le suvi d'indicateurs de satisfaction (réponses des clients à des questionnaires, taux de retours...), ainsi que des techniques de métrologie sensorielle;Mais au-delà de ces procédures, la qualité résulte d'une organisation conçue dans ce but et d'une volonté affirmée à tous les échelons de la hiérarchie de l'entreprise. |
La métrologie sensorielle vise à mieux cerner les perceptions et les évaluations subjectives du consommateur, et à les objectiver en les corrélant avec des propriétés physiques mesurables sur le produit ou en cours de fabrication. Elle tend à élaborer de nouveaux instruments de mesure susceptibles de qualifier le goût, l'odorat, le toucher, la vue et l'ouïe. |
Les modèles d'amélioration de fiabilité et de simulation des risques concernent non seulement des produits complexes, mais aussi des équipements travaillant au sein de systèmes. Ils font appel à des plans d'expérience (c'est-à-dire à la codification des connaissances accumulées dans la conduite d'une opération), au contrôle statistique des procédés (c'est -à-dire l'intégration de l'historique de fonctionnement d'un procédé pour en prévoir les performances et les défaillances sur une base statistique), ainsi qu'à des simulations intégrant des hypothèses d'évènements divers pouvant provenir de tous les niveaux de la chaîne logistique. |
La modélisation de la sociologie des organisations permet d'exploiter certains acquis des sciences sociales et humaines afin de simuler, et donc d'anticiper, les comportements sociaux. Le but de cette modélisation est de concevoir et de mettre en place des organisations hautement opérationnelles, tant dans une perspective d'organisation efficace du travail que dans celle de la prévention de dysfonctionnements éventuels. |
La gestion des projets complexes a pour objet la maîtrise des grands chantiers liés, par exemple, à la réalisation d'ouvrages de BTP, d'unités de production (usines, centrales nucléaires) ou encore au développement de produits de haute technologie (aéronautique, transports). C'est un système d'organisation qui mobilise les technologies informatiques et de communication, mais également des méthodes et pratiques telles que l'ingénierie simultanée, le "groupware", la simulation dynamique, la sociologie des organisations. La gestion des projets complexes est un important facteur de compétitivité au niveau international sur des grands chantiers (centrales hydro-électriques, métros, complexes architecturaux). |
Le protypage rapide (ou maquettage rapide) permet de réaliser automatiquement et très rapidement des pièces "prototypes" dont la géométrie et les dimensions sont très proches de celles qu'aura le produit final. Il utilise des logiciels de design industriel commandant des dispositifs de formage de la matière. Le prototypage rapide fait appel à diverses technologies (prototypage utilisant le laser : fabrication par découpe et laminage, stéréolithographie, frittage ; prototypage sans laser : dépôt de fil fondu, flashage couche par couche, projection de colle, de cire ou de plastique). Les recherches tendent à rendre possible l'utilisation, en prototypage rapide, des mêmes matériaux que ceux qui seront employés pour la fabrication du produit final. |
La sûreté de fonctionnement est obtenue par la qualité des produits (ou des systèmes), mais aussi par des techniques spécifiques. Celles-ci font appel à une modélisation intelligente applique au fonctionnement des systèmes de gestion et de maintenance assistée par ordinateur (GMAO). Ces systèmes, en intégrant des hypothèses d'événements divers et aléatoires, sont capables de prédire les dysfonctionnements et de prévenir l'opérateur avant qu'il ne soit trop tard. Bien entendu, une telle démarche d'anticipation n'évite pas de procéder au suivi du fonctionnement par des contrôles opérés de façon continue ou discontinue. |
Les capteurs intelligents sont des dispositifs capables non seulement de détecter et de mesurer un phénomène quelconque, mais encore de le traduire en informations et de les traiter (c'est-à-dire de générer le déclenchement d'actions en fonction des informations reçues). Les capteurs intelligents connaissent des applications dans tous les domaines (production, environnement, santé, électroménager, automobile, etc.). |
La catalyse (qu'elle soit hétérogène, homogène ou enzymatique) intervient dans la plupart des réactions chimiques industrielles. Elle rend possibles des réactions qui, sans elle, ne se produiraient pas ou trop lentement. Elle permet une plus grande sélectivité: ne produire que les produits souhaités (et donc réduire les problèmes environnementaux). Elle peut améliorer l'économie d'un procédé en permettant d'utiliser d'autres matières premières moins chères. Pour concevoir de manière rationnelle de nouveaux catalyseurs, il faut comprendre au niveau moléculaire l'acte catalytique lui-même. Le génie catalytique doit également améliorer les techniques de mise en forme. |
La coulée directe et les procédés continus d'élaboration de l'acier visent à s'affranchir des opérations classiques de transformation (par exemple le laminage à chaud ou les traitements thermiques qui font appel à des équipements lourds et coûteux), de manière à obtenir directement un produit utilisable par les utilisateurs industriels. La coulée continue de brames minces (lingots aplatis d'une épaisseur de 20 à 50 mm) est une première étape vers la coulée continue de tôles dont l'épaisseur sera comprise entre 1 et 10 mm. |
Les techniques de découpe concernées sont les procédés non conventionnels rendant des services différents, ou même se substituant aux classiques outils de coupe tranchants. Il s'agit de technologies comme le laser, la découpe au jet d'eau et l'usinage par ultra-sons. La découpe au jet d'eau consiste à utiliser l'énergie cinétique de particules d'eau (pure ou chargée de particules abrasives) projetées à grande vitesse, de l'ordre de 1 000 m/s, sur le matériau à découper. L'usinage par ultra-sons est un procédé de haute précision consistant à utiliser des vibrations en fréquences ultra-sonores pour projeter de fines particules abrasives contre une pièce à éroder, couper, graver ou percer. |
Les impératifs liés aux problèmes d'environnement et aux économies de matières premières et d'énergie imposent de plus en plus de recycler les différents composants dont sont constitués les produits, et donc de désassembler les produits en fin de vie. Il s'agit de mettre au point de nouveaux outils (méthodes et technologies) pour le démontage de produits (qui, souvent, n'ont pas étéconçus pour être désassemblés facilement), de séparer les composants et de les recycler. Toutes les industries manufacturières sont concernées par cette démarche, dans laquelle l'automobile joue un rôle de pionnier. Les contraintes du désassemblage entraînent un surcoût que la valorisation des composants récupérés ne compense pas complètement. |
Le processus de fabrication d'un circuit intégré à semi-conducteurs se divise essentiellement en deux phases: - la diffusion (front end), procédure tres complexe, consiste à réaliser la photogravure de la puce de silicium; - l'assemblage (back end), procédure de précision hautement automatisée, permet de monter la puce sur son boîtier, puis de tester le circuit qu'elle supporte. Les équipements qui permettent d'enchaîner ces différentes opérations sont extrêmement complexes: il faut en effet pouvoir gérer et contrôler des phénomènes tant physiques que chimiques, dans une ambiance oú la pureté de l'air est essentielle pour éviter toute contamination. |
Les essais non destructifs sont d'une application universelle dans l'industrie car ils sont un facteur très important de la fiabilité, de la sécurité et de la qualité des produits et des équipements. Les essais non destructifs constituent, en fait, une appelation générique désignant de nombreuses technologies différentes (contrôle d'étanchéité, magnétoscopie, radiographie X et gamma, neutronographie, ultra-sons, courants de Foucault, méthodes thermiques et/ou acoustiques...). |
Les microtechniques, grâce notamment à l'utilisation des technologies de gravure et d'intégration mises au point dans le cadre de la micro-électronique, rendent possible la création de produits ultraminiaturisés dont les dimensions vont du millimètre au millième de millimètre. Les microtechniques recouvrent deux domaines principaux : d'une part des dispositifs mécaniques (micromoteurs, microvalves, microrobots, modules d'automatisme, etc.), d'autre part des appareils de détection, de mesure et d'actionnement (microcapteurs, microcapteurs " intelligents "). L'association des appareils de détection miniaturisés et des dispositifs micromécaniques permet d'élaborer des produits complexes généralement désignés sous le terme de microsystèmes. |
Les procédés de séparation membranaire reposent sur les propriétés de rétention sélective des membranes vis-à-vis des molécules d'un fluide (liquide ou gaz). Suivant la taille des pores, on parle de microfiltration (taille des pores comprise entre 0,1 µm et 10 µm), d'ultrafiltration (0,1 à 0,001 µm) ou de nanofiltration. La mise au point d'un procédé adapté à un besoin spécifique requiert généralement la combinaison et l'assemblage de modules mettant en oeuvre différentes techniques membranaires. |
L'objet de la robotique en milieu hostile est d'opérer sans intervention humaine dans des milieux de haute dangerosité (nucléaire, aérospatial, off-shore, militaire...), tant dans une situation de fonctionnement normale des installations que pour leur démantèlement, ou encore pour le traitement des conséquences de dysfonctionnements faibles ou majeurs. Ce résultat est obtenu en maîtrisant trois fonctions principales: interface homme machine, contrôle commande, systèmes mécaniques. |
La spectrométrie de masse, avec ses différents modes d'introduction de l'échantillon (chromatographie en phase gazeuse ou en phase liquide, introdudion directe), a pour objet la détermination de la masse atomique ou moléculaire de composés chimiques et l'identification des substances qui les composent. Les composés chimiques qu'elle permet d'analyser peuvent être des mélanges complexes à l'état gazeux, liquide ou solide. Sa haute sensibilité en fait un excellent outil, par exemple pour déterminer la nature d'une pollution dans l'environnement, ou pour rechercher des impuretés lors de la fabrication de produits chimiques. Cette technologie se diffuse rapidement dans le domaine des biotechnologies, ses développements permettant d'étudier la structure de molécules de masse moléculaire élevée (protéines, peptides). |
Le processus de fabrication des composants électroniques ne tolère aucun défaut. Les matériaux utilisés et l'environnement de fabrication doivent être exempts de toute impureté. La gestion de cet impératif concerne donc plusieurs aspects : pureté des matériaux semi-conducteurs, des gaz utilisés et des produits chimiques destinés au lavage des produits, propreté de l'air ambiant ("salles blanches"). |
|