IMPRIMANTES 3D la nouvelle révolution industrielle est en marche

imprimantes 3D

Imprimantes 3D,
une nouvelle révolution industrielle
est en marche !


Un peu d'histoire...

La première version de cette technologie de fabrication additive est apparue dès la fin  des années 1970 avec les travaux du chercheur japonais Dr Hideo Kodama. Ce dernier inventa une technique d’impression par couches en utilisant la lumière ultraviolette pour durcir les polymères photosensibles.

En 1983, ce principe, va inspirer Charles Hull, un ingénieur américain, qui travaille dans le moulage de prototype en plastique destiné au milieu médical. Son premier prototype, alliant lumière UV et plastique, est une œillère, destinée aux opticiens. L'idée de base est de réaliser un objet via le dépôt successif de plusieurs couches de résine, puis la polymérisation de celles-ci va les UV. Le procèdé est baptisé stéréolithographie.  Seul problème, l’extrême lenteur  du processus, fait qu'un objet réalisé de cette manière, prendra plusieurs jours. Et pourtant, le procédé de l'impression 3D (malgré l'évolution des techniques) reste identique de nos jours.

 

Le 16 Juillet 1984, trois Français déposent un brevet concernant un procédé de fabrication additive pour la société CILAS ALCATEL. Les trois chercheurs ne seront pas pris au sérieux, car les dirigeants de l'époque ne voient aucun débouché commercial pour cette invention, ce qui mettra un terme au projet. Trois semaines plus tard, Charles Hull dépose le brevet de sa technique de stéréolithographie (nom à l'origine du format .stl), et fonde la société 3D system, qui lance et commercialise, la première vraie imprimante 3D industrielle (la SLA 1) 4 ans plus tard, en 1988.

3D system est aujourd'hui le leader mondial de conception et fabrication d'imprimantes 3D, en 2014 elle annonçait un chiffre d'affaire de 700 millions de dollars.

Alain Le Méhauté, l’un des pères français de l’impression 3D, déclare dans un article  paru en 2014 :

« …durant 15 années je me suis heurté entre autres aux notables et à la commission des titres d’ingénieur, qui ont tout fait pour casser la dynamique d’innovation… »

http://www.primante3d.com/inventeur/

En 2015, de nombreux observateurs estiment que ces technologies prendront une part importante dans la nouvelle forme de production.

 

Impression 3D, les différents procédés.

Il existe trois grandes techniques de base concernant la réalisation d'objets en 3D :
- La Stéréolithographie (SLA),
- le dépôt de matière en fusion (Fused Deposition Modeling – FDM)
- Le forgeage par application laser (Selective Laser Sintering – SLS).

 

La Stéréolithographie

Breveté par Charles Hull, aux états unis, et Alain le Méhauté, avec ses collègues, en France.

Une des formes de la Stereolythographie la plus répandue est la Photopolymérisation (SLA) : on concentre un rayon ultraviolet dans une cuve remplie de photopolymère (un matériau synthétique dont les molécules se modifient sous l’effet de la lumière, la plupart du temps ultraviolette). Le Laser ultraviolet travaille le modèle 3D souhaité couche après couche.
Quand le rayon frappe la matière, cette dernière se durcît sous son impact tout en se liant aux couches adjacentes. Au sortir de la cuve, on obtient une forme à la résolution remarquable et, cerise sur la gâteau, la matière non frappée par le laser peut être utilisée pour le prochain objet.
L’imprimante 3D grand public la plus connue utilisant ce procédé est FormLabs.

Mais on doit à la "Stereolithography" autre chose : c’est le fameux format .stl qui est actuellement le format numérique en passe de devenir le standard dans le monde de l’impression 3D.


 

Fused Deposition Modeling (FDM)

Ce procédé a été inventé par Scott Crump à la fin des années 80 pour voir la première sortie commerciale du procédé en 1991.

Le FDM consiste à porter à la fusion de petites gouttes de matière plastique (Souvent le plastique de type ABS –celui des lego™-) qui créent la forme couche après couche. Une fois que la goutte quitte l’applicateur, elle durcît de manière quasi-immédiate tout en se fondant avec les couches inférieures. C’est le procédé de loin le moins coûteux et c’est sur lui que se reposent aujourd’hui la grande majorité des imprimantes 3D grands publics. Outre le plastique ABS, les plastiques PLA (Polylactic Acid) et d’autres polymères biodégradables peuvent être travaillés depuis ce procédé.

La plupart des imprimantes 3D « abordables » parmi les plus connues utilisent ce procédé notamment celles à l’initiative de RepRap, Solidoodle, LeapFrog, MakerBot ou l’imprimante CubeX.
Une variante existe sous le nom de Plastic Jet Printing (PJP) : il concerne l’ensemble des imprimantes résolument grand public comme la Cube.


 

Selective Laser Sintering (SLS)

On attribue l’invention de ce procédé à Carl Deckard et Joe Beamanand, chercheurs à l’Université d’Austin, au milieu des années 80.
Cette technologie est proche de la Stéréolithographie mais sans la cuve remplie de polymère. Des matières dures (sous forme de poudre) comme le polystyrène, le verre, le nylon, certains métaux (dont le titane, l’acier ou l’argent) ou de la céramique sont frappées par un laser. Là où le laser frappe, la poudre s’assemble pour créer la forme. Toute la poudre non frappée peut être réutilisée pour les prochains objets à imprimer.
L’imprimante la plus connue utilisant ce procédé est la SinterStation Pro SLS 3D printer (Imprimante 3D professionnelle)


Un marché en plein essort

Selon IDC, le marché mondial des imprimantes 3D, services et matériaux associés devrait connaître une forte hausse en 2019, pour atteindre 13,9 milliards de dollars US. En se basant sur un taux de croissance sur cinq ans de 19,1%, le marché devrait avoisiner 22,7 milliards de dollars en 2022.

D’après ces prévisions, les imprimantes 3D et les matériaux associés (plastiques, métaux, résines) devraient représenter des dépenses de 5,3 milliards de dollars et 4,2 milliards. Les services seront un peu à la traîne, avec un montant total autour de 3,8 milliards.

Trois secteurs porteurs de la croissance :

L'industrie, assure plus de la moitié des dépenses dans le domaine.

L’augmentation rapide des vitesses de production, ainsi que des avancées majeures au niveau des matériaux utilisés pour l’impression 3D, permettent à ces technologies de répondre à un plus large spectre d’applications. De ce fait, les industriels ont dépassé le stade du prototypage, et commencent à produire de petites séries grâce à ce procéder.

La médecine, 1,8 milliard de dollars de dépenses en 2019.

Avec la montée en puissance du secteur de la santé, la fabrication d’objets pour les soins dentaires et le support médical arrivent en troisième et quatrième position, suivis par les outils spécialisés. Les taux de croissance les plus élevés devraient s’observer dans l’impression de matériaux biologiques, comme les tissus, organes et os (TCAC de 42,9%), ainsi que sur les prothèses dentaires (TCAC de 33,1%).

L'éducation et la recherche, 1,2 milliard de dollars.

En 2010, Urbee a été la première voiture créée grâce à l’impression 3D. Sa structure principale a été totalement imprimée en 3D, grâce à l’usage d’une imprimante 3D très large. Encore maintenant, la voiture imprimée en 3D est toujours considérée plus comme un rêve que comme une réalité, pourtant, de nombreux acteurs considèrent l’impression 3D comme une bonne alternative aux méthodes traditionnelles de fabrication.

En 2011, Cornell University a commencé à fabriquer une imprimante 3D pour les denrées alimentaires.

En 2014, la NASA a amené une imprimante 3D dans l’espace afin de créer le premier objet imprimé en 3D hors de la Terre.
L'agence spatiale recherche par ailleurs un moyen pour imprimer des aliments en 3D dans l’espace.

 

Quelles perspectives d'avenir ?

les secteurs de la recherche sont plus que jamais, impliqués dans le développement de systèmes d’impression 3D

L'impression 3D a fait son entrée dans le monde industriel depuis déjà des années pour réaliser des prototypes. Et puis,  elle s’est invitée dans la sphère privée, permettant à tout un chacun de réaliser ses propres pièces. Les matériaux de fabrication, quant à eux, sont encore majoritairement limités à la résine, aux plastiques, aux polymères et certains produits alimentaires. Depuis peu, il est possible d’imprimer des petites pièces, avec du métal.

Les progrès avancent de jours en jours, et avec eux les possibilités de fabriquer des objets de plus en plus complexes avec un degré de finition de plus en plus élaboré.
Même si il reste à faire de très grands progrès, l’impression 3D est porteuse de promesses dans les secteurs de la production industrielle, comme chez les particuliers. Par ailleurs, le fait que certains brevets liés à cette technologie soient tombés dans le domaine public, va accélérer les initiatives.

Barack Obama lance à partir de 2013 plusieurs centres de recherches sur le sujet, l’objectif pourrait être de concurrencer de nouveau les marchés émergents comme la Chine, imbattables pour le moment pour ce qui concerne les produits simples et répétitifs, produits à très bas coût. L’économie du transport permettrait de rendre de nouveau viable la production locale grâce à ce type de machine. C’est encore du domaine de la théorie, mais les perspectives sont plus que motivantes. Et Obama l’affirmait lui-même dans des propos repris par Libération :

Cet institut permettra de s’assurer que les emplois industriels de demain ne soient plus en Chine ou en Inde, mais ici, aux Etats-Unis.

Il est donc devenu évident que cette technologie, lorsqu’elle sera mature, va vraiment apporter de gros changements dans tous les secteurs industriels. On voit ainsi déjà se monter des fermes d'imprimantes 3D dédiées à la fabrication d'articles personnalisés de petite et moyenne série. Certaines marques de luxe notamment ont déjà opté pour l'impression 3D pour certains articles, notamment des montures de lunettes. Plus qu'un simple outil permettant de reproduire une pièce cassée à l'identique, l'impression 3D pourrait révolutionner notre rapport à la consommation et participer activement à la lutte contre l'obsolescence programmée.


Et la France ?

Loin de l'époque des années 80 (et des difficultés des pionniers de l’impression 3D, à faire entendre leurs voix quant à la nécessité d'entreprendre des recherches dans le domaine), nous sommes passés aujourd'hui dans une toute autre époque.

Face aux innovations venues d'outre atlantique, les grands acteurs de l'industrie française, l'ont bien compris cette fois : Il n'est plus question de rater le coche comme il y a plus de trente ans. Reste qu'en France, il faudrait faire émerger un marché de la fabrication additive, comme le souligne Olivier Dario (SYMOP), dans un article de l'Usine nouvelle .

Il faut travailler sur les normes, notamment de sécurité et sur les matériaux, c’est l’un des grands chantiers de l’impression 3D. Il faut que les technologies soient plus robustes, aujourd’hui les machines ont encore du mal à répliquer la même pièce. Et il faut développer les cas d’usages pour créer une demande. Les cas d’usages sont encore trop peu nombreux.

La nécessité de ne pas se retrouver distancés par les pays qui investissent le plus sur ces technologies (comme les USA ou encore la Chine), est impérieuse. En France certaines grosses industries utilisent ce procédé de fabrication, mais afin de rester concurrentiels face aux géants d'outre atlantique, il faudrait créer une véritable filière de l'impression 3D.

Crédits photos : Public domain images, freestock photos, fotolia

ZAC Gennevilliers – Passerelles métalliques

ZAC Gennevilliers, réalisation de passerelles métalliques


Dans le cadre de l’élaboration de la ZAC de GENNEVILLIERS, ACFT Bureau d’Études a été mis à contribution pour la réalisation de passerelles.

Le client direct d’ACFT Bureau d’Études est un fabricant et installateur de gardes-corps et de moyens d’accès (échelles, escaliers).

Ce projet a demandé à nos collaborateurs de mettre à profit leur savoir faire afin de répondre aux exigences du client final qui souhaite, en plus des contraintes particulières sur ce genre d’équipement, que celui-ci ait un esthétisme poussé et notamment qu’aucune fixation ne soit apparente.

L’objectif a donc été de réaliser 2 passerelles différentes servant chacune à relier les terrasses de 2 bâtiments : 1 passerelle droite et 1 passerelle avec escaliers.

 

Ces passerelles répondaient à un cahier des charges précis :

  • Le plancher doit être en bois
  • Le dessous de la passerelle doit être habillé par de la tôle en aluminium
  • Mise en place d’évacuation d’eau sous le plancher de la passerelle
  • Les gardes corps doivent être en bois (avec aucune fixation apparente).

Afin de réaliser les garde-corps en bois, il a fallu réaliser des montants en tube avec des perçages afin de les fixer sur la charpente de la passerelle. L’habillage bois a ensuite pu être apposé.

 

Cette affaire s’est réalisée en 3 temps :

  • Une partie de relevés sur place pendant laquelle notre collaborateur a été mis en relation avec notre client et le client final,
  • Une partie de mise en plan sur le site de GONFREVILLE L'ORCHER,
  • La réalisation de notes de calculs sur le site d’ELBEUF afin de valider l’ossature métallique de la passerelle et de l’escalier (dimensionnement, vérification des assemblages et de la stabilité globale, définition de la descente de charge, …)

 

Ces passerelles ont été mises en place courant 2019.

En savoir plus sur les constructions métalliques ?

Consultez nos pages métier :
Constructions métalliques

 

Consultez les pages Facebook :

Facebook ACFT bureau d'études

Facebook ACFT Construction

 

Logiciels de DAO, CAO, FAO, 60 ans d’évolution.

Les logiciels de CAO, DAO, FAO, …
retour sur les 60 ans d’évolution de ces outils
qui ont changé le monde de l’industrie.

Le concept remonte à la fin des années 50 : avec les progrès de l’informatique, des ingénieurs jettent les bases de ce qui deviendra plus tard le premier logiciel de CAO. Au tout début les logiciels tournent sur des machines énormes, pesant plusieurs tonnes, pour se réduire en fin de compte à des mini stations portables au XXIe siècle. Retour sur ce qui fut le départ d’une révolution dans le secteur de la conception industrielle.

Patrick Hanratty et Ivan Sutherland sont crédités comme étant les pionniers de la CAO moderne, ce sont leurs travaux pratiques et théoriques qui vont permettre au fil du temps l’émergence d’outils destinés à simplifier et améliorer la fabrication et la conception de pièces industrielles. Et tout cela à l’aide des technologies informatiques encore balbutiantes du début des années 60.

Patrick Hanratty

Développeur de ADAM, premier logiciel CAO compatible multi-systèmes.

Ce système fait aujourd’hui figure du premier vrai standard en CAO

Ivan Sutherland

Concepteur et théoricien du système SKETCHPAD,

il est à l’origine des systèmes d’interface graphiques dédiés à la CAO.Années 1950

En 1957, Patrick J. Hanratty développe le programme PRONTO pour General Electric. C’est de cette façon que voit le jour le premier langage de programmation de contrôle numérique de l’histoire.

 

Années 1960

Au début des années 60, Ivan Sutherland, au travers de sa thèse de doctorat, propose un concept novateur de système informatique capable d’afficher des plans sur écran qu’il serait possible de manipuler à l’aide d’un stylo optique. La seule limite reste l’informatique de l’époque, encore embryonnaire mais les concepts d’interface graphique et de modélisation 3D débutent à ce moment-là.

Durant la décennie des années 60 jusqu’au milieu des années 70, la CAO est réservée uniquement aux très grosses entreprises (IBM, Lookeed Martin, Honeywell, NASA, Dassault,...) qui développent en interne des solutions propriétaires.

Années 1970

En 1971, Patrick J. Hanratty se lance dans l’écriture du code d’un nouveau logiciel de CAO nommé ADAM, ce système de conception graphique, de dessin et de fabrication interactif a été écrit en Fortran et conçu pour fonctionner sur pratiquement toutes les machines. Ce succès retentissant a ensuite été mis à jour pour fonctionner sur des ordinateurs 16 et 32 bits. Aujourd'hui, 80% des programmes de CAO trouvent leurs origines dans le programme ADAM.

En 1972, Ed Catmull et Fred Parke réalisent la Première animation 3D, d'une main et d'un visage, à l'aide d'un logiciel qu'ils ont développé.
Catmull, va ensuite travailler chez ILM et deviendra plus tard un des fondateur de Pixar.

1975 Martin Newell veut tester des algorithmes de rendus 3D, dans le cadre de son doctorat. A l'époque il n'existe pas beaucoup d'objets 3D complexes, et l'accès à ces objets semble très compliqué.
Newell décide donc de concevoir son propre objet 3D afin de pouvoir réaliser ses tests. Pour ce faire, il digitalise manuellement une théière, en utilisant les courbes de Bézier.
Du fait de sa complexité, ce modèle va devenir célèbre, on le retrouve aujourd'hui dans de nombreux logiciels, en tant qu'objet standard.

En 1977, Digital Equipment Corporation (DEC) lance le VAX 11/780 exécutant le système d'exploitation VMS à mémoire virtuelle 32 bits. Ces machines seraient utilisées pour le traitement par lots, le partage du temps et l'informatique en temps réel. Ils sont vendus avec un réseau informatique intégré et des méthodes normalisées pour dialoguer entre les langages de programmation. Cette machine est un concurrent sérieux pour l'IBM 360 qui domine le marché de la CAO.

La même Année Dassault System system lance CATI, Lookeed Martin lance CADAM.

Suite au rachat de United Computing par l’avionneur Mac Donnell Douglas en 1976, le logiciel ADAM va subir une refonte complète pour devenir Unigraphics R 1.0 (NX) de Siemens qui est lancé en Avril 1978. Les systèmes de CAO se développent et sont utilisés par l'aérospatiale, le secteur automobile et les industries. Les systèmes permettant de faire fonctionner un logiciel de CAO, sont en train de passer sur des « mini-ordinateurs », il faut comprendre qu'une machine de ce genre, pèse environ 500Kg, et qu’il faut envoyer plusieurs techniciens pour la déployer chez le client. Le chargement des logiciels se fait ensuite via des bandes magnétiques. Nous sommes encore à des années lumières de ce que nous connaissons aujourd’hui.

Années 1980

L’IBM PC lancé en 1981, va changer la donne en propulsant la CAO à grande échelle. Son atout le plus important est son prix, ce qui va permettre une démocratisation rapide de la CAO dans de nombreuses sociétés de moyenne et petite taille. C’est à cette époque que les premières versions des logiciels actuels vont voir le jour. L’avènement de la micro-informatique grand public des années 80, va donc considérablement réduire la taille des énormes systèmes jusque-là utilisés pour faire fonctionner les complexes logiciels de CAO. Unigraphics en version 2.1 est porté sur la gamme DEC VAX.

1982, voit la création de SUN Microsystems. SUN a contribué à populariser UNIX pour l'informatique scientifique. Chaque poste de travail, qui pouvait prendre place sur le bureau d’un ingénieur, contenait un processeur, un périphérique graphique ou un terminal et des périphériques d’entrée. Ils étaient faciles à mettre en réseau pour faciliter le partage et l’accès aux données et au traitement. Les postes de travail UNIX individuels seraient aux finals beaucoup plus puissants qu'un mini-ordinateur 11/780 ou un IBM 360.

 

Toujours en 1982, un groupe de programmeurs créent la société Autodesk, et son fameux logiciel AutoCAD. La première version d’AutoCAD est annoncée en novembre lors du salon Comdex de Las Vegas et fera l’objet de démonstrations sur un Z80, un Victor 9000 et un IBM. Elle sera livrée aux premiers clients dès décembre de la même année.

1982, c'est aussi le début de l'utilisation de la CAO au cinéma, avec le film TRON de Walt Disney. Le Logiciel qui permet de réaliser une partie des scènes véritablement synthétiques est SynthaVision de chez MAGI.
Ce n'est pas encore un logiciel de CAO vraiment destiné à l'industrie cinématographique, mais ses capacités de modélisation à base de polygones se prêtent bien aux besoins de l'industrie graphique naissante.

 

A l'époque, un ordinateur central CRAY disposait de 8 Mo de mémoire pour un coût de 7 millions de dollars. Pour TRON, chaque rendu nécessitait 18 Mo de mémoire.
Ainsi, même sur un CRAY, les animateurs n'auraient pas pu visualiser une seule image, quel que soit l'ordinateur utilisé, il ne pouvait restituer qu'une seule ligne de balayage à la fois.
Pour voir le résultat final de l'image, il fallait attendre que les lignes soient combinées ensembles, véritable travail de titan pour l'époque.

L'engouement pour l'image de synthèse au cinéma atteint son sommet en 1984, avec un petit film de SF devenu culte depuis : The Last Starfighter.
Comme TRON, ce film est un des pionniers du genre à inclure de la vraie image de synthèse
(300 scènes, soit plus de 27 minutes de pure CGI, avec un format d'image de 5000 x 3000 pixels) pour des séquences réalistes de combat spatiaux.
Pour venir à bout de ce travail titanesque, il aura fallut : 1 CRAY XMP,  2 DEC VAX 11/780 et 120 Stations de travail IMI 500.

Malgré la prouesse technique, le monde du cinéma  de l'époque a encore du mal à croire que la CGI deviendra le fer de lance des effets visuels.

A partir de 1985, des gammes de machines compactes, très puissantes et de moins en moins chères vont faire leur apparition.
L’AMIGA 1000 est le premier vrai système multimédia de l’histoire, sa carte mère inclue un jeu de processeurs dédiés pour le son l’image, l’animation, afin de décharger le processeur principal.
L’atout majeur de cette gamme de nouvelles machines est le prix, qui reste abordable au grand public.

C'est sur cette machine que seront développé les logiciels de 3D : Cinéma 4D et Lightwave 3D. Logiciels à la base des effets visuels de nombreuses séries TV des années 90 / 2000

La CAO à destination de l’industrie cinématographique et du divertissement se développe en 1986, avec l'apparition de Softimage 3D par Daniel Langlois à Montréal.
Softimage 3D est le pionnier des logiciels commerciaux de CAO dont la cible est l'industrie du cinéma.

C’est ce fameux logiciel de 3D qui servira (entre autres) aux effets spéciaux des films Abyss et Jurassic Park. Le logiciel qui tourne alors sous UNIX, nécessite une machine très onéreuse pour pouvoir fonctionner (Silicon Graphics de Sun). Pour l'époque son interface utilisateur est novatrice.

Dans le domaine de la CAO industrielle, les améliorations sont beaucoup moins notables, surtout en ce qui concerne l'ergonomie des interfaces utilisateurs. Le paradigme des interfaces des logiciels de CAO à l'usage de l'industrie du divertissement vont grandement inspirer les futurs développements de ceux de la CAO industrielle.


AutoCad 2.18 (1986)

En 1988, Unigraphics porte sa solution NX sous UNIX, cela marque le début de la fin des gros mainframes propriétaires(1) .

L’année 89, marque un tournant dans la CAO, avec la version 1.0 de Pro / Engineer.

Il introduit la modélisation paramétrique(2) des solides, basé sur les fonctionnalités. Un paradigme que tous les systèmes de CAO courants copient. Pour la première fois, la modélisation solide devient une alternative productive à la modélisation filaire. Les responsables techniques peuvent désormais acheter un poste de CAO sans l’approbation du département MIS (Département Méthodes pour l’ingénierie des systèmes.)


Pro Engineer Release 1.0 les logiciels de CAO entrent dans l’ère de la 3D paramétrique.

De son coté, Lookheed Martin propose son logiciel CADAM à la vente, et IBM le rachète. Il faut préciser qu’à cette époque, Lookeed utilise déjà CATIA pour ses projets avancés, CADAM son logiciel propriétaire n’a plus vraiment d’intérêt stratégique. CATIA se révèle être bien plus avancé en terme de conception puisqu’il intègre depuis longtemps une véritable vue en 3D, ce qui n’est toujours pas le cas de CADAM. La fin de la décennie 80 voit aussi une évolution majeure dans l’utilisation des systèmes CAO par l’abandon progressif des mainframes propriétaires qui,  jusque-là permettaient de faire fonctionner les logiciels.

Années 1990

En 1990, dans le domaine de la CAO ludique Autodesk lance le logiciel 3D studio sous MSDOS. D'abord situé sur le même segment de marché que Lightwave et cinema 4D, le logiciel va connaitre une certaine notoriété auprès des professionnels, et du grand public.


1991, 3D studio sous MSDOS de chez Autodesk. L’infographie 3D ludique, se démocratise en se déployant sur un simple PC.

En 1993, Spielberg, réalise le film Jurassic Park, après avoir regardé des séquences en stop motion classique et les mêmes séquences en CGI, il opte pour une version tout numérique pour animer les monstres préhistoriques. C'est Softimage 3D et sa collection d'outils, qui va permettre cette prouesse technologique. Cette fois le monde de l'industrie cinématographique, est convaincue que la technologie de CAO est mature pour les effets visuels au cinéma.


Softimage 3D en 1993

L’arrivée des processeurs Pentium de chez INTEL en 1992 sonne le glas des mini-ordinateurs et des stations de travail très onéreuses fonctionnant sous UNIX et autre. L'ensemble des logiciels de CAO qui fonctionnaient sous de gros systèmes et des stations de travail coûteuses, va commencer à migrer massivement sur PC. Tous les secteurs de l'industrie sont maintenant concernés.

Microsoft rachète Softimage en 1994, et décide de le porter sous windows NT, mais ne le rends pas plus accessible à un large public d'utilisateurs.


Solidworks95, en plus de la modélisation ce nouveau logiciel va intégrer de puissants outils de modélisation.

La société Solidworks sort ainsi son logiciel en 1994. Celui-ci permet outre le dessin technique de concevoir des ensembles et sous-ensembles 3D très complexes, proche d’un process de fabrication. Des fonctions supplémentaires comme la simulation de test de résistances des matériaux, en font un outil incontournable du secteur. Ce concurrent de CATIA est racheté par Dassault Systèmes en 1997.

En 1995, un logiciel de 3D à but ludique fait son apparition : Blender. A l'origine développé sur AMIGA sous le nom de "Trace", son auteur Ton Roosendaal, décide de créer un logiciel Open Source. Il obtient des fond et ouvre la société NaN en 1998 pour développer et partager Blender.

La CAO entre dans le monde de l'Open source avec Blender, un petit logiciel qui va devenir la référence en la matière.

En 1998, CATIA de chez Dassault Systèmes abandonne à son tour le monde mainframe, et s’installe sous UNIX et Windows NT.


CATIA V5.0

En 1996, PIXAR sort le premier film entièrement en images de synthèse : Toy Story, résultat des dix ans de développement de son logiciel RENDERMAN. L'industrie du divertissement, envisage maintenant la CAO comme un outil de production fiable dont les résultats permettent de réaliser d'impressionnant effets  spéciaux.

Toujours en 1996, Autodesk, lance 3D Studio Max R1.0 sous windows. L'interface logicielle très ergonomique, permet la modélisation et l'animation dans un seul produit.
L'aspect ludique, fait que le produit se place alors parmi les premiers de cette période. La communauté utilisateurs devient très importante, et développe ensuite des plugins pour améliorer les capacités.
Par ailleurs le logiciel propose un système d’animation de personnage pré-paramètré dans son éditeur : Character Studio. C’est une petite révolution dans le domaine de la production cinématographique, mais aussi dans le monde du jeu vidéo. C'est la facilité d'accès à 3D Studio (Dos et Windows), et son côté ludique adapté aux jeux vidéos,  qui va permettre à tout un public de passionnés de se former, contrairement à des outils comme Softimage fonctionnant sur des supports totalement inaccessibles.

En 1999 Autodesk lance Inventor, qui devient un concurrent sérieux en termes de fonctionnalités, pour CATIA, Solidworks et Unigraphics.

Années 2000

Le portage sur Windows NT des grands logiciels de 3D va participer à la démocratisation de ceux-ci. Une énorme communauté d'utilisateurs et de passionnés va créer des bibliothèques gratuites d'objets 3D sur internet. Les principales améliorations de cette décennie se font au niveau de l’affichage en temps réel d’un nombre très important de pièces dans les ensembles et sous-ensembles. La puissance des stations de travail autonomes au travers des nouvelles cartes graphiques permettra l’affichage d’ensemble très complexe, et le début des simulations en temps réels.

Microsoft arrête Softimage à sa version 4.0 en 2002, au profit de sa version réécrite plus spécifiquement pour NT : Softimage XSI.

CATIA V6 2008 - Dassault system

En 2008, CATIA V6 permet de réaliser une maquette numérique fonctionnelle, au travers d’une simulation. Cette maquette numérique complète du produit prend en compte toutes les vues que nécessite le développement produit : les exigences autant que les définitions fonctionnelles, logiques et physiques.

Dans le domaine de la CAO ludique, c’est une véritable explosion de nouveautés proposant toutes des fonctionnalités différentes et de plus en plus ergonomiques. Le monde de l’open source, va finir d'imposer Blender, qui va devenir le standard de ceux qui souhaitent pouvoir faire de la 3D gratuitement.

En 2008 Autodesk rachète Softimage et commence l'intégration de sa technologie à sa suite de logiciels, occupant le même segment de marché : Maya et 3dsmax

Années 2010

L’arrivée d’internet depuis plus de 10 ans et les améliorations constantes des services en ligne vont voir apparaître des applications de CAO en ligne pouvant exploiter la technologie du Cloud.

Dans la décennie des années 2010, le site GrabCad est créé. Il permet le partage via une communauté d’utilisateurs, d’objet 3D normalisés. Et avec le cloud, il est désormais possible à un ingénieur de travailler avec son PC portable depuis n’importe où. A noter, l'apparition d'applications de 3D temps réel, tels que Unity, openspace 3D,  permettant la navigation au sein d'un univers virtuel.


Station de travail autonome (Modèle HP)

Solidworks

En 2012 Autodesk lance Autodesk 360 et l’utilisation du cloud dans le flux de production de ses suites logicielles.

Des applications dédiées aux smartphones et tablettes voient le jour tel que 3D AP en 2013. Il est maintenant possible de visualiser une pièce 3D complexe depuis un appareil qui tient dans la main.
Google sort l'application en ligne Sketchup, qui permet de créer rapidement des objets 3D.


Sketchup de Google

En 2014, Autodesk annonce l'arrêt définitif du développement de Softimage XSI. La décision fait polémique, les professionnels de la CGI expliquent qu'Autodesk aurait racheté Softimage pour récupérer sa technologie.
Mais le logiciel semble surtout avoir été victime de son inaccessibilité au grand public, contrairement à ses concurrents. Autodesk, va cependant maintenir le logiciel Softimage jusqu'en 2016,  puis le retirera progressivement du marché au profit de Maya et 3Dsmax qui hériteront d'une grande partie des ses aspects techniques.

En 2015, ONSHAPE, lance un système de CAO depuis le cloud.


ONSHAPE

La CAO a fait son entrée dans le grand public, il est désormais possible de concevoir en quelques clics des maquettes virtuelles complexes, grâce à des outils simples, ergonomiques et très puissants.
Les applications sont nombreuses, et des innovations ont fait leur apparition comme l'impression en 3D, à partir d'objets virtuels. En effet, il est aujourd'hui possible dans le cadre industriel et personnel, de concevoir des prototypages, et des mini séries d'un produit, en très peu de temps.

Années 2020…20XX…

La complexité des fonctions et des applications liées aux logiciels de CAO / DAO reste dépendante des machines qui les font tourner. On peut imaginer, avec l’avènement de l’informatique quantique, la conception temps réel d'ensembles très complexes. Et grâce à la réalité virtuelle augmentée, permettre au concepteur de simuler son fonctionnement. De même, après avoir conçu l'ensemble dans un système virtuel, il sera possible au technicien, de le réaliser dans le monde réel via une imprimante 3D, en très peu de temps.

(1) Mainframe : Désigne un ordinateur centralisant toutes les données, auquel sont connecté des terminaux. Le mainframe, est capable de faire tourner des dizaines de systèmes d'exploitation simultanément. Le terme désigne particulièrement les machines type IBM 360/370. Progressivement remplacé par des systèmes plus petits dans les structures de tailles moyennes,  le mainframe, est encore utilisé aujourd'hui par les très grosses entreprises.

(2) Modélisation paramétrique : Le paradigme de modélisation paramétrique répond à une approche de conception technique et fonctionnelle. Le concepteur doit avoir une idée relativement précise de ce qu'il va faire pour anticiper et définir les contraintes des fonctions et les dépendances. Toute modification de la conception est ainsi répercutée en aval, d'une manière prédéfinie. 

Crédits photos : Public domain images, freestock photos, fotolia, National archives, NX Siemens, Solidworks, Sketchup, CATIA.

Pour aller plus loin :
https://fr.wikipedia.org/wiki/Th%C3%A9i%C3%A8re_de_l%27Utah
https://fr.wikipedia.org/wiki/Edwin_Catmull
https://fr.wikipedia.org/wiki/Starfighter_(film)
https://fr.wikipedia.org/wiki/Computer_Augmented_Design_And_Manufacturing
https://en.wikipedia.org/wiki/Cray_X-MP
https://en.wikipedia.org/wiki/VAX-11

 

Intelligence Artificielle, un nouvel outil dans l’industrie

Intelligence Artificielle, un nouvel outil dans l'industrie

Après avoir rendu possible l’extension de son corps avec la mécanique classique et la création d’engins roulants, volants et flottants ; l’homme a voulu aller plus loin en prolongeant ses capacités cognitives avec les ordinateurs.
Après avoir longtemps appartenus à l’univers de la science-fiction, le mythe de l’ordinateur autonome et capable de conscience serait-il en passe de se réaliser prochainement ?

On parle aujourd’hui d’intelligence artificielle, voire de machines supposées remplacer l’humain. Certains parlent de 30% d’emplois qui seront remplacés dans un avenir proche par des robots, d’autres prédisent l’apparition d’une singularité technologique, c’est-à-dire le moment où la machine pourrait devenir autonome. Les dernières avancées technologiques semblent aller dans ce sens (véhicules autonomes, assistants vocaux, …) même si nous sommes encore loin d’y arriver.

 

Un peu d’histoire…

En 1936, Alan Turing avec son essai « la machine de Turing », va initier la première génération d’ordinateurs. Il va en théoriser tout le potentiel au travers de ses écrits. C’est ici que vont naitre les concepts de cybernétiques et d’ordinateurs intelligents. À partir de cette époque, et de manière spéculative, on imagine qu’il serait possible de construire une machine autonome, voire pensante.

 

Les machines des générations suivantes, tels que l’ENIAC ou l’IBM 704, de par leur conception et leur vitesse de traitement, font faire des progrès au monde de l’informatique. Mais leurs systèmes électromécaniques à ampoules vont, pour un temps, ranger la promesse de l’IA et ses fabuleux potentiels dans les tiroirs des œuvres de la science-fiction.

En 1965, Gordon Earl Moore (un des père d’IBM), parle de doubler la capacité du nombre de transistors sur les microprocesseurs tous les ans. C’est ainsi que va naitre la fameuse « première loi de Moore », qui démontrera son exactitude de 1971 à 2001.
La vitesse de traitement des machines évolue au cours des années 70, avec l’apparition des premiers microprocesseurs tels que l’Intel 4004, et une nouvelle étape technologique est franchie. Puis, au début des années 1980, Richard Feynman évoque la possibilité de construire un ordinateur quantique, ce qui aurait pour effet de décupler la vitesse des calculs.

Les premières expérimentations ont lieu dans les années 90 avec de petits calculateurs expérimentaux dits quantiques, mais à partir de 2007, D-wave system annonce avoir construit une machine de 16 Quantum Bits. En 2019, l'entreprise a dévoilé un système à 2000 qubits.
Le seul problème reste encore la taille du dispositif et son encombrement. Aujourd’hui les projets concernant le sujet sont légions, certains prédisent l’avènement du tout quantique pour les années 2020. Quand cette machine sera opérationnelle, elle offrira une capacité de calculs inimaginable pour les machines classiques. De fait, l’IA trouverait un socle prometteur pour pouvoir se développer.

Programmes, Algorithmes, IA et Science-fiction

Dès les années 1940, Isaac Asimov, un des patriarches de la SF moderne, publie des nouvelles d’anticipation mettant en scène des histoires de robots. Asimov modernise ici le thème mythique et séculaire du Golem, et propose tout l’éventail des problématiques scientifiques et philosophiques se posant autour de ce sujet. Conscient de ce qu’il pourrait advenir des sociétés humaines lors de la création effective de telles entités, il développe les trois lois de la robotique, afin de concevoir un cadre comportemental aux machines autonomes.

Dès les origines, l’idée que l’on puisse construire des créatures artificielles pose une série de questions suscitant une certaine inquiétude. Le cinéma et la littérature nous donnent depuis, et de façon récurrente, des visions positives ou négatives sur le sujet :

  • avec des IA destructrices nous promettant l’apocalypse tel le SKYNET du film Terminator,
  • ou bien des IA bienveillantes avec le film IA de Spielberg, avec cette machine qui se prend pour un petit garçon.

En Janvier 2015, un groupe de personnalités du monde industriel et scientifique, dont font partie Elon Musk et le défunt Stephen Hawking, rédigent une lettre ouverte à destination du monde entier afin de mettre en garde l’humanité face au danger que pourrait représenter une IA devenue incontrôlable.

Ce texte pointe du doigt ce que l’on appelle les armes autonomes, c’est-à-dire des drones intelligents capables d’identifier un ennemi et de prendre seuls la décision de le détruire ou non. Pour les cosignataires de la lettre, il s’agit là d’une dérive dangereuse de l’utilisation de l’IA dans le domaine militaire :

"Ce ne serait qu'une question de temps avant que ces armes n'apparaissent sur le marché noir et dans les mains des terroristes, de dictateurs voulant asservir leur population ou de seigneurs de guerre voulant perpétuer des épurations ethniques".

En ce début de XXIe siècle, l’IA fait donc partie de l’actualité et les rapports et études pleuvent sur les conséquences à venir dans le secteur industriel, et les sociétés.

 

Demain un robot « intelligent » ?

Dans les années 50, Von Neumann, l’architecte des ordinateurs modernes, a prédit la « singularité technologique », c’est-à-dire le moment où la machine serait en mesure de dépasser l’homme. Nous sommes à la veille de mettre au point les ordinateurs quantiques, et donc de posséder une puissance de calculs qui permettrait, selon certains futurologues, de réaliser ce basculement. Mais en fin de compte l’intelligence artificielle c’est quoi ?

Définition : « Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine. » - LAROUSSE


Schéma de l'architecture de Von Neumann

L’intelligence d’une machine n’est actuellement que l’extension d’une forme de l’intelligence humaine, qui se caractérise par le fait d’être doué en mathématiques et en logique. Seulement voilà, depuis un certain temps maintenant on s’est aperçu que l’intelligence humaine ne se résumait pas à une seule forme d’intelligence mais à plusieurs combinées entres elles ! Le mot intelligence s’écrit maintenant au pluriel. Ainsi il y a des intelligences émotionnelles, artistiques, de l'espace, etc. Et il serait vain de les comparer. Ce qui permet d’animer un être humain, c’est son libre arbitre, et la conscience qu’il a de soi.

Luc DE BRABANDERE, auteur de l’ouvrage « Homo Informatix », va dans le sens d’une intelligence qui ne pourra jamais être artificielle :

« La véritable IA n'existera jamais, car le monde est inconnaissable. C'est l'histoire du philosophe à qui l'on demande : "Que pensez-vous des Espagnols ?" Et qui répond : "Je ne sais pas, je ne les connais pas tous !" Il n'est pas rationnel d'être à 100% rationnel, or un ordinateur est à 100% rationnel. Ce qui intervient dans la pensée inductive, comme l'intuition ou l'imagination, n'est pas programmable. »

L’intelligence artificielle se limite à ce qu’elle sait faire, elle n’est rien d’autre qu’un outil très perfectionné, véritable extension de l’esprit humain.

L’existence d’un robot que l’on pourrait qualifier d’« intelligent », au même titre qu’un être humain, ne serait donc qu’un rêve inatteignable.

 

L’IA, un outil, plus perfectionné que les autres ?

 L’IA se déploie aujourd’hui dans l’industrie sous la forme de ce que l’on appelle l’industrie 4.0, avec l’automatisation et l’autonomie des chaines de production, et l’interopérabilité des machines. Comme à chaque période de transition technologique, cela suscite une certaine inquiétude car cela va modifier la donne en matière d’emploi. Certains rapports évoquent la substitution de 9% des emplois en France (source : OCDE) voir 47% aux États-Unis (source : Frey & Osborne). Cependant, certaines activités seront difficilement remplaçables, car un opérateur humain sera toujours nécessaire pour garder le contrôle d’une ligne de production ou effectuer le contrôle final de certains types de pièces.

Placer des cartons dans des rangées d’étagères, cela reste simple et automatisable. La forme d’« intelligence » nécessaire à cela restera fondamentalement logique et mathématique. À noter qu’il faudra toujours plusieurs techniciens et manutentionnaires pour veiller au bon fonctionnement de l’ensemble, et intervenir en cas de panne. De même on automatise des supermarchés avec des caisses rapides, mais l’intervention d’un hôte de caisse reste nécessaire pour en assurer le bon fonctionnement, en cas de défaillance.

L’IA tente d’investir de nouveaux domaines jusque-là réservés aux humains. C’est le cas par exemple de l’analyse visuelle dans le secteur de l’imagerie médicale. L’IA est ainsi accueillie par la profession comme un nouvel outil, plus perfectionné que ceux actuellement disponibles, et étant une aide à la décision supplémentaire permettant au radiologue d’affiner son diagnostic.

Dans le domaine de la RH, L’Oréal a mis en place une IA de recrutement pour ses futurs collaborateurs. Le but recherché est de pouvoir pallier à la quantité de candidatures reçues en analysant les profils par l’intermédiaire d’un chatbot. Des questions qui se veulent objectives (disponibilité, niveau d’études, …) permettent alors d’orienter la candidature vers le poste adéquat. Néanmoins, la décision de recrutement reste toujours à l’approbation d’un recruteur « humain ».

Pour l’heure l’IA est nouvel un outil informatique permettant de remplacer l’humain pour certaines tâches simples, ou l’aider dans la prise de décision. Cependant, avec les avancées prévues dans ce domaine et l’attribution toujours plus grandes de tâches à l’IA, il conviendra de légiférer afin de mettre en place des chartes de bonne conduite et d’éviter certaines possibles dérives : armes autonomes, discriminations à l’embauche, …

Crédits photos : Fotolia, Archives, 123rf, Dreamstime

La batterie au Graphène, futur de l’automobile électrique ?

Véhicules électriques, en quête d’une technologie de batterie innovante…

État des lieux

Les performances des batteries des véhicules électriques ont progressé ces dernières années, avec une autonomie accrue et un coût abaissé. Mais au-delà de cette évolution qui va se poursuivre, le secteur cherche encore une innovation de rupture.

Depuis les années 1990, malgré l’amélioration des composants et des procédés de fabrication, les bases de chimie des premières batteries ions lithium n’ont pas évolué. Les chercheurs comme les industriels sont en quête de la super batterie, dont les capacités devraient pouvoir rivaliser avec celles d’un moteur thermique.

À l’heure actuelle, les performances, notamment la densité d'énergie, ont été améliorées par un facteur trois en 25 ans. La progression s'est avérée plus spectaculaire pour le coût, en grande partie grâce à l'industrialisation à grande échelle de la fabrication, au cœur du pari de l'usine géante du constructeur américain Tesla au Nevada.

Pour résumer, le principal problème des batteries actuelles, restent l’autonomie et la vitesse de chargement. Voici le défi technologique, que les chercheurs et les industriels du secteur veulent relever.

Solutions actuelles :

Les véhicules électriques du fait de leurs limitations techniques, ont d’ores et déjà des solutions afin de contourner le problème de l’autonomie et du temps de recharge.

Quelques solutions ont été trouvées comme les prolongateurs thermiques, (voir notre précédent article) ou bien la transformation du véhicule en système fonctionnant sur Pile à Combustibles (PAC). Ces prolongateurs, dont certains fonctionnent au diesel, n’en restent pas moins des systèmes d’assistance.

La véritable rupture viendra de cette technologie tant attendue par les constructeurs, et les automobilistes qui devrait solutionner les deux gros problèmes du véhicule électrique : L’autonomie et le temps de chargement. Cela se traduira par des véhicules électriques affichant une autonomie de 600 à 700 km, et dont les temps de chargement seront très réduits par rapport à aujourd’hui.

Nous allons entrer dans les cinq prochaines années, dans une ère, où l'autonomie deviendra acceptable pour de plus en plus de consommateurs.

En quête d’une technologie révolutionnaire :

La course à la super batterie est ouverte, et de leur côté, les chercheurs continuent à explorer le potentiel des nouvelles technologies. En première ligne les batteries dotées d'un électrolyte solide, et non plus liquide, représentent des candidates sérieuses face aux autres axes de recherche.

Technologie SODIUM-ION

Le sodium-ion fait partie des technologies explorées dans les années 1990, mais finalement délaissées au profit de la technologie lithium-ion qui affichait, à ce moment-là, de meilleures performances. Mais face aux ressources limitées du lithium, les recherches sur la technologie sodium-ion ont repris. Les savoirs faire acquis sur l’ion lithium ont naturellement été transposé au sodium. Les premiers résultats affichés sont très encourageants selon les chercheurs, qui voient là une opportunité d’avenir pour ce type de produit.

Certains composants des éléments ainsi que les procédés de fabrication sont similaires à ceux des batteries Li-ion actuelles. La principale évolution concerne les matériaux actifs des électrodes. La batterie Na-ion pourrait entrer en production d'ici trois ou quatre ans.

L’avantage de cette technologie, est la base de matériaux abondant sur lesquels elle s’appuie, ce qui diminuerait son court global de fabrication et permettrait une production de masse pour le parc automobile mondial. Toutefois, elle ne sera pas en mesure de concurrencer le Li-ion en termes de densité d’énergie (que ce soit par le poids ou le volume). Elle pourrait par exemple être utilisée pour des applications stationnaires pour lesquelles la densité d’énergie n’est pas le critère déterminant. Cela pourrait ainsi concerner le stockage du surplus d'électricité généré par des sources d'énergie renouvelables telles que le solaire ou l’éolien.

Technologie LITHIUM-SOUFRE

Contrairement aux batteries Li-ion où le lithium reste sous forme ionique (Li+), les batteries Li-S possèdent une électrode négative en lithium métallique. Au cours de la décharge, le lithium se dissout à la surface de l'électrode positive après rupture de liaisons chimiques S-S.

Les batteries lithium-soufre pourraient offrir à terme des performances supérieures aux batteries lithium-ion largement utilisées aujourd'hui. En particulier, leur densité d'énergie est potentiellement dix fois plus élevée que celle des batteries Li-ion, avec l'avantage d'une moindre toxicité des matières premières et d'un coût inférieur.

Quelques obstacles techniques restent cependant à franchir : Le soufre étant un très mauvais conducteur, il faut ajouter un matériau conducteur électronique. Mais  la stabilité se révèle excellente en comparaison de celle des accumulateurs Li-S conventionnels : 98 % de la capacité initiale est conservée après cinquante cycles.

Une batterie Li-S contient des matières actives très légères : du soufre pour l'électrode positive et du lithium métallique pour l'électrode négative. C'est pourquoi sa densité d’énergie théorique est extrêmement élevée : elle est en effet quatre fois supérieure à celle d'une batterie Li-ion. Elle convient donc parfaitement aux industries aéronautique et spatiale par exemple.

La batterie solide au Graphène, une piste sérieuse :

La technologie de rupture tant attendue, serait-elle à base de Graphène ?. Il semblerait que les percées scientifiques et techniques concernant cette batterie aient suscité l’intérêt des constructeurs automobiles : Une startup chinoise, viendrait de devancer les grands noms travaillant sur le projet tel que BMW et Fisker en déployant une ligne de production de batteries à électrolyte solide. De son côté, le japonais TOYOTA (Qui figurait parmi les constructeurs les plus sceptiques à passer au tout électrique, et se concentrait exclusivement sur le développement de la PAC)  vise désormais une stratégie dite « tout horizon » et déploiera soit la voiture électrique soit la voiture hydrogène en fonction du besoin et de l’infrastructure du marché local.

Le Graphène en détail :

Dotées d'une meilleure densité énergétique, de taux de charge bien plus rapide, les batteries à électrolyte solide au graphène sont également bien plus fiables et moins dangereuses, avec une plage de température d'utilisation plus élevée, ce qui est particulièrement important pour les environnements en dessous de 0 °C. En clair : ce type d'accumulateur représente l'avenir, notamment en ce qui concerne les véhicules électriques.

Les chercheurs japonais affirment que désormais leur prototype atteint la même durabilité que les batteries Lithium ion actuelles (1000 cycles de charge/décharge), et de pouvoir doubler la capacité de décharge/charge. Le temps de recharge serait réduit à seulement quelques minutes.

Les enjeux économiques :

Dans ce contexte, face aux grands leaders mondiaux asiatiques (Chine, Corée, Japon), les fabricants européens de batteries s'efforcent de se positionner, à l'image du français Forsee Power, qui vient de démarrer la fabrication en série dans une nouvelle usine près de Poitiers.

En 2018, Bien avant son départ de Renault, le PDG de l'alliance Renault-Nissan-Mitsubishi Carlos Ghosn avait d'ailleurs estimé que l'arrivée prévue des batteries solides constituait une "opportunité pour l'Europe". L’idée était de créer "au moins un champion" du secteur pour contrer l'hégémonie asiatique, d'autant plus que la demande en batteries dépasse actuellement l'offre, selon lui. Point de vue repris par son homologue, Carlos Tavares, PDG de de PSA, qui déclare que : "À l’instar des autres constructeurs Européens, nous sommes de fervents supporters de la création d'un champion européen de la batterie. Il faut se donner les moyens de ne pas détruire le tissu de fournisseurs européen en envoyant à l'extérieur de l'Europe 40 % de la valeur ajoutée des véhicules électriques ! ».

Comme l’a souligné Emmanuel Macron en Février 2019 : « En tant que président de la France, je ne peux pas être satisfait d'une solution où 100 % des batteries de mes voitures électriques sont produites en Asie ». La nécessité de créer un Consortium Européen des batteries est donc une priorité, cet « Airbus des batteries » devrait être en mesure de rivaliser avec les géants asiatiques.

En définitive, malgré les obstacles technologiques encore importants sur le chemin des véhicules tout électrique, l’émergence de nouveaux procédés de conception des batteries permettra d’en optimiser l’usage, la durée de vie et l’autonomie. A terme, durant la décennie des années 2020, les véhicules électriques finiront par se démocratiser, au niveau du prix, et leur autonomie deviendra suffisante pour rivaliser avec les véhicules thermiques. Mais la concurrence asiatique est féroce, et l’Europe va devoir relever ses manches pour rattraper son retard. Le premier constructeur qui parviendra à mettre au point la technologie de cette fameuse super batterie, aura non seulement le monopole du parc automobile mondial, mais également des autres secteurs industriels utilisant ce type de matériel. Le défi à relever est à la hauteur des enjeux.

Crédit photos : Fotolia, Shutterstock, Dissolve, 123RF, Dreamstime

Automatismes, robotique et intelligence artificielle, ilots robotisés pour l’industrie

L'industrie du XXIe siècle se dote d'outils de production, performants et novateurs.

Îlots Robotisés, Cobots, et Exosquelettes, de la SF aux applications industrielles.

Depuis des décennies l'industrie ne cesse d'innover au travers de nouveaux outils toujours plus productifs et performants. Les chaines de productions automatisées furent un premier grand pas dans la robotisation de la production, afin de rendre les cadences plus importantes, et de soulager les opérateurs humains de tâches répétitives, pénibles et parfois dangereuses. Mais avec l'évolution des technologies, la miniaturisation de l'électronique et des moteurs, l'optimisation des systèmes de servo-contrôles, ce début de XXI e siècle voit s'amorcer une toute nouvelle révolution industrielle. Trois grandes familles de machines bien distinctes, sont en train de changer le paysage industriel des entreprises : Il s'agit des robots, des cobots, et des exosquelettes.

Les Robots industriels classiques

La robotique classique, est l'ensemble des techniques permettant l'automatisation de certaines tâches, comme par exemple : L'automobile, ou l'industrie pharmaceutique. Jusque-là, l'intervention des robots avait été limitée par la barrière technologique. Sur une chaîne de production, on trouve généralement les ouvriers d'un côté, et de l'autre les îlots robotisés, destinés aux tâches répétitives à haute cadences. L'absence d'interopérabilité entre l'opérateur et les robots nécessite donc que ces derniers soient isolés dans des cages grillagées afin d'éviter les incidents. Dans ce type de schéma, classique, les hommes et les machines sont deux composantes bien distinctes l'une de l'autre, sur la même chaîne de production.

 

Mais vers le début des années 2000, de nouvelles machines plus "intelligentes" ont commencé à faire leur apparition. Tout d'abord, dans le domaine de la recherche purement ludique, on vit sortir des laboratoires de chez Honda, le petit robot ASSIMO, fruit de 14 années de travail et d'évolutions technologiques. L'idée à la base de ces recherches, était de créer un robot pouvant coopérer avec des travailleurs humains sur des tâches difficiles. Le robot classique, simple mécanique asservie à des tâches répétitives, subit alors une évolution vers un matériel plus interactif, avec lequel l'ouvrier pourra directement interagir. Cette nouvelle étape dans l'amélioration de la production, trouve sa source au travers des progrès de l'Intelligence Artificielle. En effet, le simple outil classique, voit sa fonction revue à la hausse en devenant un véritable collaborateur des opérateurs humains sur les chaines de montages.

L'ère des Collaborative Bots ( Cobots)

Alors que les robots sont regardés de plus en plus souvent comme les nouveaux vecteurs d’un chômage de masse, les Cobots proposent exactement le contraire : une machine qui travaille main dans la main avec l’Homme. Dans son usine américaine de Spartanburg (Caroline du Sud), BMW a par exemple installé des Cobots qui travaillent à côté des employés sur les chaînes de montage. Ils s’occupent notamment de l’isolation et de la protection des matériaux électroniques dans les portes des voitures. Des tâches éreintantes que les employés ne pouvaient effectuer plus d’une ou deux heures d’affilée sans ressentir des douleurs aux coudes. Le Cobot est donc un dispositif permettant d’assister les ouvriers dans leurs tâches, et de réduire de manière significative les risques liés aux TMS. Ces assistants d'un nouveau genre, ne sont donc pas là pour évincer les opérateurs humains de leurs postes, mais bien pour les seconder sur des manipulations à risque. Les gains sont importants en termes de productivités et de réduction significative de la pénibilité de certaines tâches.

 

Dotés d'une capacité à remplir des missions plus variées et plus précises que les appareils classiques, les robots collaboratifs sont également plus simples à programmer et à manier. Mais cette interaction entre humain et robot est avant tout rendue possible par des progrès en termes de sécurité. Les machines utilisées traditionnellement dans l’industrie sont retranchées derrières des cages pour éviter les accidents. Avec l'avènement de l'IA de plus en plus perfectionnée, des algorithmes de reconnaissance de forme, et de la vision artificielle, il est maintenant possible d'interagir avec une machine en toute sécurité. Ces opérations concernent encore que certaines activités sur certains type de chaines de montages. Mais avec les progrès technologiques à venir, et la réduction des coûts liés à la maintenance, ce type de machines pourraient arriver sur toutes sortes de nouveaux secteurs dans la décennie qui s'annonce.

L'alternative au Cobot c'est l'exosquelette : En industrie, c'est un dispositif mécanique externe qui supporte et protège l'opérateur, dans la réalisation de taches à risques. Contrairement au Cobot, l’exosquelette ne nécessite pas de système à intelligence artificielle très évoluée, pour communiquer, puisqu'il n'est qu'une extension que l'opérateur humain contrôle à 100%.

L'exosquelette : L’assistant de production, en passe de devenir incontournable.

A l'instar des robots, et de l'IA, c'est l'univers de la science-fiction qui imagine les premiers exosquelettes, d'abord en 1959 avec le Roman Starship Troopers de Robert A. Heinlein, puis ensuite en 1986 où l'on peut voir un modèle d’exosquelette civil réaliste "modèle Caterpillar" dans le film Aliens le retour de James Cameron. Mais plus qu'un rêve, littéraire ou cinématographique, l’exosquelette mécanique est avant tout un objectif à atteindre pour les ingénieurs.

Dans le monde réel, le premier exosquelette fut développé par Général Electrics dans les années 60, il s'agit du Hardiman. Le but était alors de permettre à un opérateur de soulever une charge de plus de 600Kg, et de procéder à son déplacement. La marine américaine, était surtout intéressée par l’utilisation de tels engins pour la manutention des missiles et des bombes sur les navires de guerre. Mais dans le contexte de l'époque, et malgré tout le savoir-faire de l'équipe en charge du projet, la technologie de contrôle restait à inventer. Le complexe et archaïque système permettant de piloter les mouvements de l'appareillage pouvait clairement mettre la vie de l’opérateur en danger. Les photos de l'époque, montrant un homme aux commandes, furent prises alors que le système était hors tension. Avec les innovations technologiques actuelles, le Hardiman, équipé d'un système de contrôle moderne, pourrait maintenant fonctionner sans danger.

D'une manière, plus générale, le concept d’exosquelette est aujourd'hui repris par le secteur industriel civil qui prévoit de l'utiliser à terme dans ses chaînes de production faisant appel à des opérateurs humains. La prévention, la santé et la diminution des risques sur le lieu de travail sont des enjeux majeurs de l'industrie du XXIe siècle, de ce fait, de nombreuses entreprises sont aujourd’hui tentées par l’acquisition d’exosquelettes. Leur usage fait naître un espoir légitime : Celui d’améliorer les conditions de travail des opérateurs grâce à la réduction de la charge physique et des risques liés aux TMS (Troubles Musculo Squelettiques). Les technologies sont encore balbutiantes, et les exosquelettes s’implantent le plus souvent dans les entreprises sous forme de prototypes ou de premières versions à parfaire. Les concepteurs et intégrateurs annoncent leur volonté de déployer rapidement ces nouvelles technologies dans les années à venir.

Credit photos : fotolia, Getty, Shutterstock

Pour en savoir plus