ACFT Certifié conforme par PROVIGIS

ACFT Bureau d’Études est « Fournisseur Certifié Conforme »


Afin de faciliter au maximum les démarches administratives pour nos clients,
nous tenons à tout mettre en œuvre pour garder un dossier légal conforme et à jour.

C'est dans ce cadre que nous avons obtenu le label "Fournisseur Certifié Conforme" auprès de Provigis.

Ce label a pour vocation de prouver notre engagement dans le respect de la réglementation française.

 

C’est un gage de crédibilité, et de confiance, vis-à-vis de nos clients afin de pérenniser nos relations !

 

 

Remplacement d’une unité de recyclage d’huiles

Pose du nouveau groupe de vide

Pose du nouveau groupe de vide

Ancien et nouveau groupe de vide

Étude de remplacement d’une unité de recyclage d’huiles usagées


Dans le cadre de l’amélioration des performances d’une unité de recyclage d’huiles usagées,
ACFT Bureau d’Études a été mis à contribution pour la réalisation de l’étude de remplacement d’un des équipements de l’unité.

 

Ce projet a demandé à nos collaborateurs de mettre à profit leur savoir-faire afin de réaliser ce projet qui incluait les éléments suivants :

 

  • Réalisation de la maquette 3D à partir des relevés effectués sur site,
  • Implantation du nouvel équipement,
  • Etude des raccordements de tuyauteries (définition des Tie-ins, définition des besoins du personnel de production…),
  • Edition des plans et documents permettant la fabrication de l’ensemble des composants du projet,
  • Rédaction des cahiers des charges concernant les travaux,
  • Supervision des travaux de dépose et de pose.

 

Cette affaire s’est réalisée en 3 temps :

 

  • Une partie de relevés sur place et de réalisation de toutes les études (note de calcul, plan de fabrication…),
  • Une partie concernant la rédaction des cahiers des charges et la consultation des entreprises pouvant réaliser les travaux,
  • La supervision des travaux sur le site client.
Implantation de nouveaux équipements sur un site industriel existant

Implantation de nouveaux équipements sur un site industriel existant

Le nouvel équipement et les tuyauteries associées ont été mis en place au mois d’août 2019.
La production a redémarré sans problème tout en augmentant les performances de l’unité.

Retrouvez notre page métier :

Installation générale

Retrouvez-nous sur Facebook, et Linkedin :

Crédits photos : ACFT bureau d'études

IMPRIMANTES 3D la nouvelle révolution industrielle est en marche

imprimantes 3D

Imprimantes 3D,
une nouvelle révolution industrielle
est en marche !


Un peu d'histoire...

La première version de cette technologie de fabrication additive est apparue dès la fin  des années 1970 avec les travaux du chercheur japonais Dr Hideo Kodama. Ce dernier inventa une technique d’impression par couches en utilisant la lumière ultraviolette pour durcir les polymères photosensibles.

En 1983, ce principe, va inspirer Charles Hull, un ingénieur américain, qui travaille dans le moulage de prototype en plastique destiné au milieu médical. Son premier prototype, alliant lumière UV et plastique, est une œillère, destinée aux opticiens. L'idée de base est de réaliser un objet via le dépôt successif de plusieurs couches de résine, puis la polymérisation de celles-ci va les UV. Le procèdé est baptisé stéréolithographie.  Seul problème, l’extrême lenteur  du processus, fait qu'un objet réalisé de cette manière, prendra plusieurs jours. Et pourtant, le procédé de l'impression 3D (malgré l'évolution des techniques) reste identique de nos jours.

 

Le 16 Juillet 1984, trois Français déposent un brevet concernant un procédé de fabrication additive pour la société CILAS ALCATEL. Les trois chercheurs ne seront pas pris au sérieux, car les dirigeants de l'époque ne voient aucun débouché commercial pour cette invention, ce qui mettra un terme au projet. Trois semaines plus tard, Charles Hull dépose le brevet de sa technique de stéréolithographie (nom à l'origine du format .stl), et fonde la société 3D system, qui lance et commercialise, la première vraie imprimante 3D industrielle (la SLA 1) 4 ans plus tard, en 1988.

3D system est aujourd'hui le leader mondial de conception et fabrication d'imprimantes 3D, en 2014 elle annonçait un chiffre d'affaire de 700 millions de dollars.

Alain Le Méhauté, l’un des pères français de l’impression 3D, déclare dans un article  paru en 2014 :

« …durant 15 années je me suis heurté entre autres aux notables et à la commission des titres d’ingénieur, qui ont tout fait pour casser la dynamique d’innovation… »

http://www.primante3d.com/inventeur/

En 2015, de nombreux observateurs estiment que ces technologies prendront une part importante dans la nouvelle forme de production.

 

Impression 3D, les différents procédés.

Il existe trois grandes techniques de base concernant la réalisation d'objets en 3D :
- La Stéréolithographie (SLA),
- le dépôt de matière en fusion (Fused Deposition Modeling – FDM)
- Le forgeage par application laser (Selective Laser Sintering – SLS).

 

La Stéréolithographie

Breveté par Charles Hull, aux états unis, et Alain le Méhauté, avec ses collègues, en France.

Une des formes de la Stereolythographie la plus répandue est la Photopolymérisation (SLA) : on concentre un rayon ultraviolet dans une cuve remplie de photopolymère (un matériau synthétique dont les molécules se modifient sous l’effet de la lumière, la plupart du temps ultraviolette). Le Laser ultraviolet travaille le modèle 3D souhaité couche après couche.
Quand le rayon frappe la matière, cette dernière se durcît sous son impact tout en se liant aux couches adjacentes. Au sortir de la cuve, on obtient une forme à la résolution remarquable et, cerise sur la gâteau, la matière non frappée par le laser peut être utilisée pour le prochain objet.
L’imprimante 3D grand public la plus connue utilisant ce procédé est FormLabs.

Mais on doit à la "Stereolithography" autre chose : c’est le fameux format .stl qui est actuellement le format numérique en passe de devenir le standard dans le monde de l’impression 3D.


 

Fused Deposition Modeling (FDM)

Ce procédé a été inventé par Scott Crump à la fin des années 80 pour voir la première sortie commerciale du procédé en 1991.

Le FDM consiste à porter à la fusion de petites gouttes de matière plastique (Souvent le plastique de type ABS –celui des lego™-) qui créent la forme couche après couche. Une fois que la goutte quitte l’applicateur, elle durcît de manière quasi-immédiate tout en se fondant avec les couches inférieures. C’est le procédé de loin le moins coûteux et c’est sur lui que se reposent aujourd’hui la grande majorité des imprimantes 3D grands publics. Outre le plastique ABS, les plastiques PLA (Polylactic Acid) et d’autres polymères biodégradables peuvent être travaillés depuis ce procédé.

La plupart des imprimantes 3D « abordables » parmi les plus connues utilisent ce procédé notamment celles à l’initiative de RepRap, Solidoodle, LeapFrog, MakerBot ou l’imprimante CubeX.
Une variante existe sous le nom de Plastic Jet Printing (PJP) : il concerne l’ensemble des imprimantes résolument grand public comme la Cube.


 

Selective Laser Sintering (SLS)

On attribue l’invention de ce procédé à Carl Deckard et Joe Beamanand, chercheurs à l’Université d’Austin, au milieu des années 80.
Cette technologie est proche de la Stéréolithographie mais sans la cuve remplie de polymère. Des matières dures (sous forme de poudre) comme le polystyrène, le verre, le nylon, certains métaux (dont le titane, l’acier ou l’argent) ou de la céramique sont frappées par un laser. Là où le laser frappe, la poudre s’assemble pour créer la forme. Toute la poudre non frappée peut être réutilisée pour les prochains objets à imprimer.
L’imprimante la plus connue utilisant ce procédé est la SinterStation Pro SLS 3D printer (Imprimante 3D professionnelle)


Un marché en plein essort

Selon IDC, le marché mondial des imprimantes 3D, services et matériaux associés devrait connaître une forte hausse en 2019, pour atteindre 13,9 milliards de dollars US. En se basant sur un taux de croissance sur cinq ans de 19,1%, le marché devrait avoisiner 22,7 milliards de dollars en 2022.

D’après ces prévisions, les imprimantes 3D et les matériaux associés (plastiques, métaux, résines) devraient représenter des dépenses de 5,3 milliards de dollars et 4,2 milliards. Les services seront un peu à la traîne, avec un montant total autour de 3,8 milliards.

Trois secteurs porteurs de la croissance :

L'industrie, assure plus de la moitié des dépenses dans le domaine.

L’augmentation rapide des vitesses de production, ainsi que des avancées majeures au niveau des matériaux utilisés pour l’impression 3D, permettent à ces technologies de répondre à un plus large spectre d’applications. De ce fait, les industriels ont dépassé le stade du prototypage, et commencent à produire de petites séries grâce à ce procéder.

La médecine, 1,8 milliard de dollars de dépenses en 2019.

Avec la montée en puissance du secteur de la santé, la fabrication d’objets pour les soins dentaires et le support médical arrivent en troisième et quatrième position, suivis par les outils spécialisés. Les taux de croissance les plus élevés devraient s’observer dans l’impression de matériaux biologiques, comme les tissus, organes et os (TCAC de 42,9%), ainsi que sur les prothèses dentaires (TCAC de 33,1%).

L'éducation et la recherche, 1,2 milliard de dollars.

En 2010, Urbee a été la première voiture créée grâce à l’impression 3D. Sa structure principale a été totalement imprimée en 3D, grâce à l’usage d’une imprimante 3D très large. Encore maintenant, la voiture imprimée en 3D est toujours considérée plus comme un rêve que comme une réalité, pourtant, de nombreux acteurs considèrent l’impression 3D comme une bonne alternative aux méthodes traditionnelles de fabrication.

En 2011, Cornell University a commencé à fabriquer une imprimante 3D pour les denrées alimentaires.

En 2014, la NASA a amené une imprimante 3D dans l’espace afin de créer le premier objet imprimé en 3D hors de la Terre.
L'agence spatiale recherche par ailleurs un moyen pour imprimer des aliments en 3D dans l’espace.

 

Quelles perspectives d'avenir ?

les secteurs de la recherche sont plus que jamais, impliqués dans le développement de systèmes d’impression 3D

L'impression 3D a fait son entrée dans le monde industriel depuis déjà des années pour réaliser des prototypes. Et puis,  elle s’est invitée dans la sphère privée, permettant à tout un chacun de réaliser ses propres pièces. Les matériaux de fabrication, quant à eux, sont encore majoritairement limités à la résine, aux plastiques, aux polymères et certains produits alimentaires. Depuis peu, il est possible d’imprimer des petites pièces, avec du métal.

Les progrès avancent de jours en jours, et avec eux les possibilités de fabriquer des objets de plus en plus complexes avec un degré de finition de plus en plus élaboré.
Même si il reste à faire de très grands progrès, l’impression 3D est porteuse de promesses dans les secteurs de la production industrielle, comme chez les particuliers. Par ailleurs, le fait que certains brevets liés à cette technologie soient tombés dans le domaine public, va accélérer les initiatives.

Barack Obama lance à partir de 2013 plusieurs centres de recherches sur le sujet, l’objectif pourrait être de concurrencer de nouveau les marchés émergents comme la Chine, imbattables pour le moment pour ce qui concerne les produits simples et répétitifs, produits à très bas coût. L’économie du transport permettrait de rendre de nouveau viable la production locale grâce à ce type de machine. C’est encore du domaine de la théorie, mais les perspectives sont plus que motivantes. Et Obama l’affirmait lui-même dans des propos repris par Libération :

Cet institut permettra de s’assurer que les emplois industriels de demain ne soient plus en Chine ou en Inde, mais ici, aux Etats-Unis.

Il est donc devenu évident que cette technologie, lorsqu’elle sera mature, va vraiment apporter de gros changements dans tous les secteurs industriels. On voit ainsi déjà se monter des fermes d'imprimantes 3D dédiées à la fabrication d'articles personnalisés de petite et moyenne série. Certaines marques de luxe notamment ont déjà opté pour l'impression 3D pour certains articles, notamment des montures de lunettes. Plus qu'un simple outil permettant de reproduire une pièce cassée à l'identique, l'impression 3D pourrait révolutionner notre rapport à la consommation et participer activement à la lutte contre l'obsolescence programmée.


Et la France ?

Loin de l'époque des années 80 (et des difficultés des pionniers de l’impression 3D, à faire entendre leurs voix quant à la nécessité d'entreprendre des recherches dans le domaine), nous sommes passés aujourd'hui dans une toute autre époque.

Face aux innovations venues d'outre atlantique, les grands acteurs de l'industrie française, l'ont bien compris cette fois : Il n'est plus question de rater le coche comme il y a plus de trente ans. Reste qu'en France, il faudrait faire émerger un marché de la fabrication additive, comme le souligne Olivier Dario (SYMOP), dans un article de l'Usine nouvelle .

Il faut travailler sur les normes, notamment de sécurité et sur les matériaux, c’est l’un des grands chantiers de l’impression 3D. Il faut que les technologies soient plus robustes, aujourd’hui les machines ont encore du mal à répliquer la même pièce. Et il faut développer les cas d’usages pour créer une demande. Les cas d’usages sont encore trop peu nombreux.

La nécessité de ne pas se retrouver distancés par les pays qui investissent le plus sur ces technologies (comme les USA ou encore la Chine), est impérieuse. En France certaines grosses industries utilisent ce procédé de fabrication, mais afin de rester concurrentiels face aux géants d'outre atlantique, il faudrait créer une véritable filière de l'impression 3D.

Crédits photos : Public domain images, freestock photos, fotolia

Assistance technique industrielle

L’assistance technique industrielle,
un enjeu important de l’ industrie 4.0


Le concept de l’industrie 4.0

La troisième révolution industrielle fut l'apparition de l'automatisation et de l'informatique sur les chaines de productions dans les années 60. La production de masse est alors devenue automatique et fiable, mais il lui manquait encore une composante essentielle face à un marché en pleine évolution : L'autonomie, au travers de l'IA.

Le concept d'industrie 4.0 est mentionné pour la première fois au forum mondial de l'industrie de Hanovre en 2011. Dès lors, il va devenir omniprésent dans le monde de l'industrie, qui voit dans ce concept la 4e révolution industrielle, avec l'avènement de l'usine intelligente et des objets interconnectés. La "smart industry" repose sur différentes technologies, telles que :

  • L'intelligence Artificielle
  • L’internet des objets (IIoT*),
  • L'impression 3D
  • La réalité augmentée,
  • La réalité virtuelle,
  • Les cobots
  • Le big data
  • Le cloud
  • et bien d'autres...

L'industrie 4.0, c'est la combinaison efficiente de toutes ces technologies en vue de la réorganisation de l'industrie classique de production de masse.  Les grandes promesses de cette quatrième révolution industrielle sont de séduire les consommateurs avec des produits uniques et personnalisés, et malgré de faibles volumes de fabrication, de maintenir des gains. L'usine intelligente, va donc répondre directement au besoin client, qui, via l'internet et les applications adaptées, pourra configurer son produit, puis lancer en fabrication à l'unité ou en petite série. Par extrapolation, on pourrait imaginer que plus tard, l'utilisateur pourrait même prendre le contrôle des machines de production à distance, pour réaliser son produit en autonomie.


La mise en oeuvre de l'usine 4.0

L’usine 4.0 est aussi un système interconnecté qui relie machines, méthodes de gestion (telles que les Enterprise Resource Planning, ERP) et les produits. Il s’agit de l'organisation d’un “nouvel atelier” qui peut prendre les formes suivantes :

  • Une usine innovante
  • Une usine totalement digitalisée
  • Une usine flexible
  • Une usine tournée vers ses acteurs externes
  • Une usine responsable sur le plan sociétal
  • Une usine économe et responsable sur le plan environnemental

L’autonomie des lignes de productions bouleverse également de nombreux secteurs et réorganise la vie de l’entreprise, en modifiant les corps de métiers et les affectations d’une partie des salariés à leurs postes de travail. Outre les nouveaux emplois, en maintenance ou en automatisme par exemple, qui émergent de cette nouvelle organisation des chaines de production, la demande en R&D et en assistance technique industrielle, devient prépondérante.

La transition de l'ancien modèle de production vers le nouveau, ne pourra pas se faire sans l'intervention d'une main d'oeuvre humaine et qualifiée. De même, la maintenance de ces lignes de productions "tout automatique" aura besoin d'études régulières pour faire évoluer ses lignes de production, et nécessitera un service d'assistance technique industrielle réactif et compétent.

 


Evolution de l'outil de production classique vers un système 4.0

Pour une entreprise classique, la phase de transition vers une production intelligente doit se faire après une analyse précise du terrain, à savoir une étude approfondie de l'outil de production existant, et une étude de marché visant à définir l'évolution des besoins clients.

L' anticipation de tous ces changements très importants doit se faire au travers de l'expertise de professionnels qualifiés appartenant à différents corps de métiers. Chacun des intervenants devra travailler en étroite collaboration avec les autres afin de rendre optimale la finalisation du projet de mise à jour.

L’assistance technique industrielle, propose une gamme de service allant de l’analyse d’une ligne de production existante, afin d’en améliorer le fonctionnement, où bien le développement d’une toute nouvelle ligne de production autonome dédiée aux nouveaux process client. Quel que soit la solution choisie, il faudra également former le personnel à l’utilisation de ces nouveaux outils.

Après avoir réalisé l’implantation d’un nouveau système, des techniciens et opérateurs seront formés à l'utilisation de la nouvelle ligne de production.

 


Un nouveau rôle pour les opérateurs

Lorsque la mise à jour ou le remplacement de l'outil de production est achevé, le rôle des opérateurs va évoluer, afin de répondre au mieux aux besoins inhérents à ces améliorations des moyens industriels.

En exemple, le concept de closed door machining consiste à équiper une ligne de production de machines autonomes, capables d’enchaîner des phases d’usinage en continu avec le minimum d’intervention humaine. En déployant les processus et la supervision ad hoc, il permet de faire fonctionner les lignes 24 heures sur 24 et 7 jours sur 7, de mieux anticiper l’organisation des tâches de l’atelier, et de limiter les risques pour les personnes comme pour la production lors de la manipulation des pièces et matériaux.

Dans cette perspective, le rôle de l’opérateur évolue : il monte en compétences pour devenir un pilote d’îlot, capable de conduire plusieurs machines à la fois. Grâce à l’implantation de systèmes de communication adaptés (grand écran, tablette…), l’opérateur se concentre notamment sur les tâches de supervision et de contrôle à forte valeur ajoutée pendant que les machines travaillent en autonomie.


Maintenance et évolution des lignes de production 4.0

L’évolution des technologies et des process de fabrication vont très vite, il faut rester en permanence à l’écoute du marché afin de suivre ses évolutions, ses contraintes et ses opportunités. Pour cela, il faudra assurer la maintenance, la formation des opérateurs, mais également une mise à jour régulière de l'outil de production. Les disciplines concernées sont variées :

  • La mécanique
  • L'instrumentation
  • La programmation d'automates
  • La maintenance électrique
  • La maintenance des îlots robotisés
  • Le déploiement de nouveaux systèmes informatiques

C’est en ce sens, que les bureaux d'études spécialisés dans l’assistance technique industrielle, révèlent leur expertise. En effet, cela va permettre de conserver la ligne de production à un haut degré de fiabilité, en procédant à des mises à jour régulières, en faisant intervenir des techniciens qualifiés qui sauront maintenir l’outil de  production à son niveau de performances maximales. Dans une industrie 4.0 où tout va très vite, il faudra également être continuellement à l'écoute du marché, afin d'anticiper les besoins, et adapter les outils.

Par ailleurs, le personnel de gestion et les opérateurs sur site, devront être formés en continue pour suivre les améliorations de leur outil de travail, et maintenir, un haut degré de compétence.

 


L’assistance technique industrielle,
moteur essentiel du maintien de l’outil de production de l'industrie 4.0

L’autonomie complète des machines a ses limites, même si les technologies ont beaucoup évolué dans ce sens ces 20 dernières années, l’IA, comme les machines interopérables, interconnectées, et autonomes, ont une limite à leur champ d’action.

Pour que tout fonctionne bien, il faudra toujours des opérateurs humains à la supervision de l’ensemble, afin de surveiller la bonne tenue de route des opérations. L’assistance technique industrielle, et ses personnes qualifiées sont les éléments de développement indispensables à la nouvelle industrie 4.0, qui plus que jamais nécessite une supervision, et une maintenance continue.

Les phases importantes que représentent la R&D, la fabrication, puis la mise en production, sont indispensables, à l'évolution continue des outils de production. De même, l' amélioration constante des process industriels restera nécessaire. Et cela seuls des humains peuvent le faire, aucune machine actuelle ne saurait se reconfigurer elle-même pour répondre aux besoin d’un marché dont les humains sont les acteurs.

 

*Industrial Internet of Things

Crédits photos, fotolia, 123 rf, dreamstime

Vous voulez nous rejoindre pour participer à nos projets ?

Étude Constructions métalliques, 2 cuves de rétention d’adjuvants de 40m3

Étude Constructions métalliques,
2 cuves de rétention d'adjuvants de 40m3


Nous sommes intervenus dans le cadre d'un projet de mise en place d'une nouvelle rétention pour un de nos clients.
Le besoin était de réaliser une rétention en acier pour accueillir 2 cuves d'adjuvants d'une capacité de 40m3.

Nous avons réalisé :
- L'avant projet
- Le projet
- Les plans d'exécutions
- La sélection technique du constructeur

Une nouvelle réalisation d'envergure pour notre département Construction Métallique.

Retrouvez notre page métier :

Constructions métalliques

Inauguration de nos nouveaux locaux de GONFREVILLE L’ORCHER

ACFT Gonfreville l'Orcher, soirée d'inauguration de nos locaux


Nous avons inauguré nos nouveaux locaux de GONFREVILLE L'ORCHER le 18 décembre 2019 en présence de plusieurs personnalités officielles :

- La Région Normandie a été représentée par M. Hubert DEJEAN DE LA BATIE,
- Le Maire de GONFREVILLE-L’ORCHER, M. Alban BRUNEAU,
- Le Vice-Président de « Le Havre Seine-Métropole », M. Florent SAINT-MARTIN.

Étant en plein développement et à la recherche de plusieurs compétences pour mener nos projets d’ingénierie, le Pôle Emploi d’HARFLEUR qui est fortement sollicité dans le cadre de cette croissance était également présent à cette inauguration.

Cette inauguration a été l’occasion de communiquer sur nos compétences pluridisciplinaires ; c’est-à-dire mécanique, construction métallique, tuyauterie, chaudronnerie, électricité, instrumentation, automatisme, infographie.

ZAC Gennevilliers – Passerelles métalliques

ZAC Gennevilliers, réalisation de passerelles métalliques


Dans le cadre de l’élaboration de la ZAC de GENNEVILLIERS, ACFT Bureau d’Études a été mis à contribution pour la réalisation de passerelles.

Le client direct d’ACFT Bureau d’Études est un fabricant et installateur de gardes-corps et de moyens d’accès (échelles, escaliers).

Ce projet a demandé à nos collaborateurs de mettre à profit leur savoir faire afin de répondre aux exigences du client final qui souhaite, en plus des contraintes particulières sur ce genre d’équipement, que celui-ci ait un esthétisme poussé et notamment qu’aucune fixation ne soit apparente.

L’objectif a donc été de réaliser 2 passerelles différentes servant chacune à relier les terrasses de 2 bâtiments : 1 passerelle droite et 1 passerelle avec escaliers.

 

Ces passerelles répondaient à un cahier des charges précis :

  • Le plancher doit être en bois
  • Le dessous de la passerelle doit être habillé par de la tôle en aluminium
  • Mise en place d’évacuation d’eau sous le plancher de la passerelle
  • Les gardes corps doivent être en bois (avec aucune fixation apparente).

Afin de réaliser les garde-corps en bois, il a fallu réaliser des montants en tube avec des perçages afin de les fixer sur la charpente de la passerelle. L’habillage bois a ensuite pu être apposé.

 

Cette affaire s’est réalisée en 3 temps :

  • Une partie de relevés sur place pendant laquelle notre collaborateur a été mis en relation avec notre client et le client final,
  • Une partie de mise en plan sur le site de GONFREVILLE L'ORCHER,
  • La réalisation de notes de calculs sur le site d’ELBEUF afin de valider l’ossature métallique de la passerelle et de l’escalier (dimensionnement, vérification des assemblages et de la stabilité globale, définition de la descente de charge, …)

 

Ces passerelles ont été mises en place courant 2019.

En savoir plus sur les constructions métalliques ?

Consultez nos pages métier :
Constructions métalliques

 

Consultez les pages Facebook :

Facebook ACFT bureau d'études

Facebook ACFT Construction

 

Journée SSE du 04/10/2019

Journée SSE du 04/10/2019


Cette seconde journée SSE de l’année a été l’occasion de présenter notre nouveau
collaborateur en Construction Métallique au reste de l’équipe.

 

Cette nouvelle embauche nous permet de renforcer notre activité en Construction Métallique.

 

Nous souhaitons la bienvenue à François.

ACFT Bureau d'Études est certifié MASE depuis 2013

 

 

Seconde Journée SSE 2019


Deuxième journée SSE

Après une première journée SSE ayant permis de démarrer l’année en présentant les objectifs de la direction ainsi que les objectifs individuels, celle-ci a permis de suivre l’avancement de ces objectifs.
Comme il est de coutume lors de ces journées, l’accueil a été convivial et a permis à chacun de se retrouver et de discuter de différents sujets.

La journée a débuté par un tour d’horizon des actualités de la société puis des actualités en matière de SSE.
Puis tout le monde a pu échanger autour de deux causeries :

  • Les kits d’intervention
  • Les extincteurs

avant une pause déjeuner bien méritée :

L’après-midi a débuté par 2 nouvelles causeries :

Pour conclure cette journée, une formation sur les gestes et postures a été dispensée afin de former les collaborateurs aux bonnes positions à adopter au poste de travail avec quelques exercices d’échauffement et d’étirements

Logiciels de DAO, CAO, FAO, 60 ans d’évolution.

Les logiciels de CAO, DAO, FAO, …
retour sur les 60 ans d’évolution de ces outils
qui ont changé le monde de l’industrie.

Le concept remonte à la fin des années 50 : avec les progrès de l’informatique, des ingénieurs jettent les bases de ce qui deviendra plus tard le premier logiciel de CAO. Au tout début les logiciels tournent sur des machines énormes, pesant plusieurs tonnes, pour se réduire en fin de compte à des mini stations portables au XXIe siècle. Retour sur ce qui fut le départ d’une révolution dans le secteur de la conception industrielle.

Patrick Hanratty et Ivan Sutherland sont crédités comme étant les pionniers de la CAO moderne, ce sont leurs travaux pratiques et théoriques qui vont permettre au fil du temps l’émergence d’outils destinés à simplifier et améliorer la fabrication et la conception de pièces industrielles. Et tout cela à l’aide des technologies informatiques encore balbutiantes du début des années 60.

Patrick Hanratty

Développeur de ADAM, premier logiciel CAO compatible multi-systèmes.

Ce système fait aujourd’hui figure du premier vrai standard en CAO

Ivan Sutherland

Concepteur et théoricien du système SKETCHPAD,

il est à l’origine des systèmes d’interface graphiques dédiés à la CAO.Années 1950

En 1957, Patrick J. Hanratty développe le programme PRONTO pour General Electric. C’est de cette façon que voit le jour le premier langage de programmation de contrôle numérique de l’histoire.

 

Années 1960

Au début des années 60, Ivan Sutherland, au travers de sa thèse de doctorat, propose un concept novateur de système informatique capable d’afficher des plans sur écran qu’il serait possible de manipuler à l’aide d’un stylo optique. La seule limite reste l’informatique de l’époque, encore embryonnaire mais les concepts d’interface graphique et de modélisation 3D débutent à ce moment-là.

Durant la décennie des années 60 jusqu’au milieu des années 70, la CAO est réservée uniquement aux très grosses entreprises (IBM, Lookeed Martin, Honeywell, NASA, Dassault,...) qui développent en interne des solutions propriétaires.

Années 1970

En 1971, Patrick J. Hanratty se lance dans l’écriture du code d’un nouveau logiciel de CAO nommé ADAM, ce système de conception graphique, de dessin et de fabrication interactif a été écrit en Fortran et conçu pour fonctionner sur pratiquement toutes les machines. Ce succès retentissant a ensuite été mis à jour pour fonctionner sur des ordinateurs 16 et 32 bits. Aujourd'hui, 80% des programmes de CAO trouvent leurs origines dans le programme ADAM.

En 1972, Ed Catmull et Fred Parke réalisent la Première animation 3D, d'une main et d'un visage, à l'aide d'un logiciel qu'ils ont développé.
Catmull, va ensuite travailler chez ILM et deviendra plus tard un des fondateur de Pixar.

1975 Martin Newell veut tester des algorithmes de rendus 3D, dans le cadre de son doctorat. A l'époque il n'existe pas beaucoup d'objets 3D complexes, et l'accès à ces objets semble très compliqué.
Newell décide donc de concevoir son propre objet 3D afin de pouvoir réaliser ses tests. Pour ce faire, il digitalise manuellement une théière, en utilisant les courbes de Bézier.
Du fait de sa complexité, ce modèle va devenir célèbre, on le retrouve aujourd'hui dans de nombreux logiciels, en tant qu'objet standard.

En 1977, Digital Equipment Corporation (DEC) lance le VAX 11/780 exécutant le système d'exploitation VMS à mémoire virtuelle 32 bits. Ces machines seraient utilisées pour le traitement par lots, le partage du temps et l'informatique en temps réel. Ils sont vendus avec un réseau informatique intégré et des méthodes normalisées pour dialoguer entre les langages de programmation. Cette machine est un concurrent sérieux pour l'IBM 360 qui domine le marché de la CAO.

La même Année Dassault System system lance CATI, Lookeed Martin lance CADAM.

Suite au rachat de United Computing par l’avionneur Mac Donnell Douglas en 1976, le logiciel ADAM va subir une refonte complète pour devenir Unigraphics R 1.0 (NX) de Siemens qui est lancé en Avril 1978. Les systèmes de CAO se développent et sont utilisés par l'aérospatiale, le secteur automobile et les industries. Les systèmes permettant de faire fonctionner un logiciel de CAO, sont en train de passer sur des « mini-ordinateurs », il faut comprendre qu'une machine de ce genre, pèse environ 500Kg, et qu’il faut envoyer plusieurs techniciens pour la déployer chez le client. Le chargement des logiciels se fait ensuite via des bandes magnétiques. Nous sommes encore à des années lumières de ce que nous connaissons aujourd’hui.

Années 1980

L’IBM PC lancé en 1981, va changer la donne en propulsant la CAO à grande échelle. Son atout le plus important est son prix, ce qui va permettre une démocratisation rapide de la CAO dans de nombreuses sociétés de moyenne et petite taille. C’est à cette époque que les premières versions des logiciels actuels vont voir le jour. L’avènement de la micro-informatique grand public des années 80, va donc considérablement réduire la taille des énormes systèmes jusque-là utilisés pour faire fonctionner les complexes logiciels de CAO. Unigraphics en version 2.1 est porté sur la gamme DEC VAX.

1982, voit la création de SUN Microsystems. SUN a contribué à populariser UNIX pour l'informatique scientifique. Chaque poste de travail, qui pouvait prendre place sur le bureau d’un ingénieur, contenait un processeur, un périphérique graphique ou un terminal et des périphériques d’entrée. Ils étaient faciles à mettre en réseau pour faciliter le partage et l’accès aux données et au traitement. Les postes de travail UNIX individuels seraient aux finals beaucoup plus puissants qu'un mini-ordinateur 11/780 ou un IBM 360.

 

Toujours en 1982, un groupe de programmeurs créent la société Autodesk, et son fameux logiciel AutoCAD. La première version d’AutoCAD est annoncée en novembre lors du salon Comdex de Las Vegas et fera l’objet de démonstrations sur un Z80, un Victor 9000 et un IBM. Elle sera livrée aux premiers clients dès décembre de la même année.

1982, c'est aussi le début de l'utilisation de la CAO au cinéma, avec le film TRON de Walt Disney. Le Logiciel qui permet de réaliser une partie des scènes véritablement synthétiques est SynthaVision de chez MAGI.
Ce n'est pas encore un logiciel de CAO vraiment destiné à l'industrie cinématographique, mais ses capacités de modélisation à base de polygones se prêtent bien aux besoins de l'industrie graphique naissante.

 

A l'époque, un ordinateur central CRAY disposait de 8 Mo de mémoire pour un coût de 7 millions de dollars. Pour TRON, chaque rendu nécessitait 18 Mo de mémoire.
Ainsi, même sur un CRAY, les animateurs n'auraient pas pu visualiser une seule image, quel que soit l'ordinateur utilisé, il ne pouvait restituer qu'une seule ligne de balayage à la fois.
Pour voir le résultat final de l'image, il fallait attendre que les lignes soient combinées ensembles, véritable travail de titan pour l'époque.

L'engouement pour l'image de synthèse au cinéma atteint son sommet en 1984, avec un petit film de SF devenu culte depuis : The Last Starfighter.
Comme TRON, ce film est un des pionniers du genre à inclure de la vraie image de synthèse
(300 scènes, soit plus de 27 minutes de pure CGI, avec un format d'image de 5000 x 3000 pixels) pour des séquences réalistes de combat spatiaux.
Pour venir à bout de ce travail titanesque, il aura fallut : 1 CRAY XMP,  2 DEC VAX 11/780 et 120 Stations de travail IMI 500.

Malgré la prouesse technique, le monde du cinéma  de l'époque a encore du mal à croire que la CGI deviendra le fer de lance des effets visuels.

A partir de 1985, des gammes de machines compactes, très puissantes et de moins en moins chères vont faire leur apparition.
L’AMIGA 1000 est le premier vrai système multimédia de l’histoire, sa carte mère inclue un jeu de processeurs dédiés pour le son l’image, l’animation, afin de décharger le processeur principal.
L’atout majeur de cette gamme de nouvelles machines est le prix, qui reste abordable au grand public.

C'est sur cette machine que seront développé les logiciels de 3D : Cinéma 4D et Lightwave 3D. Logiciels à la base des effets visuels de nombreuses séries TV des années 90 / 2000

La CAO à destination de l’industrie cinématographique et du divertissement se développe en 1986, avec l'apparition de Softimage 3D par Daniel Langlois à Montréal.
Softimage 3D est le pionnier des logiciels commerciaux de CAO dont la cible est l'industrie du cinéma.

C’est ce fameux logiciel de 3D qui servira (entre autres) aux effets spéciaux des films Abyss et Jurassic Park. Le logiciel qui tourne alors sous UNIX, nécessite une machine très onéreuse pour pouvoir fonctionner (Silicon Graphics de Sun). Pour l'époque son interface utilisateur est novatrice.

Dans le domaine de la CAO industrielle, les améliorations sont beaucoup moins notables, surtout en ce qui concerne l'ergonomie des interfaces utilisateurs. Le paradigme des interfaces des logiciels de CAO à l'usage de l'industrie du divertissement vont grandement inspirer les futurs développements de ceux de la CAO industrielle.


AutoCad 2.18 (1986)

En 1988, Unigraphics porte sa solution NX sous UNIX, cela marque le début de la fin des gros mainframes propriétaires(1) .

L’année 89, marque un tournant dans la CAO, avec la version 1.0 de Pro / Engineer.

Il introduit la modélisation paramétrique(2) des solides, basé sur les fonctionnalités. Un paradigme que tous les systèmes de CAO courants copient. Pour la première fois, la modélisation solide devient une alternative productive à la modélisation filaire. Les responsables techniques peuvent désormais acheter un poste de CAO sans l’approbation du département MIS (Département Méthodes pour l’ingénierie des systèmes.)


Pro Engineer Release 1.0 les logiciels de CAO entrent dans l’ère de la 3D paramétrique.

De son coté, Lookheed Martin propose son logiciel CADAM à la vente, et IBM le rachète. Il faut préciser qu’à cette époque, Lookeed utilise déjà CATIA pour ses projets avancés, CADAM son logiciel propriétaire n’a plus vraiment d’intérêt stratégique. CATIA se révèle être bien plus avancé en terme de conception puisqu’il intègre depuis longtemps une véritable vue en 3D, ce qui n’est toujours pas le cas de CADAM. La fin de la décennie 80 voit aussi une évolution majeure dans l’utilisation des systèmes CAO par l’abandon progressif des mainframes propriétaires qui,  jusque-là permettaient de faire fonctionner les logiciels.

Années 1990

En 1990, dans le domaine de la CAO ludique Autodesk lance le logiciel 3D studio sous MSDOS. D'abord situé sur le même segment de marché que Lightwave et cinema 4D, le logiciel va connaitre une certaine notoriété auprès des professionnels, et du grand public.


1991, 3D studio sous MSDOS de chez Autodesk. L’infographie 3D ludique, se démocratise en se déployant sur un simple PC.

En 1993, Spielberg, réalise le film Jurassic Park, après avoir regardé des séquences en stop motion classique et les mêmes séquences en CGI, il opte pour une version tout numérique pour animer les monstres préhistoriques. C'est Softimage 3D et sa collection d'outils, qui va permettre cette prouesse technologique. Cette fois le monde de l'industrie cinématographique, est convaincue que la technologie de CAO est mature pour les effets visuels au cinéma.


Softimage 3D en 1993

L’arrivée des processeurs Pentium de chez INTEL en 1992 sonne le glas des mini-ordinateurs et des stations de travail très onéreuses fonctionnant sous UNIX et autre. L'ensemble des logiciels de CAO qui fonctionnaient sous de gros systèmes et des stations de travail coûteuses, va commencer à migrer massivement sur PC. Tous les secteurs de l'industrie sont maintenant concernés.

Microsoft rachète Softimage en 1994, et décide de le porter sous windows NT, mais ne le rends pas plus accessible à un large public d'utilisateurs.


Solidworks95, en plus de la modélisation ce nouveau logiciel va intégrer de puissants outils de modélisation.

La société Solidworks sort ainsi son logiciel en 1994. Celui-ci permet outre le dessin technique de concevoir des ensembles et sous-ensembles 3D très complexes, proche d’un process de fabrication. Des fonctions supplémentaires comme la simulation de test de résistances des matériaux, en font un outil incontournable du secteur. Ce concurrent de CATIA est racheté par Dassault Systèmes en 1997.

En 1995, un logiciel de 3D à but ludique fait son apparition : Blender. A l'origine développé sur AMIGA sous le nom de "Trace", son auteur Ton Roosendaal, décide de créer un logiciel Open Source. Il obtient des fond et ouvre la société NaN en 1998 pour développer et partager Blender.

La CAO entre dans le monde de l'Open source avec Blender, un petit logiciel qui va devenir la référence en la matière.

En 1998, CATIA de chez Dassault Systèmes abandonne à son tour le monde mainframe, et s’installe sous UNIX et Windows NT.


CATIA V5.0

En 1996, PIXAR sort le premier film entièrement en images de synthèse : Toy Story, résultat des dix ans de développement de son logiciel RENDERMAN. L'industrie du divertissement, envisage maintenant la CAO comme un outil de production fiable dont les résultats permettent de réaliser d'impressionnant effets  spéciaux.

Toujours en 1996, Autodesk, lance 3D Studio Max R1.0 sous windows. L'interface logicielle très ergonomique, permet la modélisation et l'animation dans un seul produit.
L'aspect ludique, fait que le produit se place alors parmi les premiers de cette période. La communauté utilisateurs devient très importante, et développe ensuite des plugins pour améliorer les capacités.
Par ailleurs le logiciel propose un système d’animation de personnage pré-paramètré dans son éditeur : Character Studio. C’est une petite révolution dans le domaine de la production cinématographique, mais aussi dans le monde du jeu vidéo. C'est la facilité d'accès à 3D Studio (Dos et Windows), et son côté ludique adapté aux jeux vidéos,  qui va permettre à tout un public de passionnés de se former, contrairement à des outils comme Softimage fonctionnant sur des supports totalement inaccessibles.

En 1999 Autodesk lance Inventor, qui devient un concurrent sérieux en termes de fonctionnalités, pour CATIA, Solidworks et Unigraphics.

Années 2000

Le portage sur Windows NT des grands logiciels de 3D va participer à la démocratisation de ceux-ci. Une énorme communauté d'utilisateurs et de passionnés va créer des bibliothèques gratuites d'objets 3D sur internet. Les principales améliorations de cette décennie se font au niveau de l’affichage en temps réel d’un nombre très important de pièces dans les ensembles et sous-ensembles. La puissance des stations de travail autonomes au travers des nouvelles cartes graphiques permettra l’affichage d’ensemble très complexe, et le début des simulations en temps réels.

Microsoft arrête Softimage à sa version 4.0 en 2002, au profit de sa version réécrite plus spécifiquement pour NT : Softimage XSI.

CATIA V6 2008 - Dassault system

En 2008, CATIA V6 permet de réaliser une maquette numérique fonctionnelle, au travers d’une simulation. Cette maquette numérique complète du produit prend en compte toutes les vues que nécessite le développement produit : les exigences autant que les définitions fonctionnelles, logiques et physiques.

Dans le domaine de la CAO ludique, c’est une véritable explosion de nouveautés proposant toutes des fonctionnalités différentes et de plus en plus ergonomiques. Le monde de l’open source, va finir d'imposer Blender, qui va devenir le standard de ceux qui souhaitent pouvoir faire de la 3D gratuitement.

En 2008 Autodesk rachète Softimage et commence l'intégration de sa technologie à sa suite de logiciels, occupant le même segment de marché : Maya et 3dsmax

Années 2010

L’arrivée d’internet depuis plus de 10 ans et les améliorations constantes des services en ligne vont voir apparaître des applications de CAO en ligne pouvant exploiter la technologie du Cloud.

Dans la décennie des années 2010, le site GrabCad est créé. Il permet le partage via une communauté d’utilisateurs, d’objet 3D normalisés. Et avec le cloud, il est désormais possible à un ingénieur de travailler avec son PC portable depuis n’importe où. A noter, l'apparition d'applications de 3D temps réel, tels que Unity, openspace 3D,  permettant la navigation au sein d'un univers virtuel.


Station de travail autonome (Modèle HP)

Solidworks

En 2012 Autodesk lance Autodesk 360 et l’utilisation du cloud dans le flux de production de ses suites logicielles.

Des applications dédiées aux smartphones et tablettes voient le jour tel que 3D AP en 2013. Il est maintenant possible de visualiser une pièce 3D complexe depuis un appareil qui tient dans la main.
Google sort l'application en ligne Sketchup, qui permet de créer rapidement des objets 3D.


Sketchup de Google

En 2014, Autodesk annonce l'arrêt définitif du développement de Softimage XSI. La décision fait polémique, les professionnels de la CGI expliquent qu'Autodesk aurait racheté Softimage pour récupérer sa technologie.
Mais le logiciel semble surtout avoir été victime de son inaccessibilité au grand public, contrairement à ses concurrents. Autodesk, va cependant maintenir le logiciel Softimage jusqu'en 2016,  puis le retirera progressivement du marché au profit de Maya et 3Dsmax qui hériteront d'une grande partie des ses aspects techniques.

En 2015, ONSHAPE, lance un système de CAO depuis le cloud.


ONSHAPE

La CAO a fait son entrée dans le grand public, il est désormais possible de concevoir en quelques clics des maquettes virtuelles complexes, grâce à des outils simples, ergonomiques et très puissants.
Les applications sont nombreuses, et des innovations ont fait leur apparition comme l'impression en 3D, à partir d'objets virtuels. En effet, il est aujourd'hui possible dans le cadre industriel et personnel, de concevoir des prototypages, et des mini séries d'un produit, en très peu de temps.

Années 2020…20XX…

La complexité des fonctions et des applications liées aux logiciels de CAO / DAO reste dépendante des machines qui les font tourner. On peut imaginer, avec l’avènement de l’informatique quantique, la conception temps réel d'ensembles très complexes. Et grâce à la réalité virtuelle augmentée, permettre au concepteur de simuler son fonctionnement. De même, après avoir conçu l'ensemble dans un système virtuel, il sera possible au technicien, de le réaliser dans le monde réel via une imprimante 3D, en très peu de temps.

(1) Mainframe : Désigne un ordinateur centralisant toutes les données, auquel sont connecté des terminaux. Le mainframe, est capable de faire tourner des dizaines de systèmes d'exploitation simultanément. Le terme désigne particulièrement les machines type IBM 360/370. Progressivement remplacé par des systèmes plus petits dans les structures de tailles moyennes,  le mainframe, est encore utilisé aujourd'hui par les très grosses entreprises.

(2) Modélisation paramétrique : Le paradigme de modélisation paramétrique répond à une approche de conception technique et fonctionnelle. Le concepteur doit avoir une idée relativement précise de ce qu'il va faire pour anticiper et définir les contraintes des fonctions et les dépendances. Toute modification de la conception est ainsi répercutée en aval, d'une manière prédéfinie. 

Crédits photos : Public domain images, freestock photos, fotolia, National archives, NX Siemens, Solidworks, Sketchup, CATIA.

Pour aller plus loin :
https://fr.wikipedia.org/wiki/Th%C3%A9i%C3%A8re_de_l%27Utah
https://fr.wikipedia.org/wiki/Edwin_Catmull
https://fr.wikipedia.org/wiki/Starfighter_(film)
https://fr.wikipedia.org/wiki/Computer_Augmented_Design_And_Manufacturing
https://en.wikipedia.org/wiki/Cray_X-MP
https://en.wikipedia.org/wiki/VAX-11

 

Intelligence Artificielle, un nouvel outil dans l’industrie

Intelligence Artificielle, un nouvel outil dans l'industrie

Après avoir rendu possible l’extension de son corps avec la mécanique classique et la création d’engins roulants, volants et flottants ; l’homme a voulu aller plus loin en prolongeant ses capacités cognitives avec les ordinateurs.
Après avoir longtemps appartenus à l’univers de la science-fiction, le mythe de l’ordinateur autonome et capable de conscience serait-il en passe de se réaliser prochainement ?

On parle aujourd’hui d’intelligence artificielle, voire de machines supposées remplacer l’humain. Certains parlent de 30% d’emplois qui seront remplacés dans un avenir proche par des robots, d’autres prédisent l’apparition d’une singularité technologique, c’est-à-dire le moment où la machine pourrait devenir autonome. Les dernières avancées technologiques semblent aller dans ce sens (véhicules autonomes, assistants vocaux, …) même si nous sommes encore loin d’y arriver.

 

Un peu d’histoire…

En 1936, Alan Turing avec son essai « la machine de Turing », va initier la première génération d’ordinateurs. Il va en théoriser tout le potentiel au travers de ses écrits. C’est ici que vont naitre les concepts de cybernétiques et d’ordinateurs intelligents. À partir de cette époque, et de manière spéculative, on imagine qu’il serait possible de construire une machine autonome, voire pensante.

 

Les machines des générations suivantes, tels que l’ENIAC ou l’IBM 704, de par leur conception et leur vitesse de traitement, font faire des progrès au monde de l’informatique. Mais leurs systèmes électromécaniques à ampoules vont, pour un temps, ranger la promesse de l’IA et ses fabuleux potentiels dans les tiroirs des œuvres de la science-fiction.

En 1965, Gordon Earl Moore (un des père d’IBM), parle de doubler la capacité du nombre de transistors sur les microprocesseurs tous les ans. C’est ainsi que va naitre la fameuse « première loi de Moore », qui démontrera son exactitude de 1971 à 2001.
La vitesse de traitement des machines évolue au cours des années 70, avec l’apparition des premiers microprocesseurs tels que l’Intel 4004, et une nouvelle étape technologique est franchie. Puis, au début des années 1980, Richard Feynman évoque la possibilité de construire un ordinateur quantique, ce qui aurait pour effet de décupler la vitesse des calculs.

Les premières expérimentations ont lieu dans les années 90 avec de petits calculateurs expérimentaux dits quantiques, mais à partir de 2007, D-wave system annonce avoir construit une machine de 16 Quantum Bits. En 2019, l'entreprise a dévoilé un système à 2000 qubits.
Le seul problème reste encore la taille du dispositif et son encombrement. Aujourd’hui les projets concernant le sujet sont légions, certains prédisent l’avènement du tout quantique pour les années 2020. Quand cette machine sera opérationnelle, elle offrira une capacité de calculs inimaginable pour les machines classiques. De fait, l’IA trouverait un socle prometteur pour pouvoir se développer.

Programmes, Algorithmes, IA et Science-fiction

Dès les années 1940, Isaac Asimov, un des patriarches de la SF moderne, publie des nouvelles d’anticipation mettant en scène des histoires de robots. Asimov modernise ici le thème mythique et séculaire du Golem, et propose tout l’éventail des problématiques scientifiques et philosophiques se posant autour de ce sujet. Conscient de ce qu’il pourrait advenir des sociétés humaines lors de la création effective de telles entités, il développe les trois lois de la robotique, afin de concevoir un cadre comportemental aux machines autonomes.

Dès les origines, l’idée que l’on puisse construire des créatures artificielles pose une série de questions suscitant une certaine inquiétude. Le cinéma et la littérature nous donnent depuis, et de façon récurrente, des visions positives ou négatives sur le sujet :

  • avec des IA destructrices nous promettant l’apocalypse tel le SKYNET du film Terminator,
  • ou bien des IA bienveillantes avec le film IA de Spielberg, avec cette machine qui se prend pour un petit garçon.

En Janvier 2015, un groupe de personnalités du monde industriel et scientifique, dont font partie Elon Musk et le défunt Stephen Hawking, rédigent une lettre ouverte à destination du monde entier afin de mettre en garde l’humanité face au danger que pourrait représenter une IA devenue incontrôlable.

Ce texte pointe du doigt ce que l’on appelle les armes autonomes, c’est-à-dire des drones intelligents capables d’identifier un ennemi et de prendre seuls la décision de le détruire ou non. Pour les cosignataires de la lettre, il s’agit là d’une dérive dangereuse de l’utilisation de l’IA dans le domaine militaire :

"Ce ne serait qu'une question de temps avant que ces armes n'apparaissent sur le marché noir et dans les mains des terroristes, de dictateurs voulant asservir leur population ou de seigneurs de guerre voulant perpétuer des épurations ethniques".

En ce début de XXIe siècle, l’IA fait donc partie de l’actualité et les rapports et études pleuvent sur les conséquences à venir dans le secteur industriel, et les sociétés.

 

Demain un robot « intelligent » ?

Dans les années 50, Von Neumann, l’architecte des ordinateurs modernes, a prédit la « singularité technologique », c’est-à-dire le moment où la machine serait en mesure de dépasser l’homme. Nous sommes à la veille de mettre au point les ordinateurs quantiques, et donc de posséder une puissance de calculs qui permettrait, selon certains futurologues, de réaliser ce basculement. Mais en fin de compte l’intelligence artificielle c’est quoi ?

Définition : « Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine. » - LAROUSSE


Schéma de l'architecture de Von Neumann

L’intelligence d’une machine n’est actuellement que l’extension d’une forme de l’intelligence humaine, qui se caractérise par le fait d’être doué en mathématiques et en logique. Seulement voilà, depuis un certain temps maintenant on s’est aperçu que l’intelligence humaine ne se résumait pas à une seule forme d’intelligence mais à plusieurs combinées entres elles ! Le mot intelligence s’écrit maintenant au pluriel. Ainsi il y a des intelligences émotionnelles, artistiques, de l'espace, etc. Et il serait vain de les comparer. Ce qui permet d’animer un être humain, c’est son libre arbitre, et la conscience qu’il a de soi.

Luc DE BRABANDERE, auteur de l’ouvrage « Homo Informatix », va dans le sens d’une intelligence qui ne pourra jamais être artificielle :

« La véritable IA n'existera jamais, car le monde est inconnaissable. C'est l'histoire du philosophe à qui l'on demande : "Que pensez-vous des Espagnols ?" Et qui répond : "Je ne sais pas, je ne les connais pas tous !" Il n'est pas rationnel d'être à 100% rationnel, or un ordinateur est à 100% rationnel. Ce qui intervient dans la pensée inductive, comme l'intuition ou l'imagination, n'est pas programmable. »

L’intelligence artificielle se limite à ce qu’elle sait faire, elle n’est rien d’autre qu’un outil très perfectionné, véritable extension de l’esprit humain.

L’existence d’un robot que l’on pourrait qualifier d’« intelligent », au même titre qu’un être humain, ne serait donc qu’un rêve inatteignable.

 

L’IA, un outil, plus perfectionné que les autres ?

 L’IA se déploie aujourd’hui dans l’industrie sous la forme de ce que l’on appelle l’industrie 4.0, avec l’automatisation et l’autonomie des chaines de production, et l’interopérabilité des machines. Comme à chaque période de transition technologique, cela suscite une certaine inquiétude car cela va modifier la donne en matière d’emploi. Certains rapports évoquent la substitution de 9% des emplois en France (source : OCDE) voir 47% aux États-Unis (source : Frey & Osborne). Cependant, certaines activités seront difficilement remplaçables, car un opérateur humain sera toujours nécessaire pour garder le contrôle d’une ligne de production ou effectuer le contrôle final de certains types de pièces.

Placer des cartons dans des rangées d’étagères, cela reste simple et automatisable. La forme d’« intelligence » nécessaire à cela restera fondamentalement logique et mathématique. À noter qu’il faudra toujours plusieurs techniciens et manutentionnaires pour veiller au bon fonctionnement de l’ensemble, et intervenir en cas de panne. De même on automatise des supermarchés avec des caisses rapides, mais l’intervention d’un hôte de caisse reste nécessaire pour en assurer le bon fonctionnement, en cas de défaillance.

L’IA tente d’investir de nouveaux domaines jusque-là réservés aux humains. C’est le cas par exemple de l’analyse visuelle dans le secteur de l’imagerie médicale. L’IA est ainsi accueillie par la profession comme un nouvel outil, plus perfectionné que ceux actuellement disponibles, et étant une aide à la décision supplémentaire permettant au radiologue d’affiner son diagnostic.

Dans le domaine de la RH, L’Oréal a mis en place une IA de recrutement pour ses futurs collaborateurs. Le but recherché est de pouvoir pallier à la quantité de candidatures reçues en analysant les profils par l’intermédiaire d’un chatbot. Des questions qui se veulent objectives (disponibilité, niveau d’études, …) permettent alors d’orienter la candidature vers le poste adéquat. Néanmoins, la décision de recrutement reste toujours à l’approbation d’un recruteur « humain ».

Pour l’heure l’IA est nouvel un outil informatique permettant de remplacer l’humain pour certaines tâches simples, ou l’aider dans la prise de décision. Cependant, avec les avancées prévues dans ce domaine et l’attribution toujours plus grandes de tâches à l’IA, il conviendra de légiférer afin de mettre en place des chartes de bonne conduite et d’éviter certaines possibles dérives : armes autonomes, discriminations à l’embauche, …

Crédits photos : Fotolia, Archives, 123rf, Dreamstime