0
Industrie

<strong>LES LIMITES DE LA SIMULATION NUMÉRIQUE</strong>

<strong>ESSAIS</strong> <strong>CES TROIS FONCTIONS SONT INCONTOURNABLES, QUE CE SOIT DANS LE DOMAINE DE LA R&T, DE LA CERTIFICATION OU DE LA PRODUCTION, ET RESTENT LA CLÉ D'UNE SÉCURITÉ MIEUX GARANTIE. ILS SONT INTIMEMENT LIÉS, LES DEUX PREMIERS PA

Si l'on devait rapidement les définir, on pourrait dire que les tests et les essais physiques ont pour vocation de valider la conception d'une pièce et la fonction d'un équipement ou d'un système, d'en évaluer la fiabilité puis de les certifier. La simulation numérique, fruit d'une technologie nouvelle, vient les alléger, voire les remplacer dans certains cas, et ainsi abaisser les coûts. Les mesures, de leur côté, permettent de quantifier les contraintes et les paramètres avec lesquels peuvent être réalisés les essais, qu'ils soient physiques ou numériques. La vocation même de certains essais est d'ailleurs d'améliorer encore la précision des mesures, dans des circonstances parfaitement définies. Par définition également, ces activités s'appliquent sur tous types de pièce et de systèmes embarqués à bord d'un aéronef, quel que soit celui-ci, et ce dans toutes les catégories : aérostructure, motorisation, commandes de vol, systèmes et équipements, etc., avec une montée en puissance de la mécatronique et des associés. Même si les grands programmes aéronautiques et spatiaux ont atteint aujourd'hui un stade de maturité dans leur développement, voire leur production, les essais restent indispensables pour des améliorations ponctuelles permanentes et le développement de nouvelles technologies avec, en outre, de nouveaux domaines d'application, comme les drones par exemple.

DISTINCTION DES ESSAIS.On précisera encore qu'il faut distinguer en général les essais de laboratoire, destinés à la recherche en amont et menés de façon « libre », ceux visant précisément une optimisation de produits déjà existants (on agira ici dans un cadre plus précis), et les essais de qualification, très normalisés, qui sont menés selon des processus réglementaires ou du moins parfaitement définis, et avec des normes préétablies. Il s'agira par exemple dans ce dernier cas de vérifier la tenue ou le bon fonctionnement d'un élément dans des conditions précises, visant « simplement » un tampon, que ce soit pour une « certification », pour le lancement d'une série ou simplement un contrôle aléatoire en production. Les essais eux-mêmes peuvent être de différentes natures, mécaniques, électriques, environnementaux, et combiner plucalculateurs sieurs « stimuli » d'ordres extrêmement variés. Et dans le domaine des essais mécaniques, il faut encore distinguer les essais statiques des essais dynamiques, incluant les essais de vibrations et les essais de résistance aux chocs, un domaine relativement récent et en pleine croissance. Enfin, on distingue évidemment les essais au sol et les essais en vol, un autre chapitre… LES « ESSAIS AGGRAVÉS ». Dans le domaine mécanique, les essais pilotés, dits « aggravés », consistent à soumettre une pièce ou un équipement à des sollicitations (efforts, vibrations, température, pression, etc.) au-delà de celles qui définissent sa limite de tolérance maximale (élastique, par exemple) mais avant l'état de rupture ou de dysfonctionnement. Le but est de mesurer jusqu'où le sujet demeure opérationnel (selon des critères dimensionnants préétablis) dans son environnement, et de déterminer avec précision la limite de rupture. « Cette zone de sollicitations - dite zone plastique dans le cas de sollicitations mécaniques - est souvent mal connue du fait que les essais de qualification restent toujours, eux, par définition, dans la zone dite élastique. Et elle est parfois plus étendue que l'on ne peut penser a priori! » souligne Christophe Ulrich, directeur d'Avnir Engineering. Les éléments candidats à ces essais peuvent être par exemple une pièce d'aérostructure travaillante, soumise à des efforts et/ou des vibrations, mais également une pièce moteur, soumise en plus à de fortes températures, ou encore des équipements électriques ou électroniques soumis à l'ensemble de ces contraintes.

La vocation des essais aggravés est de connaître la marge réelle avant l'état de « rupture » où la pièce n'est plus opérationnelle, et ainsi de pouvoir augmenter sa fiabilité (donc la sécurité de son emploi), sa durée de vie et, éventuellement, faire évoluer les critères et les normes de certification ou de qualification. Un autre type de ces essais se pratique sur des pièces de production, prélevées de façon aléatoire, afin de vérifier leur tenue réelle aux efforts et, ainsi, leur qualité. A terme, on peut également penser à un dimensionnement plus personnalisé des campagnes d'essais en général.

Ces pratiques ont été normalisées pour des équipements électroniques depuis une quinzaine d'années aux Etats-Unis par Boeing, sous l'appellation HALT (High Accelerated Life Test) et HASS (High Accelerated Stress Streaming) - ces dernières pour les essais aggravés en production. Elles sont depuis utilisées par des industriels aéronautiques du monde entier.

LA PROBLÉMATIQUE DES NORMES. « Il s'avère parfois que les normes officielles de qualification ou de certification ne prévoient pas toutes les conditions opérationnelles réelles ou sont trop élevées, car résultant de l'application d'un coefficient de sécurité, ce qui se traduit par une "surqualité" ou un surdimensionnement. Or, selon les domaines d'utilisation, certains critères de sécurité peuvent être contraires aux critères de performance. Par exemple, en aéronautique, une masse optimisée du point de vue de la sécurité (donc légèrement redondante) sera pénalisante pour les performances (liées au poids). Dans le domaine nucléaire, ce sont les mêmes critères de sécurité qui desserviront la durée de vie », explique Jacques Charvin, directeur d'Avnir Energy. « D'où l'intérêt des "essais aggravés", capables de s'affranchir de ce coefficient de sécurité pour déterminer le comportement réel de la pièce et sa tenue au-delà de la norme », souligne Christophe Ulrich. Avant d'ajouter : « Certaines normes "vieillissantes" pourraient ainsi être révisées dans les domaines de l'aéronautique et de l'énergie grâce à de nouvelles méthodes de calcul et de simulation, voire même à l'éclairage des essais aggravés. Par exemple, dans le domaine de la compatibilité Création d'un LabCom dédié aux essais aggravés de pièces mécaniques Avnir Engineering et LaMCoS, une unité mixte de recherche CNRS de l'Insa de Lyon, ont annoncé au mois de mai dernier la création d'un LabCom dédié aux essais aggravés de pièces mécaniques de machines tournantes (nucléaires ou turbines d'avions), dénommés « AdViTAM » (pour Advanced Vibrations Tests for the Analysis of rotating Machines). La vocation de ce nouveau laboratoire est donc d'étendre le principe des essais aggravés au domaine de la tenue mécanique et d'en définir les méthodes. Les résultats, une fois entièrement justifiés du point de vue de la robustesse des essais et de leurs gains, pourront bien sûr être communiqués à l'Aesa, en visant l'élaboration de normes officielle européennes.

Le LabCom est une initiative de l'ANR (Agence nationale de la recherche), réunissant une entreprise privée et un laboratoire public de recherche, et bénéficiant d'un financement d'Etat, ici 300 k€ en trois ans (entièrement versés au LaMCoS). « Même si cela représente pour nous un investissement certain (0,6 docteur ingénieur pendant ces trois années), cet engagement trouvera une réelle rentabilité en permettant à nos clients de fournir des cas concrets d'essais aggravés et d'accéder à des moyens de recherche publics », a souligné Christophe Ulrich.

Précisons que le banc d'essais qui sera utilisé est un excitateur 6-axes de la plateforme d'essais Phare (Plateforme machines tournantes pour la maîtrise des risques environnementaux) du LaMCos.

électro-magnétique (CEM), où la simulation numérique n'existait pas à l'époque où ont été établies les normes, celles-ci atteignent parfois le double de ce qu'elles pourraient être. C'est ainsi que des grands donneurs d'ordre comme Airbus et Thales sont demandeurs de nouveaux modèles, plus évolués, ce qui ici est la vocation du programme FUI Simucedo. » LE CHOIX DES CRITÈRES.

En outre, une autre problématique des essais en général est celle de la durée de vie visée. On imagine bien la difficulté d'établir un gabarit de sollicitations qui puisse couvrir la vie entière de l'objet. C'est un des avantages de la simulation numérique, qui permet d'accéder à ces « dimensions » que sont l'usure et la fatigue.

Dans le domaine mécanique, le Cetim (voir encadré) propose une stratégie de surveillance, qui peut s'appliquer à un composant comme à l'ensemble d'un système - voire d'une infrastructure, pendant toute sa durée de vie. Celle-ci repose sur la mesure et l'analyse de signaux fournis par des capteurs préalablement implantés de façon pertinente. Le but est ici d'assurer une maintenance conditionnelle, permettant de mieux planifier les interventions et d'agir de façon préventive en assurant un taux de disponibilité optimal de l'équipement (MCO).

L'appréhension des effets cumulatifs des efforts et des contraintes auxquels peut être soumis un produit tout au long de sa vie, et donc la mesure de son usure et de son endommagement, constituent un axe important de R&D pour le Cetim, sur lequel il développe une ingénierie d'essai optimisée qui puisse être représentative d'une durée de vie.

« D'une façon générale, on peut souvent noter une attitude plus ouverte de la part des autorités aéronautiques (FAA et Aesa) que des autorités nucléaires, qui se montrent plutôt plus conservatrices. Par exemple, on acceptera de surveiller des fissures en aéronautique (sur un aéronef), alors que celles-ci ne sont même pas envisageables dans le nucléaire!… » observe Jacques Charvin.

Dans le domaine aéronautique, les procédures de définition des programmes d'essais (QTP pour Qualification Test Procedures) peuvent être sujettes à discussion avec l'utilisateur, concernant notamment les critères de validation, qu'il pourra déterminer luimême pour la qualification de son équipement. Celui-ci peut ainsi exprimer des exigences qui dépassent celles des normes. Par exemple, pour un GPS fixé à un élément de structure, le critère pourra être la tenue mécanique de l'équipement ou sa fonction : c'est-à-dire que dans le deuxième cas, la qualification pourra prévoir une rupture (partielle) de l'équipement tant qu'il enverra un (bon) signal.

LA RÉSISTANCE AUX CHOCS. Un autre domaine qui pose la question de l'ajustement du coefficient de sécurité face à la performance est celui de la résistance aux impacts et aux chocs. « Que Une problématique de la mesure La mesure des efforts internes à une pièce est une problématique qui met en évidence la complémentarité nécessaire qui doit être développée entre la mesure elle-même et son analyse. Par exemple, une jauge placée à la surface d'une pièce va en mesurer la déformation en un endroit précis. Mais qu'en est-il en profondeur? La réponse à cette question demande une expertise sur le modèle de la pièce (le matériau, sa texture, les éventuelles soudures, etc.), de déterminer quel est le champ des contraintes en interne, et de savoir comment le mesurer (en s'insérant dedans, sans en modifier la structure)… ce soit au sol ou en vol, l'impact d'un corps étranger sur une structure (pièce métallique, pneu, oiseau, grêlon…) reste une des principales causes d'accident. Et ces risques s'accroissent encore aujourd'hui avec les drones ainsi que dans le domaine spatial, avec la multiplication des débris dans un espace de plus en plus pollué. Or il s'agit, là aussi, de répondre à une demande d'optimisation de plus en plus grande, que ce soit en termes de consommation et de performances, donc de masse, ou de délais de fabrication. Même les militaires partagent aujourd'hui cette problématique pour cause d'opérations dans des environnements difficiles, faits de sable ou de boue, requérant une grande maniabilité des véhicules, donc une grande légèreté, ce qui permet d'ailleurs également l'emport de plus de matériels et de carburant », explique Cédric Giromini, responsable du développement de Thiot Ingénierie.

On peut ajouter que l'utilisation récente des matériaux composites, moins maîtrisés que les alliages métalliques traditionnels, et dont la composition change régulièrement en fonction des applications, a encore accru cette problématique. C'est ce qui explique le développement récent des essais aux impacts et aux chocs, qui représentent un métier très spécifique que se partagent quatre concurrents seulement en Europe sur le marché aéronautique. Un exemple de cette spécificité réside notamment dans les moyens d'essai, consistant chez Thiot Ingénierie, d'une part en une presse dynamique (unique en Europe), capable de charger de 0 à 200 tonnes en 3 millisecondes, d'autre part, des canons à gaz, capables de lancer une masse de 5 kg à 300 m/s (1000 km/h). Par ailleurs, en matière de métrologie, l'instrumentation est capable d'effectuer plusieurs millions de mesures par seconde, et ce en deux points d'impact sur une pièce, donc à l'échelle de la nanoseconde!

LA CONNAISSANCE DU MATÉRIAU. Sur ce marché de fait très compétitif, Thiot Ingénierie, petite société française du Lot, se distingue à la fois par sa grande compétence en science des matériaux, des moyens d'essai élaborés (qu'elle fabrique ellemême et dont elle alimente le marché) et couplés à une capacité de simulation numérique, ainsi que des activités dans les trois domaines de l'aéronautique civile, de l'espace et de la défense.

« Si le domaine des essais statiques, pratiqués depuis longtemps, est aujourd'hui parfaitement maîtrisé, celui des essais aux chocs, apparu plus récemment, l'est moins », remarque Cédric Giromini. « Il demande une bonne connaissance du matériau et de ses caractéristiques car, du point de vue de sa résistance à ces deux types d'effort, la différence est grande, notamment pour les matériaux composites. Or les données transmises par le fournisseur ne sont le plus souvent que "statiques" », précise-t-il encore.

C'est ce qui justifie également le programme Rapid de la DGA, portant sur les effets de l'impact d'un grêlon - en fait, un glaçon - sur un avion de chasse à grande vitesse. Ces essais alimenteront les bases de données nécessaires à la simulation numérique d'un tel phénomène, notamment pour la modélisation virtuelle d'un glaçon !

LA SIMULATION NUMÉRIQUE… Dans un passé qui semble déjà lointain, si les essais d'une pièce ne se révélaient pas concluants, celle-ci repartait en bureau d'études afin que sa conception soit révisée. Il arrivait que, par expérience, l'explication de la non-conformité soit vite identifiée, permettant aussitôt de trouver le remède adéquat.

Mais la pièce devait encore repasser aux essais… Depuis, les techniques numériques ont permis de simuler progressivement, dans un premier temps les essais proprement dits, puis de faire varier les contraintes appliquées et les conditions mêmes de fonctionnement, et ce en élargissant la nature de ces essais et le champ des paramètres. C'est ainsi que la simulation numérique s'est d'abord développée dans le domaine mécanique, puis climatique (portant sur la pression, la température, l'humidité, etc.), puis électrique et enfin de la compatibilité électromagnétique (CEM).

Il s'est ensuivi non seulement des moyens plus rapides de procéder aux essais de différentes pièces ou composants embarqués, cela dans leurs conditions environnementales opérationnelles, mais aussi simultanément à la conception même de ces éléments en 3D (par CAO) et à leurs calculs de dimensionnement, qui pouvaient désormais prendre tout de suite en compte les résultats de ces essais. D'où des gains de temps et d'efficacité considérables!

… ET SES LIMITES.La vocation des essais physiques a pu ainsi souvent passer de la qualification à la « simple » vérification. Mais ils ont toujours gardé - et garderont toujours - leur caractère fondamental et incontournable de par la nécessité absolue, d'une part de caractériser les matériaux et les formes pour alimenter les données numériques servant à la modélisation, d'autre part de valider la simulation en vérifiant in fine dans la vie réelle la pertinence de la conception et des calculs de dimensionnement !… De plus, comme on a pu le voir avec les essais aggravés, les essais physiques restent le seul moyen de contrôle de qualité d'une pièce de production prélevée sur la série de façon aléatoire.

Mais d'une façon générale, malgré l'extension de la simulation numérique, les essais physiques resteront également in-dispensables pour de nombreuses raisons, énumérées par exemple ici par Cédric Giromini pour le seul domaine des essais aux chocs : au chapitre des améliorations apportées à un avion donné, les différences entre chaque programme en termes de configuration et de matériaux; également, les différences entre les problématiques des clients, qu'ils soient constructeurs ou utilisateurs (par exemple l'implantation de nouveaux radômes sur avions civils pour abriter des antennes Wi-Fi, maintenant disponible en cabine) ; le développement de matériaux « tous azimuts », incluant désormais les techniques d'impression 3D (dont on connaît encore très peu le comportement dynamique, et qui demandent l'élaboration de nouveaux process et le calcul de nouveaux paramètres). « Enfin, les clients n'ont pas toujours les moyens d'acheter des données sur étagères - si tant est qu'elles existent - et préfèrent souvent procéder eux-mêmes aux essais », conclut-il.

Enfin, selon plusieurs professionnels du secteur, si l'ensemble du domaine des essais mécaniques est aujourd'hui parfaitement maîtrisé du point de vue simulation numérique, il est toutefois resté des conditions difficiles à simuler telles que la connectique et la continuité électrique ou électronique.

UNE DÉMARCHE STRUCTURANTE. Face à la forte demande de l'industrie, et fort de sa compétence en ingénierie des essais complexes, le Cetim s'appuie de plus en plus sur la simulation numérique afin de réduire les coûts liés aux essais physiques en ramenant ceux-ci à leur juste expression. La simulation est ainsi considérée comme étant cruciale dans les phases de développement et d'optimisation d'un produit, permettant d'aboutir à une maquette numérique représentative avant même le stade prototype. « La clé est de pouvoir coupler la validité fonctionnelle grâce à une modélisation multiphysique fidèle, avec une architecture d'essais robuste alliant le physique et le numérique. Pour ce faire, nous nous appuyons à titre d'exemple sur des logiciels de type Siemens Amesim (LMS Imagine.Lab) qui permettent la modélisation et l'analyse de systèmes 1D intelligents multidomaines. Les composants d'un système sont décrits et utilisent des modèles analytiques validés qui représentent les lois de comportement réel vis-à-vis de sollicitations multiples, tant hydraulique que pneumatique, électrique ou mécanique », souligne Philippe Gouvaert, directeur commercial au Cetim. Nous verrons que c'est le principe des bancs dits « HIL » (hardware-in-the-loop).

En outre, le Cetim s'attache à mettre en oeuvre une démarche d'ingénierie d'essais qui s'appuie sur un plan d'expérience numérique robuste, permettant de cibler plus spécifiquement les modes de défaillance d'un système, d'en optimiser le temps de développement et donc le coût de la phase de validation avant industrialisation.

LES ESSAIS DES CALCULATEURS. En fait, le concept de la simulation numérique, dite aussi « virtualisation », s'est particulièrement développé avec l'essor de la mécatronique embarquée, requérant la présence de calculateurs sophistiqués pour actionner et contrôler les systèmes désormais alimentés de façon électrique. En effet, il a fallu fournir aux équipementiers l'environnement électronique et les logiciels capables de les aider à concevoir, développer, tester puis intégrer ces calculateurs, de la façon la plus simple et la plus rapide, mais également la plus économique et la plus fiable possible, et ce en pouvant s'affranchir de la partie purement mécanique de ces systèmes. Et ce marché s'est considérablement développé avec le concept de l'avion « propre », les grands programmes militaires et aujourd'hui les drones, étendant les systèmes électriques à un nombre croissant de fonctions, de plus en plus complexes (avionique, actionneurs de poussée, commandes de vol, etc.), requérant des calculateurs eux-mêmes de plus en plus sophistiqués.

LES BANCS HIL.Dans un premier temps, et partant du concept Model Based Design, la virtualisation a consisté à simuler l'environnement d'un calculateur. « C'est la vocation des bancs de test numériques HIL (hardwarein-the-loop) qui sont capables de simuler un système en temps réel, en reproduisant son comportement dynamique. Ils génèrent en effet les signaux émis par les capteurs et lisent les commandes des actionneurs, faisant ainsi croire au calculateur qu'il est face au vrai organe », explique Benoît Vidalie, directeur pour la France de la société allemande dSpace. L'un des pionniers de la technologie du prototypage rapide dans le domaine du contrôle, dSpace est aujourd'hui acteur majeur pour le développement et les tests de mécatronique embarquée.

Cette technologie, déjà assez ancienne et devenue courante, pour ne pas dire essentielle, s'est régulièrement améliorée, en souplesse d'utilisation, en rapidité et en puissance de calcul. Elle s'est notamment intégrée dans un simple boîtier, prenant la forme d'un système très compact qui peut être utilisé pour réaliser des tests HIL très tôt dans le cycle de développement et directement sur le bureau des développeurs et testeurs de fonctions. La toute nouvelle Scalexio LabBox de dSpace intègre une technologie novatrice qui permet de disposer, avec une carte processeur standard, d'une architecture de cartes d'entrée-sortie entièrement paramétrables et configurables, rendant ainsi le banc multifonction.

DES ESSAIS AU DÉVELOPPEMENT. Le principe de la virtualisation s'est progressivement étendu à la conception et au développement des calculateurs euxmêmes, en permettant de simuler leur comportement en fonction du temps, ainsi que les réseaux. « La phase de création nécessite un outil logiciel mathématique de mise au point de l'algorithme que l'on va télécharger sur une plateforme matérielle PXI - un PC dédié - pour le tester », explique Emmanuel Roset, ingénieur produits d'acquisition et test temps réel chez National Instruments. Il est donc devenu possible de définir et débuter les tests plus tôt, indépendamment du système HIL.

National Instruments est un fabricant de matériels et logiciels pour les applications de mesure, de test automatique et de contrôle commande embarqué. Sa vocation est de fournir des outils génériques et modulaires afin de réaliser des applications sur mesure par ses clients. Le but est la réduction des coûts par la fourniture de langages simplifiés et de matériels sur étagère, à sélectionner en fonction des besoins du client.

De son côté, dSpace propose une plateforme de tests virtuels suffisamment précise pour permettre de détecter et corriger les erreurs dans le logiciel et les fonctions de ces calculateurs (seuls ou en réseau) bien avant la mise à disposition des éléments réels. En outre, de nouvelles fonctions peuvent être intégrées avec l'ensemble du logiciel du calculateur pour tester leurs in-teractions. « Un banc de test virtuel embarquant des modèles riches est ainsi disponible très tôt dans le cycle et permet de démarrer les tests plus tôt. Les bugs peuvent être détectés en amont et être ainsi plus facilement corrigés, ce qui génère un meilleur délai de développement et une diminution des coûts de correction », souligne Benoît Vidalie.

« Ce même environnement virtuel peut également être utilisé pour construire les stratégies de tests automatiques, sans mobiliser le banc HIL réel. La phase de test HIL s'en trouve écourtée et les moyens de test immobilisés moins longtemps puisque l'environnement de test a été préparé en amont », ajoute-t-il encore.

Enfin, grâce au même principe, des calculateurs virtuels peuvent être encore utilisés sur le banc HIL lui-même, afin de simuler et de tester un système (comportant un réseau de calculateurs) dans son intégralité, même si l'ensemble des calculateurs réels ne sont pas encore disponibles.

« En fait, dans un premier temps, le calculateur et l'environnement seront simulés à tour de rôle, et une fois l'algorithme validé et le maximum de tests réalisés en avance, on passe à la phase de test du calculateur physique en HIL », résume Emmanuel Roset.

INTÉGRATION ET IRON BIRD. Une fois les calculateurs disponibles et testés individuellement avec leur système, il s'agit maintenant de procéder à leur intégration, c'est-à-dire de les mettre tous côte à côte, chacun étant relié au système simulé qu'il commande comme sur un avion réel. Le but est d'émuler l'ensemble d'un système, par exemple électrique et électronique, et de tester les interactions des calculateurs dans les différentes phases d'un vol et dans différents environnements. C'est la vocation de l'Iron Bird ou « avion zéro », regroupant donc plusieurs bancs HIL et sur lequel sont branchés de multiples systèmes de mesures, permettant de vérifier le comportement de l'ensemble des calculateurs.

« Le but de ce type d'essai, qui fait aussi tout son intérêt, est non seulement de pouvoir tester les comportements des systèmes et des calculateurs, seuls ou en réseau, mais surtout d'insérer des erreurs et de surveiller les signaux et commandes dans des conditions extrêmes impossibles à réaliser sur un avion en vol sans risque. Les ingénieurs peuvent ainsi corriger les défauts et incompatibilités avant l'assemblage complet de l'avion. Il en résulte évidemment de grandes marges de sécurité », précise Emmanuel Roset.

dSpace a ainsi alimenté le banc Iron Bird du HondaJet, tandis que National Instruments a alimenté celui du Legacy 500 d'Embraer (entièrement Fly by Wire). Dans ce dernier cas, le système VeriStand utilisé a permis de tester jusqu'à 50 calculateurs au moyen de 21 ordinateurs de types PXI synchronisés. Le modèle du système complet a utilisé quelque 90000 paramètres et signaux pour la simulation pilotant des milliers de voies analogiques et numériques, avec, entre autres, des bus de types Arinc 429, 664… Bilan : le constructeur a pu effectuer le développement et les tests en trente mois au lieu de quarante-deux pour le programme précédent, soit un gain de douze mois!

VERS LA LOCATION D'ÉQUIPEMENTS. Les matériels d'essais coûtent cher, que ce soit en matière d'essais réels ou numériques, et représentent une immobilisation financière importante. C'est la raison pour laquelle Electro Rent Europe, filiale de la maison mère américaine du même nom, propose aujourd'hui des solutions originales de location (court terme) et d'achat en crédit-bail de matériels d'essais électronique, dans le domaine des radiofréquences et des hyperfréquences, en mode hertzien ou sur tous types de support (fils, matériaux tels que cuivre, etc. et bientôt fibres optiques). En fait, tout ce qui permet la mesure de signaux - en émission, transmission et réception, en vol ou au sol - la mesure de rayonnements et l'analyse de spectres.

« Les avantages du principe de location sur ce type de matériels sont nombreux, notamment en termes de réduction des dépenses et de souplesse d'utilisation, explique Eric Duran-Palacio, directeur des ventes France d'Electro Rent. Il permet d'abord d'éviter des investissements qui peuvent être lourds, notamment dans le cadre de recherches (dont on ne connaît pas l'issue) ou de l'urgence que peuvent induire des nouveaux programmes. En outre, il permet l'accès immédiat à des matériels de pointe que l'on paye au prorata de leur utilisation réelle et que l'on restitue lorsqu'on n'en a plus besoin. Enfin, il permet de s'affranchir de toute la problématique de la maintenance. » C'est ce qui justifie les demandes en très forte augmentation, essentiellement de la part des équipementiers fournisseurs d'électronique embarquée et de leurs sous-traitants, pour ces prestations qui peuvent encore s'accompagner de conseils pour trouver le matériel le mieux adapté à la demande ainsi que d'une assistance à la mise en oeuvre des appareils. Et ces nouveaux services ne sont pas vains quand on sait qu'Electro Rent dispose d'un stock de matériels représentant une valeur de 550 M€, fourni par quelque 200 fabricants.

Paradoxalement, on ne trouve que deux fournisseurs de ce genre de prestations en Europe, auxquels s'en ajoutent un aux Etats-Unis et un en Asie.

¦ Régis Noyé « Dans un drone, il y a tout Enova » Cette affirmation de Pascal Melet, directeur du Salon, explique à elle seule à la fois la vocation de l'exposition et sa forte coloration aéronautique. Né de la réunion de plusieurs expositions, le salon Enova se présente comme la plateforme de convergence des technologies et des services dans les domaines de l'électronique, de la mesure, de la vision et de l'optique, donc effectivement tout ce qui se trouve à bord d'un drone et fait son intérêt ! Et c'est bien l'aéronautique et la défense qui, avec 16 % de visiteurs, représentent le premier secteur d'application du Salon. A tel point qu'il constituera désormais l'un des thèmes de parcours de visite, proposant des listes d'exposants, de conférences et d'innovations à ne pas manquer.

La prochaine édition parisienne d'Enova - qui est annuelle - se tiendra à Paris, à la Porte de Versailles, du 14 au 16 septembre. Elle a été précédée de deux éditions régionales, tournantes, qui ont eu lieu précédemment cette année à Lyon et à Angers, ayant enregistré toutes les deux une importante progression du nombre d'exposants et de visiteurs (environ 30 % à Lyon). Le programme des éditions régionales 2017 n'a pas encore été annoncé. Par contre, on sait qu'Enova reviendra à Lyon en 2018.

Répondre à () :


Captcha

| | Connexion | Inscription