Views
4 years ago

Maintenance & Entreprise n°630

  • Text
  • Finale
  • Maquette
  • Toutes
  • Produits
  • Solutions
  • Mise
  • Outils
  • Gmao
  • Gestion
  • Ainsi
  • Juin
  • Maintenance
Nucléaire français : la maintenance en première ligne

Méthode La fiabilité

Méthode La fiabilité expérimentale : Elle consiste à quantifier la fiabilité à partir d’essais dès que l’on dispose de pièces prototypes avec des essais normaux ou accélérés. La fiabilité opérationnelle : Elle consiste à évaluer la fiabilité en service à partir de données du retour d’expérience REX. Elle se pratique dés les premières mises en service d’un produit et permet ainsi de corriger des défauts de conception et de process. La Fiabilité et maintenance dynamique : Elle consiste à évaluer en temps réel l’endommagement et à intégrer ces informations dans les calculs de fiabilité résiduelle et d’évaluation des périodes de changement préventif (Time Between Overhaul, TBO) . Processus industriel Il est constitué d’un ensemble de processus, qui s’enchaîne. On les trouve en général dans l’ordre décrit ci-après. Ils sont parfois imbriqués pour gagner en efficacité. Chacune de ces étapes est conditionnée par la précédente. Plus on introduit en amont des actions de fiabilité, plus elles sont efficaces. Ces actions doivent être réalisées dés le processus de conception et envisagées lors du processus de service après-vente. Les outils, méthodes et concepts à mettre en œuvre pour le déploiement de la fiabilité sont présentés ci-après. Le modèle de loi de fiabilité représenté par R(t) : La fiabilité R(t) d’un système à l’instant t est la proportion de survivants à cet instant, parmi l’ensemble des systèmes identiques observés. avec N (t) représentant le nombre de survivants à l’instant t et N0 le nombre de systèmes observés au début. La probabilité de défaillance cumulée F (t) : La probabilité cumulée de défaillance F(t) à l’instant t est le complément de R(t) La moyenne des temps de bon fonctionnement (MTBF). Avec les temps de bon fonctionnement noté tbf et n le nombre d’éléments observés. Quelques définitions autour de la fiabilité Fiabilité: Aptitude d’un dispositif à accomplir une fonction requise dans des conditions d’utilisation et pour une période de temps déterminée, d’après la norme AFNOR X 60-500 et « la probabilité pour qu’un élément remplisse une fonction requise dans des conditions définies et pendant une période définie » selon la norme ISO 8927. Maintenabilité : Dans des conditions d’utilisation, aptitude d’une entité à être maintenue ou rétablie, sur un intervalle de temps donné, dans un état dans lequel elle peut accomplir une fonction requise, lorsque la maintenance est accomplie dans des conditions données, avec des procédures et des moyens prescrits d’aprés AFNOR X 60-500. Disponibilité : Aptitude d’un bien, sous les aspects combinés de sa fiabilité, maintenabilité et de l’organisation de maintenance, à être en état d’accomplir une fonction requise dans des conditions de temps déterminées, d’après l’AFNOR X 60-010. Durabilité : Aptitude d’une entité à accomplir une fonction requise dans des conditions données d’utilisation et de maintenance, jusqu’à ce qu’un état limite soit atteint, d’après l’AFNOR. Les grandeurs de base de la fiabilité. Ce sont les plus simples et les plus universelles, telles que : Le taux de défaillances : Une des premières mesures de la fiabilité est sûrement le taux de défaillance constant , il indique le rapport entre le nombre de défaillances observées n et le temps cumulé de fonctionnement Tc. Durée de vie : C’est la durée pendant laquelle une entité accomplit une fonction requise dans des conditions d’utilisation et de maintenance donnée, jusqu’à ce qu’un état limite soit atteint Maintenance : Les actions de maintenance s’exercent lors de la phase d’utilisation du bien et ont pour but de garder un niveau de fonctionnement acceptable d’un point de vue sécurité, fiabilité, qualité du service rendu et coûts de fonctionnement. 42 Juin 2013 – N°630

Méthode Concepts et outils de la fiabilité améliorant les performances Ces méthodes et outils concernent la mécanique, l’électronique l’informatique et les erreurs humaines liées aux tâches et activités nécessaires à la conduite et la maintenance de ces systèmes. Le fondement des concepts quantitatif de fiabilité s’appuie sur des évaluations probabilistes, ce qui place le domaine des statistiques et des probabilités au cœur des calculs à implémenter. Le corpus de base est fondé sur l’entité du taux de défaillances et des modèles probabilistes associés. La représentation des facteurs d’environnements contribuant à la défaillance des composants ou des systèmes doit être considéré, notamment avec l’introduction de modèle tel que le modèle à hasard proportionnel ou modèle de Cox. Ce modèle d’abord utilisé en médecine pour l’évaluation des facteurs de risque (cigarettes, alcool, sédentarité etc.), trouve ici une utilisation tout à fait pertinente corroborant le parallèle entre le médecin et l’homme de maintenance. Avec le modèle de Cox on obtient une meilleure représentation opérationnelle de la fiabilité dans son environnement. Les notions de moyenne des temps de bon fonctionnement doivent être approfondies notamment en considérant les actions préventives et leurs impacts sur le MTBF. Ces considérations conduisent à des mesures telles que les MTBR et MTBUR (Mean Time Between Removal et Mean Time Between Unscheduled Removals) utilisées en aéronautique. Ces mesures permettent une quantification des l’impacte du préventif, elles ont été introduites sous l’impulsion des militaires (EUROCOPTER), toujours à la recherche de solution efficace. Les modèles classiques de représentation probabiliste de la FIABILITÉ, MAINTENANCE ET FACTEUR HUMAIN Patrick Lyonnet est l’auteur de l’ouvrage « Fiabilité technique et humaine » (éditions Tex&Doc Lavoisier) qui présente et développe l’ensemble des concepts et outils de la fiabilité des composants et systèmes en considérant le facteur humain. Il est Professeur des Universités à l’Ecole Nationale d’Ingénieur de Saint-Etienne et chercheur au laboratoire de tribologie et dynamique des systèmes LTDS. Il dirige également des thèses de doctorat et des travaux de recherches sur les thèmes de la fiabilité et maintenance. Ces travaux de recherche pour la plus-part sont à vocation industriels et ont générés des partenariats avec Renault, Eurocopter, l’INERIS ou d’autres laboratoires universitaires tels que le LASPI de Roanne, le LASQUO d’Angers. fiabilité sont la loi exponentielle, la loi de Weibull, la loi lognormale et gamma et aussi les lois géométrique, de poisson ou d’Erlang. La fiabilité du logiciel est mesurée à partir des processus non homogènes de poisson sous la forme de fiabilité expérimentale. Elle s’appuie sur les lois d’Okumoto-Goel, de Duane, d’Ohba, de Pham Zhang de l’arc tangente etc. L’estimation ponctuelle et par intervalle sont aussi des points clef des études de fiabilité avec des méthodes académiques telles que la méthode du maximum de vraisemblance ou la méthode des moindres carrés. Les développements de la fiabilité des systèmes à partir d’approche stochastique dynamique à l’aide des chaînes de Markov et des réseaux de Pétri stochastiques ont un rôle majeur dans la modélisation « système ». Les banques de données de fiabilité et le retour d’expériences, constituent des bases solides pour initier les études de fiabilité prévisionnelles. Les outils qualitatifs très facilement utilisables dans un projet dés la phase de conception ne doivent pas être négligés, car ils forment un socle dur en construction de la fiabilité. Ils permettent d’agir le plus en amont possible dans le processus industriel, ce qui est une garantie d’efficacité et d’optimisation des coûts. Ces outils sont l’analyse fonctionnelle, les AMDEC (Analyse des modes de défaillances et de leurs criticités), l’AEEL (Analyse des Effets des Erreurs de Logiciel) , l’HAZOP (HAZard and OPerability study), l’HACCP (Hazard Analysis Critical Control Point) , les arbres de défaillances et l’APR (Analyse préliminaire des risques) . Les probabilités sont la base des méthodes de la fiabilité et notamment de la mécanique probabiliste, ainsi que de l’analyse bayésienne. Les essais aggravés et accélérés constituent des outils pour répondre au besoin industriel de rapidité. Les aspects dits de fiabilité humaine, de première, seconde et troisième génération permettent d’évaluer l’impact des erreurs humaines et de mieux s’en prévenir en construisant des systèmes plus robustes aux dysfonctionnements et erreurs. En conclusion, les méthodes et concepts cités nécessitent quelques développements et approfondissements pour être adaptées et appliquées aux innombrables cas industriels. Mais ils ont déjà fait leurs preuves dans des domaines de pointes, aéronautique notamment et doivent faire partie des fondamentaux du concepteur et mainteneur contemporain. Patrick Lyonnet Juin 2013 – N°630 43

Maintenance et entreprise - Découvrez la revue en version digitale

Pour vous abonner, joindre la rédaction, communiquer dans la revue ou simplement avoir plus d'informations sur votre métier, rendez-vous sur notre site internet :

www.maintenance-entreprise.com