نبذة مختصرة : International audience ; Dans un POMDP classique, une technique unique d'inspection imparfaite est implicitement supposée être appliquée au début de chaque étape durant toute la durée escomptée de planification. Donc, une optimisation de la planification des inspections n'était pas possible. Dans cet article, un processus généralisé de décision markovien partiellement observable (GPOMDP) est proposé en combinant l'analyse de décisions à la programmation dynamique. Dans le modèle proposé, l'état de la structure au début de chaque étape est défini en tant qu'état de croyance. Par conséquent, des sous-modèles d'analyse de décisions, pouvant être adaptés pour répondre aux exigences spécifiques de problèmes particuliers, servent d'outils convenables pour l'optimisation de séquences de décisions pour chaque étape. Notre méthodologie est illustrée en établissant les équations mathématiques dans le cas particulier d'une séquence de décisions composée de deux inspections séquentielles suivies d'une action d'entretien. Dans un problème d'optimisation de la maintenance, ce type de modélisation est utile, par exemple, quand une inspection plus coûteuse et plus précise est exécutée en se basant sur les résultats d'une inspection relativement bon marché ou quand des inspections spécialisées à détecter certains états du système sont choisies en se basant sur les résultats d'une inspection qui est uniformément efficace sur tout l'univers des états possibles du système. Une application numérique est ensuite présentée comprenant une analyse de sensibilité pour des horizons de planification s'étendant de deux à vingt ans. Une analyse de scénario (what if) a été menée pour déterminer l'influence du choix d'une décision non optimale sur les coûts espérés.
No Comments.