Le cycle de vie des données ou « Data Lifecycle » regroupe toutes les étapes où la donnée peut être modifiée, depuis sa création jusqu’à son archivage en passant par les transferts, recopies ou retraitements éventuels.

Toutes ces étapes doivent être identifiées et comprises, pour être en mesure de détecter tout risque de modification ou d’altération. La revue du « Data Lifecycle » permet ainsi de comprendre outes les manipulations subies par les données (ex : calculs, exclusions), et de remonter jusqu’aux données brutes. Cette revue fait partie du système de « Data Governance », c’est-à-dire des ispositions techniques ou organisationnelles, basées sur le risque, garantissant que les données restent intègres.

 

La « Data Governance », pourquoi ?

La « Data Governance » est la réponse nécessaire à la problématique de « Data Integrity ». Elle s’applique aussi bien aux données provenant d’un support papier ou électronique.
Le sujet « Data Integrity » étant souvent assimilé à une problématique informatique, les dispositions techniques sont bien souvent en place, qu’il s’agisse de fonctionnalités informatiques (ex :
contrôles d’accès, « audit trail »), ou d’automatisation de processus afin de limiter les erreurs liées aux interventions humaines.

La mise en place de dispositifs techniques n’est cependant pas suffisante, s’ils ne sont pas exploités de manière efficiente. L’« audit trail », par exemple, doit faire l’objet d’une revue, pour
garantir qu’aucune modification non contrôlée n’a été effectuée. Cette revue ne doit donc pas se faire de façon exhaustive sur tous les événements survenus sur le système mais se focaliser sur les
écarts observés dans le fonctionnement du processus d’obtention de la donnée, et ce, uniquement sur les données critiques. La revue d’un rapport par exception peut être envisagée.

 

Une approche basée sur le risque

La « Data Governance » suit une approche basée sur le risque, pour identifier les données critiques (« Data Criticality ») et les risques d’altération qui leur sont associés (« Data Risk »), afin d’ajuster les efforts de contrôle au juste nécessaire, et de manière équilibrée avec les autres activités qualité. Le niveau d’effort à apporter pour maîtriser les données doit être fixé au vu de la criticité de celles-ci et de leur impact sur les CQA ou les données libératoires. De même, la graduation de l’effort doit être proportionnelle à la possibilité de détecter une altération des onnées. L’efficacité des dispositions en place doit être pilotée et revue périodiquement. L’aspect organisationnel est plus difficile à appréhender. Il nécessite en effet une certaine maturité sur le sujet, avec une bonne implication des métiers et du management, et une prise de conscience des risques au niveau de l’entreprise, ce qui implique parfois une évolution de la culture.

Comme le schéma ci-dessus le met en évidence, l’efficacité du système de « Data Governance » s’appuie sur les 3 piliers que sont le Comportement, l’Organisation et la Technique. La revue de ce système permet d’évaluer la bonne interaction, au sein des services, entre ces 3 éléments. Pendant des années, la maîtrise du « Data Integrity » était assurée à travers la validation des systèmes informatisés, par des tests sur les systèmes tout d’abord, puis par la vérification de la mise en place de certaines dispositions organisationnelles (formations, procédures…).

Aujourd’hui, la multiplication des systèmes informatisés, bien souvent interfacés entre eux ainsi que leur niveau de configuration élevé, corrélé à la complexité des flux rendent cette approcheobsolète. Il devient nécessaire de passer d’un modèle focalisé sur les systèmes à un modèle focalisé sur les données, avec la mise en place d’un «Data Management», structuré et piloté par le risque, et garantissant une cohérence de traitement au sein de l’organisation. Idéalement, le «Data Management» est piloté par un référent «Quality Data Manager» dépendant de la Qualité, en lien avec tous les services gérant des données critiques supportant des décisions pharmaceutiques.

La qualité d’un produit pharmaceutique étant en partie déterminée par la qualité des enregistrements qui le supportent, les bonnes pratiques de «Data Management» et de « Data Integrity » doivent être pleinement intégrées au système qualité, et les risques qui en découlent pilotés au même titre que les risques sur le produit.

Visualisez l’article au complet :

  AKTEHOM – Data Management – Industrie Pharma – Avril 2017 (253,6 KiB, 593 hits)