Dans ce blog, nous aborderons les principaux domaines d'intérêt de la conformité à l'AI des dispositifs médicaux, en nous concentrant sur les cadres réglementaires de la FDA et de l'Europe. Les éléments sont tirés des lignes directrices de la FDA sur les bonnes pratiques d'apprentissage automatique (GMLP), les plans de contrôle des changements prédéterminés et la transparence, combinés à des éléments du questionnaire Team-NB sur l'AI dans le cadre du MDR/IVDR ainsi qu'à des exigences de l'AI ACT.
Gestion des risques
Un élément essentiel de tout dossier technique de dispositif médical est le dossier de risque, dans lequel les dangers et les situations dangereuses spécifiques au dispositif doivent être identifiés. Pour les dispositifs médicaux basés sur l'AI, ce dossier comprendra les risques spécifiques à l'AI. Ces risques comprennent les risques liés à la gestion des données qui doivent être couverts pendant toute la durée de vie du dispositif.
Les risques liés à l'AI peuvent concerner la qualité des données, la partialité, la confiance excessive, la dérive des données, le recyclage, etc. La norme BS/AAMI 34971 constitue un bon point de départ pour identifier et traiter les risques spécifiques à l'AI, car elle contient une discussion sur les risques spécifiques à l'AI et des exemples pratiques de dangers liés aux machines, d'événements prévisibles, de situations dangereuses, de dommages et de mesures de contrôle des risques.
L'AI ACT utilise les mêmes concepts de préjudice que l'ISO 14971, mais y ajoute la perturbation des infrastructures critiques et la violation des obligations relatives aux droits fondamentaux.
Sélection des modèles et formation
Le processus réglementaire exige une justification des décisions relatives à la sélection des modèles. Les développeurs doivent expliquer pourquoi une architecture de modèle particulière a été choisie et fournir la preuve que le modèle sélectionné est adapté à l'objectif visé. Cela inclut des données de validation montrant que le modèle atteint l'exactitude et la précision requises pour son application médicale.
La collecte de preuves à l'appui des affirmations sur les performances du modèle est une exigence réglementaire. Les autorités réglementaires attendent une documentation complète sur le processus de formation du système d'AI, les mesures de performance et les limites afin de s'assurer qu'il répond aux normes de sécurité et d'efficacité.
Plans de contrôle des changements
Les modèles d'AI peuvent faire l'objet d'une nouvelle formation après leur déploiement afin d'en améliorer les performances. Il est important d'élaborer au préalable des protocoles spécifiant les conditions dans lesquelles le recyclage est autorisé et décrivant les limites et les valeurs seuils garantissant que la mise à jour peut être utilisée en toute sécurité. Ces plans sont évalués dans le cadre de l'approbation réglementaire du dispositif d'AI, ce qui permet au fabricant de recycler le dispositif sans avoir besoin d'une approbation supplémentaire tant que la modification reste dans les limites définies.
Déploiement et surveillance post-commercialisation
Après le développement, la garantie d'un déploiement sûr et efficace nécessite souvent la collecte de preuves, y compris parfois des données cliniques, pour démontrer la sécurité. Les entreprises doivent mettre en place des systèmes de surveillance robustes pour suivre les performances dans le monde réel et développer des processus pour saisir les décisions et les comparer aux résultats cliniques.
Contrairement à de nombreuses applications d'AI grand public, l'AI dans le secteur de la santé ne peut pas mettre en œuvre un apprentissage continu autonome. Au lieu de cela, des approches structurées pour le recyclage des modèles avec une supervision humaine sont nécessaires. Les organismes de réglementation mettent de plus en plus l'accent sur les exigences de surveillance post-commercialisation des dispositifs d'AI, y compris le contrôle des performances en cours et la mise en œuvre de processus visant à identifier et à résoudre les problèmes qui apparaissent lors de l'utilisation en situation réelle.
Culture de la qualité et interaction entre l'homme et l'AI
La réussite de la mise en œuvre de l'AI dans les dispositifs médicaux dépend d'une culture organisationnelle axée sur la qualité, qui intègre des considérations de qualité dans tous les aspects du développement, du déploiement et du suivi. Comme le souligne la FDA, cette "culture de la qualité et de l'excellence organisationnelle" réduit considérablement le risque de dispositifs dangereux ou inefficaces.
Il est tout aussi important de mettre l'accent sur la transparence des systèmes d'intelligence artificielle, afin que les opérateurs humains puissent comprendre le fonctionnement de l'intelligence artificielle et reconnaître les résultats potentiellement problématiques. Les régulateurs s'intéressent de plus en plus aux performances de l'équipe homme-AI, et pas seulement à la précision des algorithmes, mais aussi à l'efficacité de la collaboration entre l'homme et l'AI dans un contexte clinique. Cette approche reconnaît que l'AI dans les soins de santé ne fonctionne pas de manière indépendante, mais qu'elle fait partie d'une équipe homme-AI pour la sécurité des patients.
Extension du système de gestion de la qualité
Il est important que tous les éléments décrits soient soutenus par des processus de QMS afin que l'exécution de ces éléments soit enregistrée et contrôlée. Les fabricants devront étendre leur QMS avec les procédures correspondantes. Pour la conformité à l'AI ACT, une mise à jour de la norme ISO 42001 AI Quality Management System est en cours de préparation dans le cadre de la première demande d'harmonisation soutenant l'AI ACT.
Dans notre prochain blog, nous aborderons la stratégie réglementaire pour la conformité des dispositifs médicaux à l'AI.