AI Compliance-Grundlage für Medizinprodukte

Geschrieben von Coenraad Davidsdochter | Jun 12, 2025 2:15:00 PM

Künstliche Intelligenz (AI) ist in der heutigen, sich schnell entwickelnden Technologielandschaft zu einem festen Bestandteil vieler Medizinprodukte geworden. Unternehmen, die AI-Funktionen in Produkte des Gesundheitswesens integrieren, unterschätzen jedoch häufig die regulatorischen Auswirkungen, was zu erheblichen Geschäftsrisiken führt. Wir untersuchen die Herausforderungen bei der Einhaltung gesetzlicher Vorschriften für AI-fähige Medizinprodukte und bieten Strategien an, um Compliance-GAPs zu entschärfen und sicherzustellen, dass es genügend Beweise für den sicheren Einsatz dieser Geräte gibt.

Medizinprodukten mit AI in der Gesundheitsbranche sind Produkte, die im Vergleich zu herkömmlichen Software-Produkten zusätzliche Komplexität aufweisen. Sie weisen zwar die gleichen Risiken auf, doch die AI-Komponente bringt spezifische Herausforderungen mit sich, die während des gesamten Produktlebenszyklus sorgfältig berücksichtigt werden müssen, z. B:

  • Wie wird das AI-Modell entwickelt, und welche Risiken sind mit dem Entwicklungsprozess verbunden?
  • Wie wird das AI-System in der realen Welt eingesetzt und überwacht?
  • Welche Verfahren regeln die Umschulung des Modells und die Leistungsbewertung?


Die US-amerikanische FDA leistete Pionierarbeit mit dem Ansatz der "Guten Praxis des maschinellen Lernens", der den gesamten Produktlebenszyklus betrachtet und alle Elemente berücksichtigt, bei denen Risiken auftreten können. Diese Denkweise wurde von vielen anderen Ländern übernommen und vor kurzem vom IMDRF mit nur geringen Änderungen übernommen. Auf diesen Grundsätzen aufbauend hat die FDA weitere Leitlinien zu vorgegebenen Änderungskontrollplänen und Transparenz veröffentlicht.

In der Zwischenzeit wurde in Europa der AI ACT veröffentlicht, der ab 2027 auf Medizinprodukte anwendbar sein wird, die von einer benannten Stelle geprüft werden. Der AI ACT wird dann auf AI-Hochrisikoprodukte anwendbar sein, zu denen alle Medizinprodukte gehören, die gemäß der MDR/IVDR einer Konformitätsbewertung durch eine benannte Stelle unterzogen werden müssen. Der AI Act deckt im Grunde dieselben Bereiche ab wie die FDA-Leitlinien, fügt aber noch Umweltauswirkungen und ethische Überlegungen hinzu. Die derzeit in Europa auf dem Markt befindlichen Produkte werden nur nach der MDR/IVDR geprüft, für die Team-NB einen Fragebogen veröffentlicht hat, um die Hersteller bei der Ermittlung des Umsetzungs- und Dokumentationsbedarfs zu unterstützen, einschließlich vorgeschlagener Normen, die für die Einhaltung der Vorschriften zu verwenden sind.

Sobald die AI ACT auf Medizinprodukte anwendbar ist, soll es eine einzige Konformitätsbewertung geben, die sowohl die MDR/IVDR als auch die AI ACT abdeckt. Für diese Bewertung ist die von der AI ACT geforderte technische Dokumentation in die technische Akte der MDR/IVDR zu integrieren, und die Anforderungen an das QMS der AI ACT sind in das auf der ISO 13485 basierende QMS des Herstellers zu integrieren.

Spezifische Normen zur Unterstützung der Einhaltung der AI ACT sind in der Entwicklung, einschließlich bekannter Medizinproduktthemen wie QMS, Risikomanagement und Validierung der Gebrauchstauglichkeit.

Da sich ein wichtiger Satz von Leitlinien für die AI in der allgemeinen Praxis verzögert hat und die wichtigsten Umsetzungsfristen für das AI-Gesetz Ende des Sommers ablaufen, erwägt die Kommission einen Vorschlag zum "Anhalten der Uhr" für das AI-Gesetz. Da dies hauptsächlich AI-Systeme für allgemeine Zwecke, die Mitgliedstaaten und die Kommission betrifft, besteht kein direkter Zusammenhang mit AI-Systemen mit hohem Risiko, und die möglichen Auswirkungen auf die Fristen für die Einhaltung der Vorschriften für Medizinprodukte sind noch nicht abzusehen.

Kritische Elemente der Einhaltung von AI-Vorschriften

Die Auswahl des Modells bildet zusammen mit der Datenerfassung und -verwaltung die Grundlage für die Einhaltung der Vorschriften bei der Entwicklung von AI-Medizinprodukten, da dies die Leistungsmerkmale des AI-Geräts bestimmt. Es ist von entscheidender Bedeutung, dass das Modell so ausgewählt wird, dass es für den beabsichtigten Zweck am besten geeignet ist und dass die Trainingsdaten die vorgesehene Patientenpopulation repräsentieren, unter Berücksichtigung von Alter, Geschlecht und anderen demografischen und krankheitsbedingten Variablen.

Die Aufsichtsbehörden erwarten eine vollständige Trennung zwischen Trainings-, Test- und Validierungsdatensätzen. Im Allgemeinen werden etwa 80 % der Datensätze für das Training und 20 % für das Testen und die Validierung verwendet. Diese Trennung gewährleistet eine unabhängige Überprüfung der AI-Leistung bei Anwendungen im Gesundheitswesen. Darüber hinaus müssen alle Auswahlkriterien und Datensatzmerkmale gründlich dokumentiert werden, um die Sorgfaltspflicht bei der Datenaufbereitung nachzuweisen. Es ist wichtig, dass diese Aktivitäten durch QMS-Prozesse gesteuert werden, um eine kontrollierte, dokumentierte und überprüfbare Ausführung dieser Aktivitäten zu gewährleisten.

Ein weiterer kritischer Bereich ist die Risikobewertung des AI-Geräts, denn spezifische AI-bezogene Risiken müssen in die Risikobewertung des Medizinprodukts einbezogen werden. Eine gute Quelle ist die BS/AAMI 34971 Application of ISO 14971 to machine learning in artificial intelligence, die Strategien zur Risikobewertung enthält und wertvolle Beispiele für Risikobewertungs- und -minderungsstrategien liefert.

In unserem nächsten Blog werden wir diese zusätzlichen kritischen Elemente ausführlicher erörtern, um die Einhaltung aktueller und zukünftiger Vorschriften zu unterstützen.