Unter dem Feuerwerk ist das AI-Gesetz endlich veröffentlicht und wird in zwanzig Tagen ab dem Veröffentlichungsdatum in Kraft treten. Dies ist das Ende eines holprigen Weges bei der Ausarbeitung der europäischen Verordnung über künstliche Intelligenz (AI), die bereits 2021 begonnen hatte. Herzlichen Glückwunsch und die besten Wünsche an Europa für eine weitere Verordnung und die neue Ära, die nun beginnen wird. Als Hersteller von AI-Medizinprodukten müssen Sie nicht nur die MDR/IVDR, GDPR, Data Governance Act, Data Act und die Richtlinie über Netz- und Informationssysteme einhalten, sondern auch das AI-Gesetz.
Gleichgewicht zwischen Regulierung und Innovation: Der Umgang mit dem AI-Gesetz für Hersteller von Medizinprodukten
Gibt es also nur schlechte Nachrichten für Hersteller von Medizinprodukten? Nicht unbedingt. Es ist nicht unvernünftig, eine gewisse Aufsicht über die Entwicklung und den Einsatz von AI-Systemen zu fordern, und in der Tat kommen die MDR/IVDR in dieser Hinsicht ein wenig zu kurz. Wäre das dann eine Rechtfertigung für die Entwicklung einer separaten Verordnung über AI? Wenn man nur den medizinischen Bereich betrachtet, vielleicht nicht, aber es wurde beschlossen, eine horizontale Verordnung einzuführen, und das ist jetzt der richtige Weg. Die meisten der mit dem AI-Gesetz eingeführten Produktanforderungen sind keine Überraschung und sollten/könnten bereits in der aktuellen technischen Dokumentation der MDR/IVDR behandelt werden; sie wurden im AI-Gesetz lediglich expliziter formuliert. Da das AI-Gesetz eine einzige Bewertung durch eine benannte Stelle vorsieht, die sowohl das AI-Gesetz als auch die MDR/IVDR abdeckt, kann ein einziges technisches Dossier erstellt werden, das durch ein einziges QMS abgedeckt wird.
Im Zuge der Ausarbeitung wurde eine Reihe von Verbesserungen gegenüber früheren Versionen des Textes vorgenommen. Die Definition des Begriffs "AI-System" wurde geändert und ist nun besser auf die bestehenden Normen abgestimmt, in denen u. a. statistische Ansätze nicht mehr (automatisch) als AI-Systeme angesehen werden. Die QMS-Anforderungen für AI-Systeme können zusätzlich zum bestehenden ISO 13485 QMS implementiert werden, wobei Abschnitte hinzugefügt werden, in denen die Anforderungen noch nicht abgedeckt sind. Die Definition des Begriffs "Risiko" wurde hinzugefügt und an die ISO 14971 angeglichen. Neu eingeführt wurde die Aussage, dass in der Konformitätserklärung angegeben werden muss, dass das AI-Produkt auch mit der Datenschutz-Grundverordnung übereinstimmt.
Umsetzungszeitplan und Konformitätsanforderungen für das AI-Gesetz
Das Gesetz über künstliche Intelligenz wird 24 Monate nach dem Datum des Inkrafttretens anwendbar sein, mit einigen Ausnahmen, wie folgt:
- Sechs Monate für die allgemeinen Bestimmungen und verbotenen AI-Praktiken;
- 12 Monate für AI-Systeme mit hohem Risiko in Bezug auf notifizierende Behörden und notifizierte Stellen, AI-Modelle für allgemeine Zwecke, Governance, Sanktionen und Geldbußen für Anbieter von AI-Modellen für allgemeine Zwecke;
- 36 Monate für die Klassifizierungsregeln für AI-Systeme mit hohem Risiko und die entsprechenden Verpflichtungen.
Darüber hinaus werden Verhaltenskodizes als zentrales Instrument für die ordnungsgemäße Einhaltung der in dieser Verordnung vorgesehenen Verpflichtungen für Anbieter von AI-Modellen für allgemeine Zwecke definiert, die neun Monate nach Inkrafttreten verfügbar sein müssen.
Die meisten AI-Produkte (MDSW) im Gesundheitswesen werden als AI-Geräte mit hohem Risiko betrachtet und müssen alle Anforderungen des AI-Gesetzes erfüllen. Auch eingebettete AI-Software kann als risikoreich angesehen werden, wenn die KI als Sicherheitskomponente für das Medizinprodukt verwendet wird und die Produkteklassifizierung höher als I (MDR) oder A (IVDR) ist.
Gesundheitssoftware, Medizinprodukte der Klasse I und IVD-Produkte der Klasse A gelten nicht als risikoreich, es sei denn, sie werden verwendet:
- zur Auswertung und Klassifizierung von Notrufen durch natürliche Personen;
- zur Disposition oder zur Festlegung von Prioritäten bei der Disposition von Notfalleinsatzkräften;
- als Triage-Systeme für Patienten im Gesundheitswesen.
AI-Systeme gelten immer dann als risikoreich, wenn das AI-System ein Profiling von natürlichen Personen durchführt.
Die größte Herausforderung für Hersteller von AI-Medizinprodukten ist die Einhaltung der spezifischen harmonisierten Normen, die im Rahmen des AI-Gesetzes entwickelt werden.
Laden Sie das offizielle Dokument hier herunter.
Möchten Sie mehr über das AI-Gesetz erfahren?
Qserve veranstaltet am 25. und 26. September ein zweitägiges Schulungsprogramm in Amsterdam, Niederlande. Nehmen Sie an diesem dynamischen Schulungsprogramm über AI teil und bringen Sie Ihre Fähigkeiten auf die nächste Stufe! Tauchen Sie mit unseren von Experten geleiteten Sitzungen tief in die neuesten Fortschritte, praktischen Anwendungen und strategischen Einblicke in die künstliche Intelligenz (AI) ein. Weitere Informationen über die Veranstaltung finden Sie auf der entsprechenden Webseite.