Dieser Artikel untersucht die Anwendbarkeit des KI -Gesetzes für Hersteller von medizinischen Geräten und IVD, die NEIN Bringen Sie KI-basierte Produkte auf den Markt.

Unter anderem beantwortet er die Frage, ob ein Hersteller das KI -Gesetz berücksichtigen muss, wenn er Chatgpt verwendet oder ein KI -System für seine eigene Verwendung entwickelt, die das Kundenfeedback klassifiziert.

In diesem Dokument wird der Fall nicht erörtert, dass die Betreiber die Herstellerverpflichtungen gemäß Artikel 25 des AI-ACT übernehmen, beispielsweise weil sie das KI-System ändern.

1. Regulatorischer Rahmen

1.1 Umfang / Anwendungsbereich

Das AI Act definiert seinen “Umfang” (Anwendungsbereich) in Artikel 2:

Diese Verordnung gilt für

A) AnbieterDas brachte KI -Systeme auf den Markt in der Gewerkschaft oder in Betrieb nehmen oder KI -Modelle auf den Markt bringen, unabhängig davon, ob diese Anbieter in der Union oder in einem Drittland beigelegt sind.

B) Betreiber von AI -Systemendie in der Union ansässig sind oder in der Union sind;

Die Verordnung definiert auch den Begriff Operator:

Eine natürliche oder juristische Person, Autorität, Einrichtung oder ein anderes Gremium, das ein KI-System für seine eigene Verantwortung verwendet, es sei denn, das KI-System wird als Teil einer persönlichen und nicht professionellen Aktivität verwendet;

Die Anwendbarkeit des AI -Gesetzes bezieht sich somit auf Anbieter (Hersteller) und Betreiber.

Abb. 1: Die Anwendbarkeit des KI -Gesetzes (der Umfang) umfasst Hersteller und Betreiber

1,2 ACI-Systeme mit hohem Risiko

Gemäß Artikel 6 Produkten, die enthalten oder sind, die enthalten oder sind, die enthalten oder sind, die mit hohem Risiko sind

  • sind eine Sicherheitskomponente oder enthalten und gefährden somit die Gesundheit und Sicherheit von Menschen oder Eigentum
  • werden in Anhang III erwähnt, es sei denn, sie stellen kein erhebliches Risiko dar.

Anhang III:

  • Biometrische Systeme
  • Systeme für allgemeine und berufliche Schulungen, die sich für den Zugang zu Bildung entscheiden oder die Bewertung von Lernergebnissen oder die Ausbildungsstufe dienen
  • Systeme, die über die Auswahl, Einstellung, Werbeaktionen oder Beendigung von Beschäftigungsverhältnissen festgelegt werden

1.3 Übergangsperioden

Artikel 111:

. In jedem Fall erfüllen die Anbieter und Betreiber von ACI-Systemen mit hohem Risiko, die von den Behörden verwendet werden sollen, die erforderlichen Maßnahmen für die Erfüllung der Anforderungen und Verpflichtungen dieser Verordnung bis zum 2. August 2030.

2. Anforderungen

2.1 Anforderungen an die Kompetenz

In Artikel 4 erfordert die Verordnung auch die Kompetenz der Betreiber:

Die Anbieter und Operator Aus KI -Systemen ergreifen Maßnahmen, um sicherzustellen, dass Ihre Mitarbeiter und andere Personen, die am Betrieb und die Verwendung von KI -Systemen beteiligt sind, über ein ausreichendes Maß an KI -Kompetenz verfügen, wobei Ihr technisches Wissen, Ihre Erfahrung, Ihr Training und Ihr Training und den Kontext, in dem die KI -Systeme verwendet werden sollen, sowie die Menschen oder die Menschen, für die die AI -Systeme verwendet werden sollen.

Die Verordnung definiert auch den Begriff „KI -Kompetenz“:

Die Fähigkeiten, das Wissen und das Verständnis, die Anbieter, Betreiber und Betroffene unter Berücksichtigung ihrer jeweiligen Rechte und Verpflichtungen im Rahmen dieser Verordnung berücksichtigen, ermöglichen es, KI -Systeme zu verwenden, die sich sachkundig sind und sich über die Chancen und Risiken von KI und möglichen Schäden bewusst werden können, die sie verursachen können.

2.2 Anforderungen für Betreiber von ACI-Systemen mit hohem Risiko

Der AI-ACT (Artikel 26) verpflichtet die Betreiber von Hochrisiko-ACI-Systemen für Folgendes:

  • System, wie vom Hersteller bestimmt
  • Stellen Sie die Kompetenz der Benutzer sicher
  • Überwachen Sie das System, machen Sie auch die menschliche Überwachung
  • Behalten Sie Protokolle auf
  • Berichtsprobleme (Hersteller, Behörden) (siehe auch Artikel 73)

Darüber hinaus sind die Betreiber verpflichtet

  • Ein Grundrechte für die Follow-up-Bewertung vornehmen (Artikel 27)
  • Um sich zu registrieren (Artikel 49) (Dies wirkt sich nur auf Produkte gemäß Anhang III: UA Education, HR aus) aus.
  • Von der Entscheidung betroffene Personen liefern Informationen (Artikel 86) (dies gilt nur für Produkte gemäß Anhang III))

2.3 Anforderungen für Betreiber “bestimmte KI -Systeme”

Artikel 50 bestimmt die Anforderungen für verschiedene Arten von KI -Systemen:

Typ: AI -Systeme, die Erfordernis
direkt mit natürlichen Personen interagieren Keine Betreiberverpflichtungen (Anbieter müssen Systeme entwerfen, damit die Menschen darüber informiert werden)
Emotionserkennung dienen Betrachten Sie den Datenschutz
Die Bild-, Ton-, Text- oder Video -Romane werden verwendet Deeppaces oder Manipulation öffnen

3. Antworten

3.1 umfangreiches All -Clear

In der ersten Annäherung werden Hersteller, die keine KI-Systeme produzieren und sie verwenden, abgesehen von den Kompetenzanforderungen nicht von AI-ACT betroffen.

Zum Beispiel reguliert das AI -Gesetz nicht die Verwendung (!) LLMs à la chatgpt. KI kann auch als Teil von QM -Prozessen verwendet werden, z. B., z. B., um Prozesse zu automatisieren oder zu optimieren (z. B. Chatbox für die Kundenkommunikation) oder um die Konformität von Produkten oder Prozessen zu überprüfen.

3.2 Ausnahmen von All -Clear

Es gibt jedoch Ausnahmen.

  • Dies schließt Hochrisiko-ACI-Systeme ein, insbesondere die Systeme gemäß Anhang III. Dies sollte im Fall von Herstellern von Medizinprodukten im HR -Kontext sein, insbesondere für (weitere) Ausbildung und für Personalentscheidungen. Es ist irrelevant, ob der Hersteller diese Systeme selbst entwickelt oder von Dritten verwendet hat.
  • Wenn Hersteller ihre medizinischen Geräte oder IVD selbst betreiben, gilt sie auch als Betreiber von Hochrisikosystemen. Ein Beispiel wäre ein Hersteller, der den Server für eine mobile medizinische App betreibt, auf der AI -Algorithmen ausgeführt werden und die ein medizinisches Gerät oder ein Teil von einem ist.

3.3 Hinweis medizinische Geräte

Die Anforderungen aus dem Gesetz über das medizinische Gerät (z. B. MDR, IVDR, ISO 13485) gelten unabhängig davon. Beispielsweise sollten die Hersteller die Anforderungen für die computergestützte Systemvalidierung berücksichtigen, wenn sie ein AI -System als Teil von QM -Prozessen verwenden.

Das Johner -Institut unterstützt sowohl Hersteller als auch Betreiber bei der Erfüllung der Anforderungen des AI -Gesetzes. Mögliche Hilfe sind

  • eine Bewertung, welche regulatorischen Anforderungen für das jeweilige Unternehmen gelten,
  • Projektpläne,
  • Vorlagen für Sophs, Arbeitsanweisungen und Aufzeichnungen,
  • Qualifikation der verantwortlichen Personen und
  • Tipps, um unnötige Ausgaben zu vermeiden.



Lifestyle