Regulatorische Grenzlinien im Zeitalter von Gesundheits‑AI
AI‑Chatbots werden für viele Nutzerinnen und Nutzer zu einem ersten Zugangspunkt für Gesundheits‑ und Symptominformationen. Ein aktueller Beitrag der New York Times (They Asked an A.I. Chatbot Questions. The Answers Sent Them Spiraling. - Longreads) hat dies erneut deutlich gemacht. Gleichzeitig stellen sich immer dringlicher Fragen, die bis ins Herz des EU‑Regulierungsrahmens reichen:
👉 Ab wann wird ein AI‑Chatbot im Gesundheitskontext nach der EU‑Medizinprodukteverordnung (MDR) rechtlich als Medizinprodukt eingestuft?
Und: Welche zusätzlichen Anforderungen bringt der EU‑AI‑Act mit sich – insbesondere für adaptiv lernende Systeme?
Wann ein Chatbot regulatorisch die Schwelle zum Medizinprodukt überschreitet
Die MDR definiert Software als Medizinprodukt, wenn sie einen medizinischen Zweck verfolgt, etwa Diagnose, Vorhersage, Überwachung oder Therapieentscheidung.
Aktuelle regulatorische Entwicklungen bestätigen diese Linie:
- Die EU‑Kommission hat 2026 gezielte Anpassungen der MDR/IVDR vorgeschlagen, um Software‑Klassifizierung zu präzisieren und Funktionen angemessen dem klinischen Risiko zuzuordnen. Dies betrifft ausdrücklich medizinische Software und AI‑gestützte Systeme.
- Gleichzeitig haben der Medical Device Coordination Group (MDCG) und das European Artificial Intelligence Board (AIB) 2025 erstmals eine gemeinsame Leitlinie (MDCG 2025‑6 / AIB 2025‑1) zur Schnittstelle von MDR/IVDR und AI‑Act veröffentlicht. Sie stellt klar: Wenn ein AI‑System eine medizinische Zweckbestimmung erfüllt, gelten MDR/IVDR und AI‑Act gleichzeitig.
Damit ist rechtlich eindeutig:
Ein Chatbot, der Symptome analysiert, Diagnosen vorschlägt, triagiert oder Therapieentscheidungen beeinflusst, wird funktional wie ein Medizinprodukt behandelt – unabhängig davon, wie er vermarktet wird.
Warum ein Disclaimer ("Kein medizinischer Rat") nicht schützt
Viele Entwickler versuchen, sich mit Hinweisen wie "Dieser Chatbot ersetzt keine ärztliche Diagnose" abzusichern. Regulierung funktioniert jedoch nicht über Warnhinweise, sondern über tatsächliche Funktionalität.
Die gemeinsamen EU‑Guidelines halten fest:
- Die intendierte Zweckbestimmung wird aus dem tatsächlichen Verhalten und der Art der bereitgestellten Funktionen abgeleitet – nicht aus Marketingformulierungen.
- Wenn das System de facto diagnostische oder therapeutische Entscheidungen beeinflusst, ist es MDR‑relevant, auch wenn der Anbieter dies bestreitet.
Kurz:
Wenn ein Chatbot wie ein Medizinprodukt agiert, wird er als Medizinprodukt reguliert – Disclaimer hin oder her.
Der EU‑AI‑Act erhöht den regulatorischen Druck zusätzlich
Selbst wenn ein Chatbot formal kein Medizinprodukt ist, kann er unter den EU‑AI‑Act fallen.
AI‑Systeme im Gesundheitsbereich gelten im Regelfall als „Hochrisiko‑AI“, sobald sie:
- diagnostische oder therapeutische Entscheidungen beeinflussen,
- Patientensicherheit betreffen oder
- in ein Medizinprodukt integriert sind.
Der AI‑Act verlangt u. a.:
- Bias‑Kontrolle & robuste Datengovernance – Hersteller müssen nachweisen, wie Trainingsdaten repräsentativ und frei von systematischen Verzerrungen sind.
- Transparenz, Nachvollziehbarkeit und menschliche Aufsicht – Nutzer müssen verstehen können, wie das System zu einer Empfehlung gelangt.
- Lebenszyklusüberwachung, insbesondere bei nachgelagerten Updates und lernenden Systemen.
Die meisten zentralen Pflichten für Hochrisiko‑AI treten ab August 2026 in Kraft, vollständige Durchsetzung folgt 2027.
Damit entsteht ein Doppelregime:
MDR/IVDR + AI‑Act für jedes AI‑gestützte System mit medizinischer Funktion.
Adaptive, generative Modelle: der größte regulatorische Stresspunkt
Moderne Chatbots wie LLM‑basierte Systeme sind:
- nicht‑deterministisch,
- kontinuierlich lernend,
- kontextsensitiv und
- oft nicht vollständig erklärbar.
Für die MDR, die auf Validierung, Stabilität und reproduzierbare Leistung ausgerichtet ist, stellt dies eine erhebliche Herausforderung dar.
Mehrere Institutionen betonen dies ausdrücklich:
- Die MDR/IVDR‑Reformen der EU‑Kommission stärken Anforderungen an Lifecycle‑Management, PMS und Software‑Risikomanagement, gerade für AI‑Systeme.
- Die WHO warnt vor einem "regulatorischen Vakuum", weil Gesundheitssysteme die Integration von AI schneller vorantreiben als die rechtlichen Schutzmechanismen mithalten können.
Damit ist klar:
Gerade innovative, adaptive Chatbots fallen typischerweise eher in den strengeren Regulierungsbereich.
Sollten Gesundheits‑Chatbots reguliert werden? – Drei Positionen
Ja, wenn sie klinische Entscheidungen beeinflussen
Dies entspricht der Logik von MDR und AI‑Act.
Vielleicht, wenn sie faktisch medizinisch wirken
Auch „nur informativ“ kann regulatorisch relevant werden, wenn Inhalte personalisiert erscheinen.
Nein, wenn sie strikt generisches Wohlbefinden adressieren
Dies ist allerdings nur möglich, wenn das System technisch daran gehindert wird, medizinische Aussagen zu treffen – schwer zu garantieren bei großen Sprachmodellen.
Wo die regulatorische Trennlinie sinnvollerweise liegen sollte
Für die Zukunft deutet sich ein risikobasierter Schwellenwert an – entscheidend sind u. a.:
- Wie konkret ist die Empfehlung?
- Wie personalisiert ist sie?
- Wie wahrscheinlich ist es, dass Nutzer:innen medizinische Entscheidungen ableiten?
- Kann ein Fehler realen Schaden verursachen?
Die gemeinsame MDCG/AIB‑Guidance zeigt: Europa bewegt sich klar in Richtung eines dualen, risikoorientierten Modells aus MDR + AI‑Act.
Praktisch bedeutet dies für Hersteller und Betreiber:
Wenn ein Chatbot auch nur teilweise wie ein Medizinprodukt funktioniert, sollte er regulatorisch wie eines behandelt werden.
Wie DORDA Unternehmen unterstützt
Das DORDA Health & Life Science Team begleitet Unternehmen entlang des gesamten regulatorischen Spektrums:
- Einstufung nach MDR/IVDR, inkl. Rule‑11‑Analyse
- Prüfen der Anwendbarkeit des EU‑AI‑Acts
- Formulierung der intendierten Zweckbestimmung
- Erstellung risikobasierter Technischer Dokumentationen
- Entwicklung eines Lifecycle‑, PMS‑ und Monitoring‑Frameworks für adaptive AI
- Regulatorische Begleitung bei Generativer AI im Gesundheitskontext
Wir unterstützen Start‑ups, Tech‑Unternehmen und etablierte Hersteller dabei, innovative digitale Gesundheitslösungen rechtssicher, marktfähig und verantwortungsvoll zu gestalten.