Politik, Prozess-änderungen, die erforderlich sind, um sicher zu integrieren AI in klinische workflows

Ein neuer Bericht der Herzog-Margolis Center for Health Policy untersucht einige der politischen Veränderungen, die gemacht werden sollte, um zu ermöglichen, sicherer und effektiver Einsatz von artificial intelligence im Gesundheitswesen.

Als KI und des maschinellen Lernens werden de facto Zutaten in vielen wichtigen klinischen Technologien, ein besseres Verständnis von, wie Sie am besten genutzt werden, für eine optimale Analyse und Entscheidungsfindung ist das Ziel der Studie, „Aktuelle Lage und Kurzfristige Prioritäten für AI-Fähige Diagnose-Support-Software in der Gesundheitsversorgung.“

WARUM ES WICHTIG IST
Der Herzog Bericht enthält eine Bestandsaufnahme der bestehenden rechtlichen und regulatorischen Umfeld für die Algorithmus-basierte CDS und Diagnose-support-software, und legt einige wesentliche Schwerpunkte zur Arbeit in Richtung in den kommenden Jahren für die sichere Bereitstellung von AI in den klinischen Einstellungen.

Diese sind nicht nur theoretische Bedenken. KI und ML sind auf dem Vormarsch alle über das Gesundheitswesen, natürlich, und die gegenwärtigen Rechtsvorschriften und ordnungspolitische Maßnahmen – sei es die massive 21st Century Kuren Handeln oder FDA neue updates für die Software, Pre-Cert-Pilot-Programm – sind angemessen, aber immer noch nicht optimal für die Zukunft verspricht sich in einem schwindelerregenden Tempo.

Die Herzog-Margolis Papier, gemeint als eine „Ressource für Entwickler, Behörden, ärzten, politischen Entscheidungsträgern und anderen Interessengruppen, wie Sie sich bemühen, effektiv, ethisch und sicher zu integrieren, die AI als ein wesentlicher Bestandteil in der diagnostischen Fehler-Prävention und andere Arten von CDS,“ untersucht einige der wichtigsten Herausforderungen und Chancen für KI in den kommenden Jahren.

Akteure wie jene aufgeführt zu werden brauchen, um sich mit großen Fragen, die mehr als ein Dutzend Forscher und Autoren schreiben. Wie zum Beispiel:

  • Machen Sie ein Fall für den Wert der mehr weit verbreitete Annahme dieser Technologien. Einen solchen Beweis würde beinhalten, wie die software-Patienten das Outcome verbessert, erhöht die Qualität und senkt die Kosten der Versorgung, gibt der Kliniker relevanten Informationen in einer Weise, die Sie finden, „nützlich und vertrauenswürdig ist.“
  • Bei der Bewertung der potenziellen Risiken der Verwendung dieser Produkte in der klinischen Einstellungen. „Der Grad, zu dem ein software-Produkt mit Informationen, die erklärt, wie es funktioniert und die Typen von Populationen, die für die Ausbildung der software haben erhebliche Auswirkungen auf die Behörden und ärzte eine Bewertung der Risiken für die Patienten, wenn ärzte diese software zu benutzen,“ sagte Duke-Forscher. „Produkt-Kennzeichnung können, müssen überdacht werden und die Risiken und Vorteile von continuous learning versus gesperrt-Modelle diskutiert werden müssen.“
  • Es zu sehen, dass solche Systeme bereitgestellt werden, in einer Weise, die sowohl flexible als auch ethisch. Mehr und mehr Gesundheits-Systeme zu entwickeln, best practices, abzumildern, bias, könnte eingeführt werden, indem die Trainingsdaten verwendet, um software zu entwickeln, erklärte Sie. Das ist der einzige Weg, um sicherzustellen, dass „data-driven AI Methoden nicht perpetuieren oder verschärfen bestehende klinische Vorurteile.“

Auch diese Organisationen haben sich intensiv Gedanken über die Daten, die Auswirkungen der Produkte, die scale-up in den Einstellungen vielleicht anders ersten Anwendungsfälle. Und, natürlich, „neue Paradigmen erforderlich sind, wie am besten schützen Sie die Privatsphäre von Patienten.“, so der Bericht.

DER GRÖßERE TREND
Als die technischen Möglichkeiten und klinischen Anwendungen von AI-aktiviert die Unterstützung der Entscheidungsfindung weiterhin zu erweitern, die Duke-Forscher sagte, mehr regulatorische Klarheit von Agenturen wie FDA, die bereits signalisiert hat Appetit auf viel breitere Zustimmung von machine-learning-apps, ist notwendig, um den Schutz der Patienten von mutwilligen Einsatz der „black-box“ – algorithmen, die viele haben gewarnt.

Darüber hinaus gibt es andere wichtige Bereiche, Bügeleisen / -out. Unter Ihnen: angemessene Vergütungen für Patienten, Datenschutz und Daten-Zugriff und die Möglichkeit für diese sich schnell entwickelnde Technologien demonstrieren Mehrwert und ROI für die Anbieter. In all diesen, Krankenhäuser und die Gesundheitssysteme haben, eine aktive Rolle zu spielen.

Dann gibt es alle möglichen anderen technischen Fragen geben – aber noch nicht unbedingt beantwortet wurde, sicherlich nicht auf eine einheitliche oder breiter basis. Wie: wie die neuen Ansätze zur Kennzeichnung der unterschiedlichen software verbessern könnte Verständnis für Ihr Innenleben; wie Abwägung der relativen Risiken und Vorteile von gesperrten versus kontinuierlich lernen Modelle der KI; wie bewerten Sie seine Leistung über die Zeit am effektivsten; wie zu mildern Daten bias; wie zu beurteilen ist, „Algorithmische Anpassungsfähigkeit“ und mehr.

AUF DER PLATTE
„AI ist nun bereit, um zu stören Gesundheit, mit dem Potenzial zur Verbesserung der Patienten-Ergebnisse, senken die Kosten und verbessern die work-life-balance für Gesundheits-Anbieter, sondern einen politischen Prozess nötig“, sagte Greg Daniel, stellvertretender Direktor für policy an der Duke-Margolis, in einer Erklärung.

„Die Integration von KI in der Gesundheitsversorgung sicher und effektiv, Bedarf einer sorgfältigen Prozess, erfordern von Politik und Interessengruppen, um ein Gleichgewicht zwischen den wesentlichen arbeiten, die dem Schutz der Patienten, während sichergestellt wird, dass Innovatoren haben Zugang zu den Werkzeugen, die Sie benötigen, um erfolgreich in der Herstellung von Produkten, die zur Verbesserung der öffentlichen Gesundheit“, sagte er.

„AI-aktivierten klinischen Entscheidung support-software hat das Potenzial, helfen, ärzte kommen zu einer richtigen Diagnose schneller, während die Verbesserung der öffentlichen Gesundheit und die Verbesserung der klinischen Ergebnisse“, ergänzt Christina Silcox, managing associate bei Herzog-Margolis und co-Autor des Berichts. „Zu erkennen AI Potenzial im Gesundheitswesen, regulatorische, rechtliche, Daten, und die Annahme von Herausforderungen, die Verlangsamung sichere und effektive innovation, die angegangen werden müssen.“

Twitter: @MikeMiliardHITN
E-Mail der Autorin: [email protected]

Healthcare-IT-News ist eine Publikation der HIMSS Medien.