Wie sollte die KI so gestaltet und geregelt, und wer sollte es dienen?
Die US-amerikanische Food and Drug Administration enthüllt eine neue Reihe von Entwürfen von Empfehlungen auf klinischen Entscheidung support-software vor kurzem, und in seiner Führung, so die Agentur, es ist ein Risiko-basierten Ansatz für die Kategorisierung dieser verschiedenen CDS tools, viele von Ihnen angetrieben durch künstliche Intelligenz, dass es hofft, auf einen „angemessenen ordnungspolitischen Rahmen, die Berücksichtigung der Realitäten, wie Fortschritte in der Technologie spielen eine entscheidende Rolle bei der effizienten Entwicklung von digital health-Technologien.“
Angesichts der weiten Verbreitung von AI und machine learning software in der Gesundheitsversorgung, und die Geschwindigkeit, mit der es sich entwickelt, dass wird sicherlich nicht das Letzte Wort von der FDA oder anderen Regulierungsbehörden, auf das Thema.
Zu einer wirklich globalen Rahmen
In der Tat, sagte Robert Havasy, Geschäftsführer der Personal Connected Health Alliance, wenn er sieht in den USA und auf der ganzen Welt sieht er die Anfänge einer „wirklich globalen Rahmen, schwellen, mit gemeinsamen Grundsätze zwischen den USA, Europa und anderen Orten,“ für den sicheren und effektiven Einsatz von AI in der Gesundheitsversorgung.
Havasy Sprach auf der HIMSS Connected Health-Konferenz während einer Diskussion am Runden Tisch über die Entwicklung von Ansätzen zur KI-Verordnung und design.
„Wir sind von der Bewertung von Risiken, die mit einer global-system“, sagte Havasy. „Es gibt einige Allgemeine Prinzipien, von denen scheint zu sein, dass das Risiko vermutlich geringer, wenn es gibt kompetente Personen, die können Ihre eigenen Entscheidungen treffen und verstehen, wie ein system funktioniert.“
Dr. Kunst Papier, ein Dermatologe an der University of Rochester und Gründer und Geschäftsführer von KI-Unternehmen VisualDx erklärt, auch wenn ein KI-Algorithmus, sagt ein Maulwurf ist zu 99,9% gutartig, wenn der patient sagt, dass der Maulwurf hat sich vor kurzem geändert, es wird immer entfernt.
Das Gesundheitswesen ist nirgendwo in der Nähe der Stelle, wo „diese algorithmen sind zuverlässig genug, um zu Vertrauen“ ohne qualifizierte menschliche intervention, sagte er.
Eine erklärbare Prozess
Bei VisualDx, sagte Papier, “wir sind sehr prozessorientiert. Da Lesen wir die FDA-Anleitung, die wir sehen, dass die FDA die wirklich will, um sicherzustellen, dass Ihr Prozess ist erklärbar, und Sie wissen, laufen die tests und die Daten zur Unterstützung der Arbeit.“
Es ist entscheidend, sagte er, für KI-Entwickler zu werden „erklären, was du tust, so gut du kannst und Belag, die – so Ihre Benutzer nicht das Gefühl haben, dass es nur ein großer schwarzer Kasten.“
Matias Klein, CEO der Kognition.ai erkennt, dass „es gibt eine Menge von Angst, Unsicherheit und Zweifel gibt, darüber, was KI ist und wie Sie Einfluss auf unsere Welt.“ Diese Angst nimmt viele Formen an, nicht nur im Gesundheitswesen, sondern der ganzen Gesellschaft.
„Es ist die Aufgabe Verschiebung Angst, dass die AI ersetzen Sie alle unsere Arbeitsplätze“, sagte er. “Es ist der Große Bruder der Angst, wo man weiß, die Regierung zu gehen, um spy auf uns und die KI ist zu wissen alles über uns. Und dann gibt es die Skynet Angst: Terminator werde eines Tages aufwachen und übernehmen.“
Pop-Kultur-Ansichten von AI
Diese Bedenken werden genährt durch die pop-Kultur und nicht auf der Realität basiert, per se, räumte er ein. “Aber ich denke am Ende des Tages, es spricht für die Anliegen der Bürger. Sie sind ängstlich, über Veränderungen und neue Dinge, und Sie wollen sicherstellen, dass es ausgerollt wird, in einer Weise, die sicher ist. Also ich begrüße die von der FDA für das sehen, das durch eine Risiko-basierte Objektiv und sicherstellen, dass wir regulieren AI, um Menschen zu schützen, damit Sie nicht geschädigt werden.“
Weil wenn sicher entwickelt und bereitgestellt werden, mit bedacht, „das ist ein Bereich, wo ich radikal disruptive potential für die Menschheit, die die Welt intelligenter und sicherer“, sagte Klein. “Wenn wir die AI zu überwachen, ob es um Sicherheit oder ob es für eine klinische Indikationen ich glaube, dass die Fähigkeit KI zu verarbeiten große Mengen von Daten ist eine erstaunliche Produktivität und decision support-Multiplikator. Aber wir müssen es bereitstellen, in nachdenklicher Weise.“
Healthcare-IT-News vor kurzem Sprach mit Dr. Jesse Ehrenfeld, Vorstands-Vorsitzender der American Medical Association, über die Organisation, die Positionen auf die vor-und Nachteile von AI und machine learning in der klinischen Praxis.
Ein Schritt in die richtige Richtung
Auf der Connected Health Conference, Ehrenfeld, sagte der AMA sieht die FDA-Führung als “Schritt in die richtige Richtung; aus unserer Sicht, Aufsicht und Regulierung aller dieser healthcare-Systeme werden basierend auf dem Risiko, den Schaden und nutzen.
„Es ist zu berücksichtigen, Dinge wie der Verwendungszweck, die Transparenz, die Fähigkeit zu verstehen, was die Beweise für die Sicherheit ist, das Niveau der Automatisierung“, erklärte er. “Und ich denke, es ist ein real-Wert in die gemeinsamen Terminologie.
„Wurde, glaube ich, ein Stein des Anstoßes, in diesem Raum, wie die verschiedenen Teile des ökosystems“, fügte er hinzu. „Auf der regulatorischen Seite, über die Entwickler-community, und Gott helfen den ärzten und Patienten, die versuchen, Sie zu durchschlagen, was diese Dinge eigentlich bedeuten, wenn Sie gehen und interagieren mit der Technologie.“
Die FDA hat die jüngsten arbeiten, sagte Ehrenfeld, Voraus die Arbeit von „erste Schritte zu einem einheitlichen Verständnis darüber, was waren einige von diesen Worten, die wir alle reden.“
Die Patienten sind nicht in den Prozess
Aber Gnade Cordovano, ein Bord-zertifiziert patient Anwalt und Gründer der Erleuchtenden Ergebnis, hatte eine andere Reihe von Bedenken, die – basierend auf der Tatsache, sagte Sie, „dass Patienten, die sind wirklich nicht enthalten“ in der KI-Entwicklung“, noch sind Ihre Pflege-Partner.“
„Wir haben Menschen, die Leben und atmen und die Navigation der Knackpunkt, um diese Probleme in Ihren Gesundheitssystemen, aber wir nicht setzen, dass so eine feedback-Schleife in unseren Daten“, Cordovano erklärt. “Und das lebte know-how und Erfahrung ist so wertvoll. Wie werden wir die Integration dieser real-world Ergebnisse in das, was wir tun? Ich möchte sicherstellen, dass wir nicht nur etwas zu bauen, gelten für die Patienten, wie die Anwendung der Sonnencreme.
„Es ist diese ganze Bewegung der partizipatorischen Medizin, wo die Patienten wollen ein Teil davon sein, und Sie wollen die co-entwerfen und Sie wollen Unternehmer werden“, fügte Sie hinzu „Wir müssen die Unternehmen, die als Bereicherung.“
Ehrenfeld vereinbart und sagte, dass das gleiche kann gesagt werden, in vielen Fällen für ärzte.
„Wir haben gesehen, so viel Technologie entwickelt, die in ein Vakuum, das nicht wirklich berücksichtigen, was Sie wissen, der Arzt wird wahrscheinlich versuchen, zu lösen“, sagte er. “Und deshalb denke ich, es geht in beide Richtungen. Die effektive Implementierungen und Technologien sind Sie informiert durch gelebte Erfahrung und ein Verständnis von dem, was die eigentlichen Probleme sind die Patienten gegen.“
Patienten, die die initiative
Daneben Sendak, die Gesundheit der Bevölkerung und Daten Wissenschaft führen am Duke Institute for Health Innovation, sagte, er war fasziniert und ermutigt, die vor kurzem von, wie Patienten wurde die initiative bei AI Entwicklung Ihrer eigenen.
„Einer der spannendsten Orte, die ich gesehen habe für AI ist mit diabetes“, erklärte er. “Es gibt Orte, wo Patienten tatsächlich den Weg – Leute, die hacken in Typ-1-diabetes überwacht und dann die Entwicklung eigener algorithmen und läuft Sie. Patienten werden die Möglichkeit, mit tools und Technologien für Ihre disease-management.“
Von Havasy die Perspektive, in die er wies darauf hin, dass „der größte Teil der KI-Entwicklung, neben den algorithmen, ist der Datensatz verwendet, um Sie zu trainieren.“
Echo Cordovano Punkt, sagte er, “die sicherstellen, dass die Patienten angemessen vertreten sind, dass Ihre Bedingungen sind dargestellt in einer Weise, die Sie denken, ist angemessen, im Gegensatz zu nur einem klinischen marker oder einfach nur eine Zahl irgendwo.
„Immer, dass die Beteiligung frühzeitig im erstellen von Trainings-sets können demonstrieren diese Systeme sind inclusive“, erklärte er. “Es gibt alle möglichen ängste, nicht nur um Patienten, die nicht eingeschlossen werden, sondern darum, ob die Daten Geschlecht, voreingenommen, rassistisch oder voreingenommen, oder andere Dinge. Wir sind alle besorgt darüber, wie die Daten, baut diese Systeme. Bekommen Menschen, die an der Erstellung dieser Daten-sets, die Zertifizierung von Daten-sets, denke ich, ist ein wichtiger Weg, um die Menschen in den Prozess involviert.“
Twitter: @MikeMiliardHITN
E-Mail der Autorin: [email protected]
Healthcare-IT-News ist eine Publikation der HIMSS Medien.