[ad_1]
In der Medizin sind die warnenden Geschichten über die unbeabsichtigten Auswirkungen künstlicher Intelligenz bereits legendär.
Es gab ein Programm, das vorhersagen sollte, wann Patienten eine Sepsis, eine tödliche Blutkreislaufinfektion, entwickeln würden, was eine Litanei von Fehlalarmen auslöste. Ein anderer, der die Nachsorge der am stärksten erkrankten Patienten verbessern sollte, schien die besorgniserregenden gesundheitlichen Ungleichheiten zu vertiefen.
Aus Angst vor solchen Mängeln haben Ärzte die KI an der Seitenlinie arbeiten lassen: Sie unterstützt als SchreiberAls ein lockere Zweitmeinung und als Back-Office-Organisator. Aber der Bereich hat an Investitionen und Dynamik für Anwendungen in der Medizin und darüber hinaus gewonnen.
Innerhalb der Food and Drug Administration, die eine Schlüsselrolle bei der Zulassung neuer Medizinprodukte spielt, ist KI ein heißes Thema. Es hilft, neue Medikamente zu entdecken. Es könnte unerwartete Nebenwirkungen lokalisieren. Und es wird sogar als Hilfe für Mitarbeiter diskutiert, die mit sich wiederholenden Routineaufgaben überfordert sind.
Doch in einer entscheidenden Hinsicht wurde die Rolle der FDA scharf kritisiert: Wie sorgfältig sie die Programme prüft und beschreibt, die sie genehmigt, um Ärzten dabei zu helfen, alles zu erkennen, von Tumoren über Blutgerinnsel bis hin zu kollabierten Lungen.
„Wir werden viele Möglichkeiten haben. Es ist aufregend“, sagte Dr. Jesse Ehrenfeld, Präsident der American Medical Association, einer führenden Lobbygruppe für Ärzte, in einem Interview. „Aber wenn Ärzte diese Dinge in ihre Arbeitsabläufe integrieren, wenn sie dafür bezahlen und wenn sie sie nutzen wollen, müssen wir ein gewisses Vertrauen haben, dass diese Tools funktionieren.“
Von Arztpraxen bis hin zum Weißen Haus und dem Kongress hat der Aufstieg der KI Forderungen nach einer strengeren Prüfung hervorgerufen. Keine einzelne Behörde regiert die gesamte Landschaft. Senator Chuck Schumer, Demokrat von New York und Mehrheitsführer, berief im September Technologiemanager nach Capitol Hill, um Möglichkeiten zur Förderung des Fachgebiets zu besprechen und auch Fallstricke zu identifizieren.
Google hat mit seinem Pilotprojekt eines neuen Chatbots für Gesundheitspersonal bereits die Aufmerksamkeit des Kongresses auf sich gezogen. Es heißt Med-PaLM 2 und soll medizinische Fragen beantworten Bedenken über die Privatsphäre des Patienten und die Einwilligung nach Aufklärung.
Die Art und Weise, wie die FDA solche „großen Sprachmodelle“ oder Programme, die Expertenberater nachahmen, überwachen wird, ist nur ein Bereich, in dem die Behörde hinter den sich schnell entwickelnden Fortschritten im KI-Bereich zurückbleibt. Beamte der Behörde haben erst begonnen, über die Überprüfung einer Technologie zu sprechen, die bei der Verarbeitung Tausender Diagnosescans weiterhin „lernt“. Und die bestehenden Regeln der Agentur ermutigen Entwickler, sich jeweils auf ein Problem zu konzentrieren – etwa ein Herzgeräusch oder ein Gehirnaneurysma – ein Gegensatz zu den in Europa verwendeten KI-Tools, die nach einer Reihe von Problemen suchen.
Der Wirkungsbereich der Agentur beschränkt sich auf Produkte, die zum Verkauf zugelassen sind. Es hat keine Autorität über Programme, die Gesundheitssysteme intern erstellen und nutzen. Große Gesundheitssysteme wie Stanford, Mayo Clinic und Duke – sowie Krankenversicherer – können ihre eigenen KI-Tools entwickeln, die sich auf Pflege- und Versicherungsentscheidungen für Tausende von Patienten auswirken, ohne dass eine direkte staatliche Aufsicht erfolgt.
Dennoch werfen Ärzte immer mehr Fragen auf, wenn sie versuchen, die etwa 350 von der FDA zugelassenen Softwaretools einzusetzen, um bei der Erkennung von Blutgerinnseln, Tumoren oder einem Loch in der Lunge zu helfen. Sie haben nur wenige Antworten auf grundlegende Fragen gefunden: Wie wurde das Programm aufgebaut? An wie vielen Personen wurde es getestet? Ist es wahrscheinlich, dass dadurch etwas festgestellt wird, was einem typischen Arzt entgehen würde?
Der Mangel an öffentlich zugänglichen Informationen, der in einer Welt voller Daten vielleicht paradox ist, führt dazu, dass Ärzte zurückhaltend sind und befürchten, dass eine aufregend klingende Technologie Patienten auf den Weg zu mehr Biopsien, höheren Arztrechnungen und toxischen Medikamenten führen kann, ohne die Versorgung wesentlich zu verbessern.
Dr. Eric Topol, Autor eines Buches über KI in der Medizin, ist ein nahezu unerschütterlicher Optimist hinsichtlich des Potenzials der Technologie. Aber er sagte, die FDA habe einen Fehler gemacht, indem sie KI-Entwicklern erlaubt habe, ihre „geheime Soße“ geheim zu halten, und es versäumt habe, sorgfältige Studien zu verlangen, um einen sinnvollen Nutzen zu beurteilen.
„Man braucht wirklich überzeugende, großartige Daten, um die medizinische Praxis zu verändern und das Vertrauen auszustrahlen, dass dies der richtige Weg ist“, sagte Dr. Topol, Executive Vice President von Scripps Research in San Diego. Stattdessen, fügte er hinzu, habe die FDA „Abkürzungen“ zugelassen.
Große Studien beginnen, mehr über die Geschichte zu erzählen: Eine fand heraus, welche Vorteile der Einsatz von KI zur Erkennung bietet Brustkrebs und ein weiterer hervorgehobener Fehler in einer App, der identifiziert werden soll Hautkrebssagte Dr. Topol.
Dr. Jeffrey Shuren, Leiter der Medizingeräteabteilung der FDA, hat die Notwendigkeit weiterer Anstrengungen erkannt, um sicherzustellen, dass KI-Programme ihre Versprechen halten, nachdem seine Abteilung sie genehmigt hat. Während Medikamente und einige Geräte vor der Zulassung an Patienten getestet werden, ist dies für KI-Softwareprogramme normalerweise nicht erforderlich.
Ein neuer Ansatz könnte der Bau von Laboren sein, in denen Entwickler auf riesige Datenmengen zugreifen und KI-Programme erstellen oder testen könnten, sagte Dr. Shuren während der Konferenz der National Organization for Rare Disorders am 16. Oktober.
„Wenn wir dieses richtige Gleichgewicht wirklich gewährleisten wollen, müssen wir das Bundesgesetz ändern, denn der Rahmen, den wir für diese Technologien nutzen, ist fast 50 Jahre alt“, sagte Dr. Shuren. „Es war wirklich nicht für KI konzipiert“
Andere Kräfte erschweren die Bemühungen, maschinelles Lernen für große Krankenhaus- und Gesundheitsnetzwerke anzupassen. Softwaresysteme kommunizieren nicht miteinander. Niemand ist sich darüber einig, wer dafür bezahlen soll.
Einer Schätzung zufolge etwa 30 Prozent der Radiologen (ein Bereich, in dem KI weit verbreitet ist) nutzen KI-Technologie. Einfache Werkzeuge, die ein Bild schärfer machen könnten, sind leicht zu verkaufen. Aber Risiken mit höherem Risiko, wie die Auswahl, wessen Gehirnscans Vorrang haben sollen, bereiten Ärzten Sorgen, wenn sie beispielsweise nicht wissen, ob das Programm darauf ausgelegt ist, die Krankheiten eines 19-Jährigen oder eines 90-Jährigen zu erkennen. alt.
Dr. Nina Kottler ist sich dieser Mängel bewusst und leitet ein mehrjähriges, mehrere Millionen Dollar teures Projekt zur Überprüfung von KI-Programmen. Sie ist Chief Medical Officer für klinische KI bei Radiology Partners, einer in Los Angeles ansässigen Praxis, die jährlich etwa 50 Millionen Scans für etwa 3.200 Krankenhäuser, freistehende Notaufnahmen und Bildgebungszentren in den Vereinigten Staaten auswertet.
Sie wusste, dass der Einstieg in die KI angesichts der 3.600 Radiologen der Praxis heikel sein würde. Schließlich hat Geoffrey Hinton, bekannt als „Pate der KI“, den Beruf im Jahr 2016 in Aufruhr versetzt er hat es vorhergesagt dass maschinelles Lernen Radiologen vollständig ersetzen würde.
Dr. Kottler sagte, sie habe mit der Bewertung zugelassener KI-Programme begonnen, indem sie deren Entwickler befragt und dann einige getestet habe, um herauszufinden, welche Programme relativ offensichtliche Probleme übersehen oder subtile Probleme identifiziert hätten.
Sie lehnte ein genehmigtes Programm ab, das über die von ihren Radiologen gefundenen Fälle hinaus keine Lungenanomalien erkannte – und übersah einige offensichtliche.
Ein anderes Programm, das Bilder des Kopfes auf Aneurysmen scannte, eine potenziell lebensbedrohliche Erkrankung, erwies sich als beeindruckend, sagte sie. Obwohl viele Fehlalarme festgestellt wurden, wurden etwa 24 Prozent mehr Fälle entdeckt, als Radiologen identifiziert hatten. Weitere Menschen mit einem offensichtlichen Gehirnaneurysma erhielten Nachbehandlungen, darunter ein 47-Jähriger mit einem vorgewölbten Gefäß in einer unerwarteten Ecke des Gehirns.
Am Ende eines Telemedizin-Termins im August stellte Dr. Roy Fagan fest, dass er Schwierigkeiten hatte, mit dem Patienten zu sprechen. Da er einen Schlaganfall vermutete, eilte er für eine CT-Untersuchung in ein Krankenhaus im ländlichen North Carolina.
Das Bild ging an Greensboro Radiology, eine Praxis von Radiology Partners, wo es einen Alarm in einem KI-Programm zur Schlaganfall-Triage auslöste. Ein Radiologe musste keine Fälle vor Dr. Fagan durchsehen oder sich durch mehr als 1.000 Bildschnitte klicken; Derjenige, der das Gehirngerinnsel entdeckte, tauchte sofort auf.
Der Radiologe ließ Dr. Fagan in ein größeres Krankenhaus verlegen, wo das Gerinnsel schnell entfernt werden konnte. Er wachte auf und fühlte sich normal.
„Es funktioniert nicht immer so gut“, sagte Dr. Sriyesh Krishnan von Greensboro Radiology, der auch Direktor für Innovationsentwicklung bei Radiology Partners ist. „Aber wenn es so gut funktioniert, verändert es das Leben dieser Patienten.“
Dr. Fagan wollte am darauffolgenden Montag zur Arbeit zurückkehren, stimmte jedoch zu, sich eine Woche auszuruhen. Er war vom KI-Programm beeindruckt und sagte: „Es ist ein echter Fortschritt, es jetzt hier zu haben.“
Radiology Partners hat seine Ergebnisse nicht in medizinischen Fachzeitschriften veröffentlicht. Einige Forscher haben jedoch weniger inspirierende Beispiele für die Auswirkungen von KI in der Medizin hervorgehoben.
Forscher der University of Michigan untersuchten ein weit verbreitetes KI-Tool in einem elektronischen Gesundheitsdatensystem, das vorhersagen soll, welche Patienten eine Sepsis entwickeln würden. Sie festgestellt, dass Das Programm löste bei jedem fünften Patienten einen Alarm aus – obwohl nur 12 Prozent eine Sepsis entwickelten.
Ein anderes Programm, das die Gesundheitskosten als Indikator für die Vorhersage des medizinischen Bedarfs analysierte, endete damit, dass schwarzen Patienten, die genauso krank waren wie weißen, die Behandlung vorenthalten wurde. Die Kostendaten erwiesen sich als schlechter Ersatz für Krankheiten, so eine Studie im Zeitschrift Wissenschaft gefunden, da typischerweise weniger Geld für schwarze Patienten ausgegeben wird.
Diese Programme wurden nicht von der FDA überprüft. Angesichts der Unsicherheiten haben Ärzte jedoch zur Beruhigung auf die Zulassungsunterlagen der Behörden zurückgegriffen. Sie fanden wenig. Ein Forschungsteam, das sich mit KI-Programmen für schwerkranke Patienten befasste, stellte fest, dass Hinweise auf eine Verwendung in der realen Welt „völlig fehlten“ oder auf Computermodellen basierten. Das Team der University of Pennsylvania und der University of Southern California auch entdeckt dass einige der Programme aufgrund ihrer Ähnlichkeit mit bestehenden medizinischen Geräten genehmigt wurden – darunter auch einige, die nicht einmal künstliche Intelligenz nutzten.
Eine weitere Studie Eine Untersuchung der von der FDA im Jahr 2021 genehmigten Programme ergab, dass von 118 KI-Tools nur eines die geografische und ethnische Aufteilung der Patienten beschrieb, an denen das Programm trainiert wurde. Die Mehrzahl der Programme wurde in 500 oder weniger Fällen getestet – nicht genug, so die Schlussfolgerung der Studie, um einen breiten Einsatz zu rechtfertigen.
Dr. Keith Dreyer, Studienautor und Chief Data Science Officer am Massachusetts General Hospital, leitet derzeit ein Projekt des American College of Radiology, um die Informationslücke zu schließen. Mithilfe von KI-Anbietern, die bereit waren, Informationen auszutauschen, planen er und seine Kollegen um ein Update zu veröffentlichen zu den von der Agentur genehmigten Programmen.
Auf diese Weise können Ärzte beispielsweise nachsehen, wie viele pädiatrische Fälle ein Programm erkennen soll, um sie über blinde Flecken zu informieren, die möglicherweise die Pflege beeinträchtigen könnten.
James McKinney, ein Sprecher der FDA, sagte, dass die Mitarbeiter der Behörde Tausende von Seiten prüfen, bevor sie KI-Programme freigeben, räumte jedoch ein, dass Softwarehersteller möglicherweise die öffentlich veröffentlichten Zusammenfassungen verfassen. Diese seien nicht „dazu gedacht, Kaufentscheidungen zu treffen“, sagte er und fügte hinzu, dass detailliertere Informationen auf Produktetiketten bereitgestellt würden, die für die Öffentlichkeit nicht ohne weiteres zugänglich seien.
Es sei von entscheidender Bedeutung, die KI-Überwachung in der Medizin richtig zu gestalten, eine Aufgabe, an der mehrere Behörden beteiligt sind, sagte Dr. Ehrenfeld, der Präsident der AMA. Er sagte, die Ärzte hätten es genau untersucht die Rolle der KI bei tödlichen Flugzeugabstürzen, um vor den Gefahren automatisierter Sicherheitssysteme zu warnen, die das Urteil eines Piloten – oder eines Arztes – außer Kraft setzen.
Er sagte, die Untersuchungen zum Flugzeugabsturz der 737 Max hätten gezeigt, dass Piloten nicht darin geschult seien, ein Sicherheitssystem außer Kraft zu setzen, das zu den tödlichen Kollisionen beigetragen habe. Er befürchtet, dass Ärzte im Hintergrund der Patientenversorgung auf einen ähnlichen Einsatz von KI stoßen könnten, der sich als schädlich erweisen könnte.
„Allein das Verständnis, dass die KI vorhanden ist, sollte ein offensichtlicher Ausgangspunkt sein“, sagte Dr. Ehrenfeld. „Aber es ist nicht klar, dass das immer passieren wird, wenn wir nicht den richtigen Regulierungsrahmen haben.“
[ad_2]