Google AI kann jetzt medizinische Bilder (wie Hautausschläge) interpretieren

Es heißt Amie ( Articulated Medical Intelligence Explorer ) und ist das von Google entwickelte künstliche Intelligenzsystem, das die Fragen von Patienten beantworten soll. Die erste Version wurde im Januar 2024 vorgestellt, es wird jedoch bereits an einem aktualisierten Modell gearbeitet, das auf Gemini 2.0 Flash basiert und nicht nur Textinformationen, sondern auch Bilder und andere klinische Dokumente interpretieren und anfordern kann. In einer noch nicht von Experten begutachteten Studie, die auf der arXiv- Plattform veröffentlicht wurde , schnitt Amies neuestes Modell hinsichtlich der diagnostischen Genauigkeit und der Fähigkeit, bestimmte Daten oder Bilder zu interpretieren, besser ab als Allgemeinmediziner. Das System wird jedoch noch untersucht und es bedarf weiterer Forschung, bevor es möglicherweise in realen Kontexten eingesetzt werden kann.
Die Anamnese von „Dr. Arnie“Bevor Ärzte eine Diagnose stellen können, müssen sie die notwendigen Informationen über den Patienten einholen, indem sie gezielt Fragen zu seiner Krankengeschichte stellen oder, falls erforderlich, Unterlagen zu in der Vergangenheit durchgeführten Untersuchungen anfordern. Mit der neuen Version von Amie möchte Google genau diese Art der Interaktion simulieren. Offensichtlich bewegen wir uns in einem völlig anderen Bereich als dem des maschinellen Lernens im klinischen Umfeld, das Ärzte bei der Interpretation bildgebender Untersuchungen (beispielsweise Mammogramme) unterstützt, wozu bereits zahlreiche Studien veröffentlicht wurden.
Wie die Studie durchgeführt wurdeUm die neuen Leistungen der Plattform für künstliche Intelligenz zu analysieren, wurden 20 professionelle Schauspieler einbezogen, die gebeten wurden, mit Amie oder einem Allgemeinmediziner (19 wurden rekrutiert) zu sprechen und 105 klinische Situationen mit entsprechenden Symptomen zu simulieren. Der Austausch erfolgte über einen Chat, in dem Dokumente unterschiedlicher Art hochgeladen werden konnten, etwa Bilder von Hautausschlägen oder anderen dermatologischen Problemen oder Dateien mit den Ergebnissen eines Elektrokardiogramms oder von Blutuntersuchungen.
Jeder Austausch wurde dann anhand spezifischer Fragebögen von drei Fachärzten für Kardiologie, Dermatologie und Innere Medizin ausgewertet (insgesamt waren 18 Fachärzte an der Auswertung beteiligt).
KI und klinische BilderNun, Amie hätte beispielsweise bei der Fähigkeit zur Bildinterpretation und der Vollständigkeit der Differentialdiagnose, die es ermöglicht, zwischen verschiedenen Erkrankungen mit ähnlichen Symptomen zu unterscheiden, bessere Werte erzielt als Allgemeinmediziner. Darüber hinaus wäre die diagnostische Genauigkeit bei Bildern schlechter Qualität höher gewesen. Aus Sicht der „geduldigen Akteure“ würde die KI-Plattform häufig als empathischer und vertrauenswürdiger wahrgenommen.
Die Grenzen des „künstlichen Arztes“Natürlich ist dieser Ansatz auch nach Ansicht der Autoren der Studie mit Einschränkungen und Risiken verbunden. Zunächst einmal verhindert die Chat-Interaktion, die im Rahmen der Studie zum Vergleich der Leistungen von Allgemeinmedizinern mit denen der KI-Plattform genutzt wurde, die Nutzung wichtiger Kommunikationskanäle wie der nonverbalen Sprache, die in Wirklichkeit beispielsweise zum Aufbau eines Vertrauensverhältnisses zum Arzt beiträgt. Darüber hinaus kann der Arzt bei einem persönlichen Besuch dynamischere visuelle Beurteilungen durchführen, als dies mit statischen Bildern möglich ist.
Der nächste SchrittZudem müsse man bedenken, erklärt Google, dass es sich bei der Untersuchung um „fiktive“ Patienten, also Schauspieler, handele und reale Fälle einen deutlich höheren Komplexitätsgrad aufweisen könnten. Sie betonen, dass weitere Forschung nötig sei, bevor dieses System genutzt werden könne. In genau dieser Richtung startet Google Berichten zufolge in Zusammenarbeit mit dem Beth Israel Deaconess Medical Center eine Studie, um Amie in einem realen klinischen Kontext zu bewerten.
repubblica