banner
Nachrichtenzentrum
Wir verpflichten uns zur Einhaltung unserer ISO-Zertifizierungsstandards.

Dieses Kinderkrankenhaus integriert KI in die Gesundheitsversorgung

May 30, 2023

Während Krankenhäuser es gewohnt sind, mit den meisten viralen Dingen umzugehen, beginnen sie bereits mit der Erforschung einer völlig neuen Art viralen Phänomens: generative KI am Arbeitsplatz.

Hochrangige Gesundheitseinrichtungen wie das Boston Children's Hospital, die mit großen Forschungseinrichtungen verbunden sind, gehören zu den bedeutendsten kundenorientierten Betrieben in der Gesundheitsbranche.

Und angesichts der Tatsache, dass das Gesundheitswesen etwa 18 Prozent des US-BIP ausmacht, werden diese Organisationen natürlich die Vorteile der neuesten Technologie nutzen wollen, die eine Revolution in der Produktivität verspricht.

Das Boston Children's Hospital, das regelmäßig zu den besten Kinderkrankenhäusern in den USA zählt, beschäftigt einen „Chief Innovation Officer“, John Brownstein, einen Epidemiologen, der eine Abteilung namens Innovation & Digital Health Accelerator leitet. Zu Brownsteins früheren Arbeiten, die Technologie und Gesundheit kombinieren, gehört die Erstellung einer Website namens „Flu Near You“, die laut New York Times Magazine in den frühen Tagen der Pandemie aus offensichtlichen Gründen in „Covid Near You“ umbenannt wurde. Es existiert immer noch in einer allgemeineren Form als „Outbreaks Near Me“. Es ist eine beunruhigend nützliche Website zur Verfolgung von Krankheitserregern.

Und jetzt wendet sich Brownstein der KI zu.

Das Wichtigste zuerst, so Brownstein: Aus seiner Sicht besteht kein Grund, jemanden zu entlassen, nur weil KI in das Gesundheitswesen eindringt. „Dies ist nicht als Ersatz für den Menschen gedacht“, sagte Brownstein in einem Interview mit Mashable im April. „Dies ist eine Erweiterung. Es ist also immer ein Mensch auf dem Laufenden.“

SIEHE AUCH: Was Sie nicht mit ChatGPT teilen sollten, wenn Sie es beruflich nutzen

Im April, als „Prompt Engineering“ zu einem neuen Job im technischen Bereich wurde, machte Boston Children’s die Öffentlichkeit darauf aufmerksam, dass ein Wandel im Gange sei, indem es eine Stellenanzeige aufgab, in der nach einem eigenen „Prompt Engineer“ gesucht wurde. Mit anderen Worten: Das Krankenhaus stellte einen Spezialisten ein, um KI-Sprachmodelle zu trainieren, die den Krankenhausbetrieb verbessern können, und theoretisch soll diese Person die Bedingungen für das Krankenhauspersonal verbessern.

Laut Brownstein liegt das daran, dass seine Abteilung eine Richtlinie zur Reduzierung des „Anbieter-Burnouts“ hat. Boston Children's verfügt über ein „internes Team, das Technologie entwickelt“, wie er es nannte. Ihre Aufgabe, erklärte er, sei es, Orte in der „Arbeitswelt“ zu finden, an denen Technologie eine Rolle spielen kann, dies aber noch nicht der Fall ist. Sie sitzen buchstäblich an „Schmerzpunkten“ im Boston Children's Hospital und überlegen, wie sie die Schmerzen lindern können.

Was das in der Praxis bedeutet, ist etwas umwerfend.

Ein „Schmerzpunkt“ in jedem Krankenhaus besteht darin, Patienten von Punkt A nach Punkt B zu leiten, eine schwierige Kommunikationsaufgabe, die Geschwindigkeitsbegrenzungen wie Verwirrung aufgrund von Krankheit oder Stress oder Sprachbarrieren mit sich bringen kann. „Bereits zu Beginn können wir ChatGPT mit Fragen zur Navigation in unserem Krankenhaus befragen“, sagte Brownstein. „Es ist tatsächlich schockierend, was diese ohne unser umfangreiches Training produzieren.“ ChatGPT – und nicht irgendeine zukünftige Version, sondern die, auf die Sie bereits Zugriff haben – kann Ihnen laut Brownstein sagen, wie Sie sich „nicht nur in unserem Krankenhaus, sondern in jedem Krankenhaus“ fortbewegen können.

Es ist also mehr als realistisch, sich einen Automatenkiosk vorzustellen, an dem Patienten nützliche Antworten auf Fragen wie „Wo kann ich beten?“ erhalten, so Brownstein. Und es ist wohl auch die Hoffnung vieler Beschäftigter im Gesundheitswesen, dass sie mit solchen Fragen nicht aufgehalten werden müssen. Nicht jeder ist ein geselliger Mensch.

Brownstein hat aber auch Ideen für neue Möglichkeiten, wie Anbieter dank KI Patientendaten nutzen können.

Die Vorstellung, dass KI an der Verarbeitung tatsächlicher Patientendaten beteiligt sein könnte, löste bei Mildred Cho, Professorin für Pädiatrie am Stanford Center for Biomedical Ethics, Alarm aus. Nachdem sie die Stellenanzeige für Prompt-Ingenieure durchgesehen hatte, sagte sie zu Mashable: „Was mir daran auffällt, ist, dass sich die Qualifikationen auf Informatik und Programmierkenntnisse konzentrieren und nur auf ‚Kenntnisse über Forschungsmethoden im Gesundheitswesen‘, während die Aufgaben die Bewertung der Leistung von KI-Prompts umfassen.“ "

„Um wirklich zu verstehen, ob die Ergebnisse großer Sprachmodelle den hohen Standards entsprechen, die für die Gesundheitsversorgung erforderlich sind, müsste ein Gutachter über eine viel differenziertere und anspruchsvollere Wissensbasis in der Medizin sowie über praktische Kenntnisse der Gesundheitsversorgungssysteme und deren Einschränkungen verfügen ihrer Daten", sagte Cho.

SIEHE AUCH: Von ChatGPT erstellte Lebensläufe sind ein Dealbreaker für Personalvermittler

Cho beschrieb weiter ein Albtraumszenario: Was wäre, wenn der prompte Ingenieur dabei hilft, ein Sprachmodell neu zu trainieren oder einen automatisierten Prozess zu optimieren, aber aufgrund fehlerhafter Annahmen? Was wäre zum Beispiel, wenn sie rassistische Vorurteile oder andere hartnäckige Fehler darin einüben? Angesichts der Tatsache, dass alle von Menschen gesammelten Daten von Natur aus fehlerhaft sind, könnte ein glänzender neuer Prozess auf einer Fehlerbasis aufgebaut werden.

„Unser prompter Ingenieur wird nicht in einer Blase arbeiten“, sagte Brownstein. Sein Team widme sich der Frage, „was es bedeutet, unvollständige Daten zu haben“, sagte er. Er war zuversichtlich, dass der Prozess nicht darin bestehen würde, „eine Menge Daten einzugeben und auf das Beste zu hoffen“.

Aber vergessen wir nicht: „Einen Haufen Daten einwerfen und auf das Beste hoffen“ ist eine treffende Beschreibung dafür, wie große Sprachmodelle funktionieren, und die Ergebnisse sind oft, nun ja, schrecklich.

Ein Beispiel, bei dem die Daten genau auf den tatsächlichen Bedarf abgestimmt sein müssen, finden Sie in Brownsteins absolut faszinierender Vision für die Entlassungsanweisungen der Zukunft. Wahrscheinlich haben Sie schon viele Entlassungsanweisungen erhalten – und diese umgehend weggeworfen.

Vielleicht haben Sie sich bei einem Autounfall eine Beule am Kopf zugezogen. Nach der Untersuchung im Krankenhaus und der Erlaubnis, nach Hause zu gehen, haben Sie wahrscheinlich ein paar geheftete Seiten mit Informationen über die Anzeichen einer Gehirnerschütterung, die Anwendung einer kalten Kompresse und die einzunehmende Menge Ibuprofen erhalten.

Mit einem LLM, der auf Ihre individuellen Patientendaten geschult ist, weiß das System laut Browstein unter anderem, wo Sie leben, sodass es sagen kann, wo Sie Ihr Ibuprofen kaufen können oder wo Sie Ibuprofen überhaupt nicht kaufen sollten, weil Sie allergisch sind . Aber das ist nur die Spitze des Eisbergs.

„Du machst eine Reha und musst einen Spaziergang machen. Es bedeutet, dass du diesen bestimmten Bereich um dein Haus herumgehen sollst. Oder es könnte kontextuell wertvoll sein und sich je nach deinem Alter und verschiedenen Eigenschaften über dich ändern.“ . Und es kann die Stimme liefern, die am überzeugendsten ist, um sicherzustellen, dass Sie sich an diese Anweisungen halten.“

David Himmelstein, Professor an der CUNY School of Public Health und prominenter Kritiker des US-amerikanischen gewinnorientierten Gesundheitssystems, sagte, er habe zwar von potenziellen Einsatzmöglichkeiten von KI in Krankenhäusern gehört, die ihn beunruhigten, dieser sei ihm aber nicht so aufgefallen "beleidigend." Er stellte fest, dass die Entlassungsanweisungen ohnehin „fast Standard“ seien, und schien sich über die mögliche Änderung keine Sorgen zu machen.

Allerdings macht er sich Sorgen darüber, was solche Systeme für die Privatsphäre bedeuten könnten. „Wer bekommt diese Informationen?“ er fragte sich. „Klingt so, als würden die Informationen dadurch in die Hände von Microsoft gelangen – oder Google, wenn sie ihre KI-Engine verwenden.“

Aufgrund der weit verbreiteten Verwendung stellen diese für die Zukunft von Krankenhäusern große Bedenken dar, aber Brownstein sagte, dass das Boston Children's Hospital seinerseits „tatsächlich interne LLMs aufbaut“, was bedeutet, dass es sich nicht auf Unternehmen wie Google, Microsoft oder die ChatGPT-Muttergesellschaft verlassen wird OpenAI. „Wir bauen tatsächlich eine Umgebung auf, damit wir Patientendaten nicht irgendwohin außerhalb der Krankenhausmauern verschieben müssen.“

Himmelstein wies jedoch darauf hin, dass Systeme zur Automatisierung von Krankenhäusern alles andere als neu seien und keine bürokratiefreien Paradiese geschaffen hätten, in denen die Arbeit reibungslos und effizient ablaufe, auch wenn Unternehmen solche Versprechungen bereits seit den 1960er-Jahren machten. Um diesen Punkt zu veranschaulichen, lieferte er ein faszinierendes historisches Dokument: Ein IBM-Video aus dem Jahr 1961, das elektronische Systeme verspricht, die die Bürokratie abbauen und „Fehler beseitigen“ werden.

Aber in dem Monat, seit Mashable zum ersten Mal mit Brownstein gesprochen hat, hat sich die KI-Situation im Boston Children's Hospital weiterentwickelt. In einer E-Mail berichtete Browstein von „großen Fortschritten“ bei großen Sprachmodellen und einem „unglaublich“ schnellen Ingenieur im Onboarding-Prozess.