KI-Update Deep-Dive: Kliniken entwickeln eigene Sprachmodelle
Shownotes
Bei allen unnützen KI-Spielereien ist Künstliche Intelligenz in der Medizin ein wichtiges Tool geworden. Am Universitätsklinikum Hamburg Eppendorf (dem UKE) entsteht eine neue Generation medizinischer KI-Werkzeuge. Die gemeinnützige Tochter Innovative Digitale Medizin (kurz IDM) entwickelt eigene Sprach und Textmodelle, die den Klinikalltag entlasten und gleichzeitig sensible Gesundheitsdaten im europäischen Raum halten sollen. Im neuen Digital Health Podcast unserer heise-Expertin Marie-Claire Koch erklärt IDM Geschäftsführer Dr. Nils Schweingruber, wie sie mit den elektronischen Patientenakten des UKE arbeiten und diese Daten als Grundlage für KI Modelle nutzen. Diese Modelle werden dann speziell für den deutschsprachigen Gesundheitssektor trainiert. Das Thema fand ich so spannend, dass ich es Euch nicht vorenthalten wollte und das Zepter vom KI-Update heute an die Kolleginnnen vom Digital Health Podcast übergebe. In dieser Folge spricht Dr. Anna Laura Gundler für heise online mit Dr. Schweingruber.
=== Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/@heise-podcasts === Anzeige / Sponsorenhinweis Ende ===
Artikel zur Podcastfolge: https://heise.de/-11268822 https://www.heiseplus.de/audio https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.ct.de/ki https://www.uke.de/landingpage/zukunftsplan-2050/ https://www.idmedizin.de/de
Den Digital Health Podcast von heise online findet ihr hier: https://digital-health.podigee.io/
Transkript anzeigen
00:00:02: Das KI Update, ein heise Podcast mit redaktioneller Unterstützung von The Decoder.
00:00:14: Ich bin Isabel Grünewald und dies ist unser Deep Dive zum Wochenende!
00:00:20: Bei allen vielleicht unnützen KI-Spielereien ist künstliche Intelligenz in der Medizin ein wichtiges Tool geworden.
00:00:28: Am Universitätsklinikum Hamburg-Eppendorf dem UKI entsteht eine neue Generation medizinischer KI Werkzeuge – die gemeinnützige Tochter innovative digitale Medizin, kurz EDM entwickelt eigene Sprach- und Textmodelle die den Klinikalltag entlasten und gleichzeitig sensible Gesundheitsdaten im europäischen Raum halten sollen.
00:00:51: Im neuen Digital Health Podcast unserer Heisexpertin Marie
00:00:54: Claire Koch
00:00:55: hat EDM Geschäftsführer Dr.
00:00:57: Nils Schweingrober erklärt wie sie mit den elektronischen Patientenakten des UKI arbeiten und diese Daten als Grundlage für KI Modelle nutzen.
00:01:07: Diese Modelle werden dann speziell für den deutschsprachigen Gesundheitssektor trainiert.
00:01:12: Und das Thema fand ich so spannend, dass ich es euch nicht vorenthalten wollte und als Zepter vom KI-Update heute an die Kolleginnen von Digital Health übergebe!
00:01:21: In dieser Folge spreche ich Dr.
00:01:23: Anna Laura Gundler für Heise Online mit Dr.
00:01:26: Nils Schweingrober.
00:01:30: Hallo Nils Hi Vielen Dank, dass du dir die Zeit nimmst.
00:01:33: Sehr
00:01:33: schön, dass ihr ja zur Besuch seid bei uns.
00:01:35: Danke Lass uns direkt anfangen.
00:01:37: Warum habt ihr die IDM überhaupt gegründet?
00:01:41: Die IDM ist, wie du schon gesagt hattest eine hundertprozentige Tochter des UKEs und das Ziel ist dass wir KI-Anwendungen für den deutschsprachigen Raum entwickeln.
00:01:52: Und nicht nur dem UKE zur Verfügung stellen sondern tatsächlich allen im deutschprachen Gesundheitsraum sozusagen.
00:02:00: Und warum gemeindützig?
00:02:02: Weil wir davon überzeugt sind, dass die KI-Modelle, die auf solidarisch gewonnenen Gesundheitsdaten trainiert werden auch dem System zurückgegeben werden sollten und deswegen sind wir von dieser Idee sehr angetan gewesen das hier am KAE machen zu können.
00:02:23: Und natürlich muss man sagen, ist das OKE auch ein sehr toller Ort.
00:02:28: Weil wir hier schon seit über zwanzig Jahren jetzt digital in unserem Alltag aufgestellt sind.
00:02:35: Wir haben seit jetzt zwei Tausendneuen durchgehend eine digitale Patientenakte bei uns am OKE und somit sieben Millionen Patientenfälle, auf denen wir KI-Modelle auch trainieren können.
00:02:48: Und wir gehen davon aus dass diese KI die auf diesen Daten steht auch sehr gut generalisiert und in anderen Orten diesem Gesundheitssystem auch funktionieren wird.
00:02:59: Welche Anwendungen habt ihr denn bisher überhaupt in Praxis, in Entwicklung hier schon im UKE oder woanders zur Anwendung gebracht?
00:03:08: Genau wir haben zwei Anwendungen letztendlich jetzt in der Anwendungsschon und arbeiten auch schon an vielen Banden weiterer Anwendum.
00:03:17: das Erste, was wir bei uns im UKE in die Anwendung gebracht haben war AGO.
00:03:22: Es ist ein großes Sprachmodell, welches wir auf dem gesamten Text des UKEs trainiert haben und was in der Lage ist, bei der Aspriefschreibung zu unterstützen.
00:03:33: Man kann sich das so vorstellen dass wenn man einen Asprif schreibt... kann man aus der Patientenakte auf AGO zugreifen.
00:03:41: Und AGO generiert dann die Epikrise für einen, den man dann sozusagen anpassen kann und in seinen Warnsprüch übernehmen kann.
00:03:49: Du hast Epikrize gesagt?
00:03:51: Kannst du kurz sagen was das ist?
00:03:52: Was ist das für eine Krise?
00:03:54: Ja, was für ne Krise!
00:03:55: Ein Arztbrief wird ja normalerweise am Ende eines Aufenteils, einem stationären Aufenteil eines Patienten geschrieben und der besteht meistens aus unterschiedlichen Bestandteilen.
00:04:06: Und dann gibt es die Epikrise als Bestandteil, wo sich die Ärztinnen und Ärzte noch mal kritisch mit dem Verlauf auseinandersetzen.
00:04:14: was ist sozusagen passiert bei uns?
00:04:16: Was waren wichtige diagnostische Schritte, die wir vorgenommen haben und zu welchem Schluss sind wir gekommen, die ja mit den Patienten behandelt und was sind vielleicht auch Sachen worauf der Weiterbehandler acht geben soll.
00:04:30: Dann kommen noch mal so je nachdem, wie man seinen Arztbrief aufbaut unterschiedliche andere Abschnitte.
00:04:37: aber das bringt einem schon direkt zu dem Problem.
00:04:39: also der Arsbrief an sich ist, und das ist ganz interessant wenn man sich mit diesem Prozess beschäftigt eben überhaupt nicht standardisiert.
00:04:49: Und da merkt man schon dass wir in der Medizin auch wenn wir alle über das Gleiche reden, nämlich über ein Ars Brief eben da keine ja keinen Standardisiertes Vorgehen haben wie er hat so einen Ars Brif auszusehen.
00:05:02: was sind wirklich wichtige Bestandteile darin Und es auch bei AGO, zumindest auch so jetzt ganz interessant.
00:05:09: Also AGO hat gesagt im ersten Schritt die Epikrise geschrieben.
00:05:13: Warum die Epi-Krise?
00:05:15: Weil das der Abschnitt ist, der am meisten Arbeit noch kostet, weil der häufig für den Arzt und die Ärztin, weil er selbst geschrieben wird.
00:05:24: Also händisch noch geschrieben oder diktiert wird.
00:05:27: Der Abschnitt der Epikise ist der wo man sozusagen noch am meisten medizinischen Input reingeben muss und halt auch selbst schreibt deswegen In einer digitalen Asplifvorlage, so wie wir sie hier bei uns am KA haben.
00:05:39: Wie gesagt kostet die Äpfel Käse am meisten Zeit.
00:05:42: und warum sagt es immer ausdrücklich?
00:05:44: Weil also die digitale Aspli-Vorlage ist schon eigentlich standardisiert und gleich bei uns über, wie gesagt Jahrzehnte hinweg.
00:05:53: Aber trotzdem ist es so, dass die einzelnen Abschnitte nicht standardisiert und gleich über die verschiedenen Kliniken hinweg genutzt werden.
00:06:00: Und da sieht man auch wieder je strukturierter Mann oder standardisierter Man eigentlich auch eine Vorlage baut in der Klinik Sie wird nicht standardiziert gleich genutst.
00:06:11: Und wenn man jetzt da hergeht und sagt, man möchte mit einem großen Sprachmodell wie AGO die Epikrise automatisiert generieren.
00:06:20: Dann gibt es da häufig in diesen Prozessen ein Problem weil wir aufgrund dieser fehlenden Standardisierung AGO jetzt zwingen auch einmal in der Psychiatrie ganz andere Aspriefe zu schreiben als in der Theologie.
00:06:33: Da merkt man dann das eigentlich letztendlich, wenn man sich über Automatisierung in der Aspriefschreibung unterhält unterschiedliche Aspekte der Stantisierung und auch das Change, was in diesem Prozess hat.
00:06:45: Also ich sage auch immer gerne ein bisschen ketzerisch wir haben eigentlich eine KI entwickelt die Arzbriefe schreibt um den Arzblief abzuschaffen als solches.
00:06:53: Wir wollen eigentlich dieses alte Instrument-Arzbrief in der Zukunft vielleicht nicht mehr.
00:06:59: Und wenn man sich damit beschäftigt kommt man auf einmal einen Punkt wo man sich dann auf einmal darüber unterhält Was wollen wir denn anstelle eines Arztbriefes?
00:07:09: Und das ist tatsächlich ein ganz interessanter Prozess, der dann stattfindet.
00:07:13: In Kliniken einen Umdenken, was auch stattfindets und dass es super spannend den zu begleiten.
00:07:19: und genau dahingehend wird sich Argo auch entwickeln.
00:07:22: wir werden mit Argo jetzt in diesem Jahr zum Beispiel nicht mehr nur die Epikrisen generieren sondern Argo als solches wird eigentlich ein komplettes Tool sein worin die Aspriefschreibung der Zukunft stattfinden lassen werden.
00:07:37: Also wenn Sie sozusagen einen Kiss haben bei sich im Krankenhaus, dann können sie mit ARO in Zukunft die komplette Asprüfschreibungen dort rausnehmen und sie in ARO stattfindet lassen.
00:07:46: aber quasi KI gestützt an jeder Stelle für jedes Abchnitt, für jeden Standard so wie man sich das in Zukunft vorstellt Und das ist ein sehr spannender Aspekt muss man sagen.
00:07:59: Könnte Argo dafür auch als Diagnosetool missbraucht werden oder ist das sogar geplant?
00:08:05: Oder habt ihr Grenzen, was zum Beispiel AGO auch nicht tun soll?
00:08:09: Also das soll es nicht.
00:08:10: Es darf nicht als Diagnosetool benutzt werden aber natürlich kann man mit AGO und da arbeiten wir auch dran in der Diagnostik unterstützen.
00:08:20: Unser Meilensteiner dieses Jahr ist die Zertifizierung für ISO-Dreizendvierachtfünf.
00:08:27: Das ist eine Zertifikierung, die man braucht als Hersteller um auch Medizinprodukte auf den Markt zu bringen Und genau das wollen wir auch machen.
00:08:36: Also, wir wollen auf jeden Fall auch große Sprachmodelle zum Beispiel oder KI-Agenten trainieren und so entwickeln, dass sie in der Diagnostik und auch in der Behandlung von Patienten dann unterstützen.
00:08:48: Das zweite Produkt ist Orphois.
00:08:52: Es ist seit Anfang ... ... im KEM-Einsatz und es eine Spracherkennung, eine KI-Spracherkennung die bei uns unsere herkömmliche Sprache können, wie wir hatten am UKE komplett abgelöst hat und ein totaler Gamechanger war.
00:09:08: Weil wir diese KI allen zugänglich gemacht haben am UKI.
00:09:12: also alle fünfzehntausend Mitarbeiter des UKEs können damit arbeiten.
00:09:17: Und das Spannende ist dass wir jetzt mittlerweile an insgesamt vier Unik-Tiniken über dreißig Krankenhäusern und vielen anderen auch ambulanten Gesundheitseinrichtungen weit über zwei Hundert mit dabei am Laufen haben und wir überzeugt sind, dass das eine sehr spannende Technologie sein wird wie wir in Zukunft auch mit RKI interagieren werden.
00:09:41: Du
00:09:41: hattest schon gesagt Orpheus hat das Spracherkennungstool was hier vorher benutzt wurde abgelöst?
00:09:48: Ja.
00:09:48: Warum oder wie unterscheidet sich das denn zu anderen herkömmlichen Spracherkennungstools?
00:09:54: Office ist eigentlich also aus meiner Perspektive ein perfektes Beispiel, an dem man das einmal durchgehen kann.
00:10:00: warum es super wichtig ist dass es die IDM gibt.
00:10:02: Weil wir beobachtet haben, dass wenn man ja spracherkennungenherkömmliche Sprachekönnung KI-Sprachekennungen sich jetzt einkaufen möchte als Unternehmen dann kann man die überwiegend nur noch in der über die Cloud beziehen.
00:10:16: Also das ist der erste Punkt, also Orpheus ist tatsächlich ein Spracherkennungssystem was man auch noch lokal bei sich im Rechenzentrum betreiben kann wahrscheinlich das einzige auf dem Markt was sie bislang aktuell noch so kriegen können.
00:10:27: Dann war für uns immer die Perspektive ganz spannend dass wenn man eine herkömmliche Spracherkennung irgendwie sich in seinem Unternehmen holt Man erstens dafür sehr viel Geld bezahlt und aber auch die Daten letztendlich abfließen.
00:10:42: zu den... Unternehmen, die das natürlich danken nehmen und darauf ihre KI weiterentwickeln und uns wieder zurückverkaufen.
00:10:50: Also es ist sozusagen eine Spirale in die wir uns da begeben wo wir KI letztendlich nur nutzen sie aber nicht aktiv weiterentwicklen und auch unter unseren Gesichtspunkten quasi weiter entwickeln.
00:11:03: Und wir durchbrechen diesen Kreislauf und sagen Nein!
00:11:06: Die Daten bleiben sozusagen hier bei uns in Europa in Deutschland und wir entwickeln darauf unsere sozusagen KI Modelle hochspezifisch für unser System weiter und bringen sie sozusagen in die Breite.
00:11:19: Und damit durchbricht man das Kreislauf, dass man eben nicht nur sozusagen KI konsumiert sondern KI auch aktiv weiterentwickelt und sie eben für unser system auch weiterentwicklt.
00:11:33: Das ist ja eine ganz andere Perspektive wie man dann hat.
00:11:37: Du hattest auch gesagt Orpheus wird schon von mehreren Kliniken praxen?
00:11:48: Wir haben das an unterschiedlichen Institutionen, auch in unterschiedlichen Rechenzentren installiert.
00:11:54: Man braucht natürlich auch eine spezielle... Hardware dafür, also man braucht Grafikkarten letztendlich auch dafür um das natürlich lokal bei sich betreiben zu können.
00:12:02: Und für Praxen haben wir tatsächlich das Ganze aber in einer deutschen Cloud nämlich bei der Stack IT aktuell gehostet und haben da den großen Vorteil weil wir nicht auf externe KI-Komponenten angewiesen sind dass wir es zeigen in unserem Private Compute Bereich alles machen können.
00:12:25: Also wir haben das Modell dort, wir haben unsere eigenen, sozusagen propretären Grafikarten da und deswegen fließen da auch keine Daten ab an
00:12:36: Dritte.".
00:12:36: Das ist jetzt noch alles trainiert auf deutsche Sprache?
00:12:40: Richtig!
00:12:41: Jetzt gibt es ja im KA zum Beispiel auch Forschung,
00:12:44: medizinische
00:12:45: Forschung ist aber normalerweise viel auf Englisch.
00:12:48: Ist das leicht übertragbar oder wäre das nochmal... Ganz anderer?
00:12:53: Nee,
00:12:53: tatsächlich ist so.
00:12:54: Wir wollen dieses Jahr auch Office... Also, Office wird Englisch können.
00:13:00: also das haben wir jetzt schon in dem aktuellen Modell ist es schon mit enthalten dass das Office englisch kann und wir werden aber auch versuchen andere europäische Sprachen noch mit hineinzubringen.
00:13:13: da sind wir gerade dabei Konzepte uns überlegen wie wir das am besten machen.
00:13:17: Europa ist auf jeden Fall auch spannend.
00:13:20: Ich stelle mir jetzt so vor Orpheus ist das Sprache Kennostool.
00:13:24: Also kann Ärzteschaft, Pflegepersonal diktieren, reinsprechen.
00:13:29: Was sie gerade zum Beispiel was dazu gesagt?
00:13:31: Visite!
00:13:34: Besuch an der Mese.
00:13:35: Genau, alles Mögliche.
00:13:37: Greifen dann Arge und Orphäus technisch funktionell irgendwie ineinander?
00:13:41: Also es ist sozusagen die Idee dass irgendwann das auch technisch ineinander greift also dass du sprichst freisprichst oder im Gespräch bist und das sozusagen aufgenommen wird und du letztendlich Technologie hast dann die das ganze auch strukturiert.
00:13:59: so ist die Idee.
00:14:00: Und zur Agung gehört noch eine andere Sache, die wir auch gelernt haben.
00:14:04: Das ist natürlich jetzt irgendwie wahrscheinlich nichts Überraschendes für, sagen wir mal heise online Podcast-Hörer vielleicht?
00:14:11: Wenn man sich Gedanken darüber macht dass man automatisierte Prozesse stattfinden lassen möchte braucht man dafür standardisierte Daten und da haben wir natürlich im Gesundheitswesen große Herausforderungen an vielen Stellen.
00:14:28: das heißt also Daten liegen natürlich nicht standardisiert vor und wir brauchen Systeme, die in dezentral gespeicherte fragmentierte Daten so aufbereiten, dass sie dann zentral an einer Stelle im Krankenhaus offen und zugänglich und strukturiert gespeichert werden.
00:14:49: Und das ist letztendlich ein eigentlich ja sozusagen auch weiteres Produkt, was wir entwickeln.
00:14:54: Wir haben einen KI-getriebenes Data Warehouse, das unter Argo steht und in der Lage ist mit allen möglichen unstrukturierten Daten im klinischen Alltag umzugehen diese dann in Fire zu übersetzen.
00:15:08: Und die Idee ist dass diese Firedaten einer Interoperabilitätsplattform im Krankenhaus persistiert.
00:15:15: Die Speicher werden gespeichert und darauf baut man jetzt.
00:15:19: unterschiedliche Module die zum Beispiel KI gestützt sind, wie Argo z.B.
00:15:25: setzen dann da drauf auf und kann man auf der Interoperabilitätsplattform jetzt endlich, ja, zum Beispiel Arsburgsschreibung stattfinden lassen aber auch noch viele andere spannende KI-Modelle oder auch Module dann letztendlich draufsetzen.
00:15:39: Aber die Daten müssen dafür natürlich erst mal offen interoperabel und zugänglich sein.
00:15:43: Für
00:15:43: wen?
00:15:44: Für welche Berufsgruppen oder welche Orte ist es denn die beiden Anwendungen im Moment primär gedacht?
00:15:50: eigentlich
00:15:51: Orpheus ist für wirklich alle gedacht im Krankenhaus.
00:15:57: So haben wir es auch immer, als wir es hier vom UKE eingeführt haben, am Anfang schon in den ersten Phasen gedacht also dass wir da keine Unterscheidung machen wollen zwischen herzlichen Personal und figurischen Personal, also wir hatten auch früh alle Berufsgruppen sozusagen immer mit dabei.
00:16:17: Und ich bin auch weiterhin fest davon überzeugt dass wenn man ein solches KI-Tool wie Moderne Spracherkennung in sein Unternehmen einführt das man es tatsächlich nicht nur an einer Stelle machen sollte sondern eigentlich an allen Stellen.
00:16:32: Man sollte es als Common Tool sehen, wirklich versuchen auf die Tastatur sozusagen zu verzichten weil man einfach viel schneller diktiert.
00:16:40: tippen würde.
00:16:41: Und was ist wichtig, wenn man jetzt die Prozesskette sich anschaut?
00:16:44: Es ist ja nicht nur so dass das ärztliche Personal viel dokumentiert sondern es dokumentieren entlang der Prozess Kette natürlich sehr viele Menschen und genau diese soll man ja auch alle mit Technologie unterstützen.
00:16:57: Man eben nicht mehr diese Unterscheidung macht.
00:17:00: wem gebe ich jetzt Technologie um?
00:17:01: wenig und auch ein großer Grund warum es eben wichtig ist diese Technologie kostendeckend und auch gemeinnützig sozusagen in die Breite zu bringen, weil wir eben keine Unterscheidung machen wollen.
00:17:16: Ja eigentlich wem also?
00:17:17: für wen leisten wir uns Unterschüßungssysteme?
00:17:20: Und für wen nicht?
00:17:21: Also diese Unterscheiden sollten wir eigentlich gar nicht machen.
00:17:24: Wäre
00:17:24: es jetzt auch etwas für meine Hausärztin, die Praxis bei mir um die Ecke sozusagen?
00:17:29: Genau!
00:17:30: Sogar sehr.
00:17:31: Im ambulanten Bereich ist sogar noch ein ganz interessanter Aspekt, ich komme ja sozusagen aus einem großen Maximalfersorger hier und aus der Perspektive.
00:17:38: wir haben aber im letzten Jahr mit sehr sehr vielen unterschiedlichen Leuten im System auch Kontakt gehabt wenn.
00:17:44: ich bin immer davon ausgegangen dass man insbesondere im ambulantenbereich Spracherkennung nutzt wird auch viel genutzt aber tatsächlich auch an vielen Stellen nicht und das hat mich gewundert und der Grund war häufig dass sie gesagt haben es ist zu teuer haben es einfach sich nicht geleistet, so ein Spracherkennungssystem überhaupt zu nutzen.
00:18:06: Und das fand ich immer wieder krass!
00:18:08: Also die Feedback haben wir tatsächlich ein paar Mal bekommen, dass sie gesagt haben nö, das lohnt sich nicht für uns und wir tippen dann lieber schnell das selber und sind aber dann total dankbar wenn Sie dann merken ok jetzt können wir auch so eine Technologie zurückgreifen und insbesondere zum Beispiel Hausärzte sind super dankbar wenn die dann auf einmal schnell einfach nur die Sachen siktieren können.
00:18:32: Das glaube ich total und das könnt ihr dann anders anbieten, weil ihr das gemeinnützig zu einem kostenländenden Preis anbietet.
00:18:38: Genau.
00:18:39: Geht das gleiche für Argo?
00:18:40: Da habe ich mich vorhin das gefragt.
00:18:42: Ja.
00:18:43: Argo habt jetzt trainiert mit den Daten aus dem UKE.
00:18:46: Aber zum Glück gehe ich jetzt ja zu meiner Hausärztin mit ganz anderen Beschwerden, die mich zum Glück meistens nicht als keine Hauspläne haben.
00:18:53: kann sie auch Arge benutzen für irgendwelche Dokumentationen oder bringt das ihr gar nicht so viel, weil ihre Fälle gar nicht abgebildet sind in den
00:19:03: Kragus-Training?
00:19:03: Agu ist aktuell noch für den stationären Bereich optimiert und auch bislang vorgesehen.
00:19:09: Aber wir denken aktuell schon etwas größer darüber nach wie wir dieses Systeme auch in die Breite bringen.
00:19:19: Und ich gebe mal ein Beispiel also es jetzt vielleicht nicht mit der konkrete Antwort darauf.
00:19:25: Aber ein Beispiel ist für mich die EEPA, also die elektronische Patientaktin der Patienten selber.
00:19:32: Wo ja auch die Hausärzte drauf zugreift und in dieser Akte sind ja überwiegend auch wieder PDF-Dokumente nur drin.
00:19:41: Und jetzt braucht es natürlich Technologie, die auch das wieder strukturiert damit man's besser durchsuchen kann, damit mal vielleicht da wieder KI-Moderator laufen lassen kann.
00:19:52: Und ich glaube, da wird es sehr spannend werden.
00:19:58: Weil man sich schon gut vorstellen kann, dass zum Beispiel ja gewisse Komponenten die wir entwickelt haben auch vielleicht darunter schützen.
00:20:06: Ja das ist sehr nöblich!
00:20:08: Auch wenn man natürlich wirklich vorstellen könnte, dass die Epa eines Tages anders strukturiert wäre.
00:20:13: Da bräuchte es nicht extra Systeme.
00:20:14: aber mal schauen wie schnell er ist.
00:20:16: Genau, das ist ja genau eine Idee.
00:20:17: also... Eigentlich sollten die Daten, also welche Daten wo liegen.
00:20:22: Das sollte eigentlich keinen Unterschied mehr machen.
00:20:24: Also wenn ich jetzt zum Beispiel bei mir im Krankenhaus ein aktuelles Labor gemacht habe und da war es wichtig dass das auch in deiner Epa ist dann sind diese Daten auch in der Epa.
00:20:34: Aber ich muss nicht sozusagen immer darauf Bezug nehmen mit einem Asprev.
00:20:38: Das ist so dieses alte, der alte Gedanke warum hat man einen Aspreff geschrieben?
00:20:41: Weil man eben dieser Papierakte nicht mitgeben konnte sondern man musste halt eben auf wichtige Bestandteile in der Papierakte auch referenzieren in dem Arztpliff für den Hausarzt.
00:20:50: Aber wenn die Daten, die wir erhoben haben eh schon bei dem Hausarz auch vorliegen dann brauchst du das ja nicht.
00:20:55: Das ist ja deswegen und der ändert sich der Prozess Und ich glaube da werden wir mit KI-Technologie oder auch gerade mit GenerativerKI in Zukunft ganz andere Möglichkeiten haben Daten erstens nutzbar zu machen aber auch auf Daten zuzugreifen.
00:21:10: Gott ist ja am Anfang auch gesagt dass es auch darum geht diese Daten die eben das UKE hat, weil es digital schon so lange so gut aufgesteckt ist.
00:21:20: Du hast gesagt seit zwei Tausend neun digitale Patientenakten
00:21:24: durchgehend.
00:21:26: Diese Daten konntet ihr benutzen?
00:21:28: Die wollt ihr solidarisch jetzt wieder ins System geben sozusagen diese ganzen Patientendaten, die wahrscheinlich dann in die Arztbriefe geflossen sind.
00:21:38: wussten die Patienten damals schon was ihr damit vorabt?
00:21:45: Genau, ich glaube das wussten die Patienten sicherlich nicht.
00:21:47: Aber genau dadurch dass wir sozusagen die Technologie ja hier bei uns lokal am KI entwickeln direkt sozusagen im Inneren der Klinik wo wir unsere Hardware auch aufgebaut haben ist das schon ein sehr großer Punkt sozusagen der sehr toll auch aufgenommen wird von vielen auch gerade, die sich insbesondere auch immer um Datenschutzthemen kümmern.
00:22:17: Wir sind wie gesagt direkt neben den Daten entwickeln da nichts verlässt sozusagen jetzt hier das UKE und das ist schon ziemlich cool eigentlich der Gedanke dass alles hier sozusagen bei uns vor Ort entwickelt wird.
00:22:32: Und für die Patienten ist es ja ich glaube so ähnlich wie du es ja auch mit deinen Hausärzten jetzt gerade gesagt hast ja total wichtig wenn diese Technologie auch in den klinischen Alltag kommt.
00:22:43: damit eben wirklich die Leute, die im System sind unterstützt werden durch Technologie.
00:22:50: Und wir gehen auch – und da bin ich auch zutiefst von überzeugt – gehen davon aus dass du in Zukunft eigentlich gar nicht mehr ohne diese KI-Technologie zu Recht kommen wirst im klinischen Alltag.
00:23:04: Also wir haben ja so viel Daten wie kannst Du als Mensch zu einem bisschen Punkt auch gar nicht mehr selbst erfassen.
00:23:12: Du brauchst KI-Technologie, um dich dadurch diesen ganzen Datendummel durchzunavigieren.
00:23:20: und dann ist immer die Frage wer sollte diese KI Technologie entwickeln?
00:23:25: Und wir bei uns in der IDM sind ganz fest davon überzeugt dass wir das machen sollten, also quasi aus der klinischen Routine heraus unter unseren ethischen Gesichtspunkten und auch Ansichten.
00:23:42: Und wir eben uns nicht abhängig machen sollten von KI Systemen, wo wir gar nicht wissen auf welchen ethischen Grundlagen sie zum Beispiel entscheiden.
00:23:54: Und deswegen ist es schon sehr wichtig, dass man sich damit auseinandersetzt KI zu entwickeln, also Qualität zu sichern und auch sicherzugehen dass sie unseren Entscheidungsgrundlagen auch entspricht.
00:24:12: Weil wenn wir die Technologie nicht selbst gestalten dann machen wir es immer abhängig.
00:24:17: Du hast gesagt eure Systeme sollen grundsätzlich eigentlich für alle gedacht?
00:24:21: Hast dich... auf das ganze Personal in Kliniken bezogen.
00:24:24: Was ist denn mit anderen Organisationsstrukturen im Gesundheitssystem?
00:24:28: Also öffentlich Apotheken, was ist mit kralten Kassenfamilien?
00:24:31: sind die mitgedacht bei euch oder konzentriert ihr euch auf Kliniken?
00:24:35: Ne also genau das ist von der Idee als wir wollen.
00:24:37: es haben wir gesagt dass die Technologie die wir entwickeln soll wirklich eins zur Verfügung stehen also nicht nur Klinikum Das ist ganz klar.
00:24:49: Also wir wollen auf jeden Fall auch Technologie für andere anbieten, wenn du so möchtest, dann wollen wir eigentlich den Treibstoffanbieten den anderen nutzen um quasi ihre Prozesse zu befeuern.
00:25:04: Wir wollen eben das System nicht mehr abhängig von KI-Modellen die überwiegend aus dem außereuropäischen Ausland kommen sondern eben auf unsere KI Modelle zurückgreifen können Wenn man so möchte, da kann man sich ja unterschiedlichste Akteure vorstellen die auch viel mit Dokumentationen zu tun haben.
00:25:24: Abdechnung zu tun und genau klar also die Technologie die werden wir können soll klar natürlich nicht nur für Kliniken sein.
00:25:33: Da kann ich mir gut vorstellen was du auch schon ein bisschen erwähnt hast das ihr System baut um das Personal den ganzen Gesundheitswesen alle möglichen Beteiligten zu unterstützen und zu entlasten.
00:25:47: Aber es gibt ja auch Organisationsstruktur oder andere Player, die vielleicht sagen cool dann können wir das alles effektiver gestalten und personale Reduzieren.
00:25:55: zum Beispiel Und da wäre ich jetzt so ein bisschen du gehst davon aus dass das im Endeffekt passieren wird.
00:26:02: kann so oder so weil es diese Systeme geben wird.
00:26:06: und dann ist dir aber die Datensicherheit wichtig die Souveränität dass das mit eigenen in Deutschland entwickelten und hiergerosteten Systemen, wenn überhaupt stattfindet.
00:26:17: Damit zumindest die Daten von uns allen sicher
00:26:20: bleiben.".
00:26:21: Genau ich habe jetzt glaube nicht gesagt, dass ich davon ausgehe, dass wir ein zukunftliniger Personal haben werden.
00:26:27: Also ich hatte eher gesagt, sich davon auszugehen, dass es wir in Zukunft ohne dieses System im klinischen Alltag nicht mehr zurechtkommen werden, weil wir einfach so viele Daten erheben und auch ein so hohes Patientenaufkommen haben werden aufgrund des demografischen Landes.
00:26:42: Dass du einfach ohne KI nicht mehr einer Qualität Behandlung gewähren kannst, die wir uns so vorstellen.
00:26:49: Ich glaube das ja, also wir wären nicht weniger Personal sondern wir werden einfach einen höheren Patientenaufkommen haben und einfach diese Technologie brauchen um in unterschiedlichsten Bereichen zu unterstützen.
00:27:04: Da bin ich zutiefst von überzeugt, dass wir die Technologie brauchen.
00:27:09: Personaleinsparung das glaube ich nicht.
00:27:13: Das ist einfach aufgrund des Wandels und auch aufgrund dessen hohen Arbeitsaufkommens.
00:27:19: Wir haben ja den demografischen Wandel an unterschiedlichen Stellen im System.
00:27:23: also der betrifft ja das System auch unmittelbar Im ambulanten Bereich auch mitunter einige Bereiche, wo Ärzte in den nächsten Jahren aus dem Beruf rausgehen werden.
00:27:37: Und so das auch in den Krankenhäusern und dann aber auf der einen Seite ein wirklich wesentlich höheres Patientenaufkommen ist.
00:27:46: Deswegen stellt sich diese Frage für mich gar nicht.
00:27:48: Also ich bin von fest überzeugt, dass wir einfach wirklich KI brauchen werden um überhaupt noch Qualität in den dem Maße aufrecht zu erhalten, wie wir uns das vorstellen.
00:27:59: Also ich glaube es ist einfach ganz klar.
00:28:01: Open Source – Ist das ein Thema für euch?
00:28:04: Wollt ihr irgendwas zur Verfügung stellen?
00:28:06: Könnt ihr etwas Open Source zur Verfügung Stellen?
00:28:08: Genau also ich dachte, dass ist noch mal auch sehr spannender Part.
00:28:12: Wir möchten auf jeden Fall als Weiterenteil der Open Source Community sein und wir werden auch bestimmt auch in diesem Jahr Dinge publizieren, die sehr spannend sein werden auch Open Source.
00:28:26: Aber zum Beispiel jetzt für diese Spracherkennung werden wir um das ein bisschen noch weiter in die Breite zu bringen eher eine AP anbieten also eine AP, die auch andere Startups zum Beispiel einbinden könnten in ihre Produkte.
00:28:43: AAP muss ich nochmal erklären, was eine Programmschnittstelle sozusagen zu unserem KI Modell.
00:28:50: Und dann könnte, weiß ich nicht zum Beispiel ein Anbieter von einer... Software für Anrufbeantworte zum Beispiel oder andere, die könnten dann sagen okay ich möchte jetzt diese Audiodaten, die ich erhebe.
00:29:06: Möchte ich jetzt nicht mehr zu irgendwo anders hin schicken sondern schicke ich dann sozusagen zur EDM.
00:29:12: wir transkribieren sie und schicken wieder zurück.
00:29:14: das ist für uns ein Aspekt wo wir sagen dass wird sicherlich auch nochmal sehr spannend sein und ist auch wenn man sich noch mal diesen Souveränitätsgedanken irgendwie in den Kopf holt auch super wichtig.
00:29:28: Nicht nur für die Solidarität, sondern auch um das System resilienter aufzustellen weil wir damit die Möglichkeit haben spannende Start-ups oder auch andere Wirtschaftsunternehmen sozusagen von diesen KI Modellen abhängig sind Sie so aufzustellen, dass sie uns als KI-Modell einbinden können und nicht irgendwie angewiesen sind auch andere KI Modelle.
00:29:53: Das hat ja auch gewisse Souveränitäts- und Resilienzaspekte und deshalb glaube ich ist das super spannend.
00:30:02: also wir würden gerne unsere Modelle weiterhin sehr niederschwellig und auch Kostendecken zur Fümal stellen.
00:30:09: Und ja, deswegen wird es immer eine Mischung sein aus wie gesagt nach einer Lizenzierung von Modellen.
00:30:17: Aber wir werden auch und da bin ich sehr fest von überzeugt insbesondere dieses Jahr auch Dinge Open Source zur Verfügung stellen und damit auch dieser Community helfen sozusagen an unterschiedlichen Stellen noch mal helfen.
00:30:33: Ja das heißt wir werden Ja, Produkte in diesem Bereich natürlich auch erproben und darüber wird man es vielleicht noch einiges hören.
00:30:45: Auch bisher erst sehr genau.
00:30:46: Da
00:30:46: werden wir auf jeden Fall gespannt geworden
00:30:47: auf das Herd.
00:30:48: Ich hätte noch eine Minifrage.
00:30:50: Aro und Orpheus
00:30:52: Ja.
00:30:52: Wie seid ihr denn auf diese Namen gekommen?
00:30:53: Die Entstehungsgeschichte von Argo und Orpheus gibt es, wir haben ja in Berlin zwei lange immer überlegt.
00:31:02: Wir finden die Namen sehr schön.
00:31:03: Das sind sozusagen Begriffe aus der griechischen Mythologie.
00:31:08: Ich dachte, das passt ganz gut in der Medizin.
00:31:11: Argo, letztendlich die Agonauten in der griechischen Mythologie waren ja auch ziemlich viele Götter und Halbgötter hier unterwegs, auch aufweiß aber auch andere Namen, die man in der medizin ja auch kennt.
00:31:22: Und wir möchten damit symbolisieren dass wir sozusagen damit verschiedene KI-Modelle in die Medizin grengen wollen.
00:31:31: Vielen Dank, dass ich ja kommen durfte.
00:31:32: Ja, danke sehr für deine Zeit!
00:31:36: Das war's für heute.
00:31:37: Den Digital Health Podcast findet ihr auf der Plattform Eure Wahl und natürlich bei heise.de-podcasts.
00:31:44: Alle vierzehn Tage liefert euch Marie Claire Koch dort Hintergründe und Expertengespräche zu EPA, Telemedizin, KI und Digitalisierung im Gesundheitswesen.
00:31:54: Die nächsten KI Update Deep Dive hört er an dieser Stelle in zwei Wochen.
00:31:59: Dann spreche ich mit ein paar Experten unter anderem darüber wie sich immer mehr KI im Arbeitsalltag auf unsere Psyche auswirkt.
00:32:06: Es würde mich freuen, wenn ihr dann wieder dabei seid.
00:32:09: Bis dahin könnt ihr natürlich mit unserem kompakten KI Update jeden Montag, Mittwoch und Freitag auf dem Laufenden bleiben!
Neuer Kommentar