Dr. med. KI - Künstliche Intelligenz in der Medizin

Dr. med. KI - Künstliche Intelligenz in der Medizin

Transkript

Zurück zur Episode

00:00:00: Hallo, herzlich willkommen zur zweiten Staffel von Dr. med. KI, einem gemeinsamen Format

00:00:09: vom KI-Campus und der Charité Universitätsmedizin. Mein Name ist Kerstin Ritter, ich bin Juniorprofessoren für Computational Neuroscience an der Charité und nachdem wir in der ersten Staffel vor allem über Grundlagen von KI, also was ist KI und wie funktioniert maschinelles Lernen, gesprochen haben,

00:00:24: möchten wir in dieser Staffel tiefer in verschiedene Anwendungsgebiete von KI in der Medizin einsteigen, also wie wird KI z.b. in der Pathologie oder Neurotechnologie

00:00:35: eingesetzt.

00:00:36: In der heutigen Folge widmen wir uns einem sehr spannenden Thema, nämlich der Neurobildgebung, einem Teilbereich der Neurologie und Psychiatrie

00:00:45: und ich freue mich sehr hier meinen ersten Gast zu begrüßen, Fabian Eitel.

00:00:49: Fabian Eitel ist Informatiker und ausgebildeter Data Scientist und promoviert bei mir in der Arbeitsgruppe Maschinelles Lernen in der klinischen Neurobildgebung.

00:00:59: Hi Fabi, woran arbeitest du?

00:01:01: Hallo Kerstin, im Grunde genommen forsche ich zu Algorithmen die automatisch im Gehirnbilder Krankheiten erkennen sollen. Und was für Krankheiten versucht ihr hier zu erkennen.

00:01:13: Das sind einerseits neurologische Erkrankungen, daher mit dem Schwerpunkt auf Alzheimer und Multiple Sklerose,

00:01:20: aber auch psychische Erkrankungen, wie zum Beispiel Depressionen oder Zwangsstörungen. Und was für Daten guckt ihr euch hier genau an.

00:01:29: Wir verwenden strukturelle MRT-Bilder. Das sind 3D-Bilder eines Gehirns, die zeigen die Struktur, also die Anatomie des Gehirns. Das unterscheidet sich von funktionellen MRT Bildern,

00:01:44: bei denen man auch noch eine temporale Komponente hat, mit der man über die Zeit sehen kann, wie sich die Ströme im Gehirn verändern wenn man bestimmte Stimuli

00:01:56: verwendet. Und unsere Bilder sind statisch

00:02:00: und verändern sich im Laufe des Lebens, aber eben auch stark von manchen Krankheiten.

00:02:08: Und wie kann man nun bestimmte Krankheiten erkennen, du hast zum Beispiel die Alzheimer-Erkrankung erwähnt.

00:02:13: Die Alzheimer-Krankheit ist daher ein interessanter Forschungsschwerpunkt für uns, weil es gut zu erkennen ist. Was im Gehirn passiert ist die sogenannte Atrophie.

00:02:25: Das sieht man auf den Bildern gut, dass das Gehirn kleiner wird, vor allem an den Rändern im Gray Matter-Bereich, aber eben auch die Ventrikel. Das sind große

00:02:36: Bereiche im Zentrum des Gehirns, in denen keine Gehirnmasse ist.

00:02:40: Die werden deutlich größer, aber die Gehirnmasse einfach kleiner. Das macht es als Krankheit sehr gut erkennbar auf MRT-Bildern

00:02:48: und somit auch eine einfache Aufgabe für unsere Algorithmen.

00:02:51: Und wie unterscheiden sich diese Alzheimer-Prozesse vom normalen Alterungsprozess?

00:02:58: Beim normalen Alterungsprozess hat man auch Formen der Atrophien, das Gehirn wird kleiner.

00:03:06: Allerdings passiert das beim Alzheimer-Prozess deutlich schneller und deutlich verstärkt,

00:03:12: und da kommt dann wieder diese Schwierigkeit hinein, weil tendenziell wir diese ähnlichen Prozesse auch bei normalen alternden Gehirnen feststellen,

00:03:24: und da wirklich die Unterschiede festzustellen, da wirds dann schon wieder kniffliger.

00:03:28: Da sind solche Algorithmen auch hilfreich. Und was für Algorithmen verwendet ihr hier genau? Also die Methoden, die wir verwenden, das sind, also, unsere Gruppe hat ihren Schwerpunkt auf

00:03:39: Convolutional Neural Networks. Das ist eine Methode des Deep Learning.

00:03:45: Wir verwenden aber auch ganz andere Methoden, aber Convolution Neural Networks bieten sich für diese Art von Daten besonders an.

00:03:55: Und kannst du nochmal kurz erklären wie die funktionieren? Das Interessante an CNNs, warum wir die verwenden ist,

00:04:04: dass sie besonders gut bei Nachbarschafts-Informationen funktionieren. Also wenn wir davon ausgehen können, dass wir in unseren Inputdaten Informationen haben, die in Relation zueinander stehen,

00:04:17: immer abhängig davon, wo sie liegen. Das hat man bei Bildern, das hat man bei Text, das hat man aber nicht z.B. bei tabellarischen Daten.

00:04:25: Also wenn wir nur eine Tabelle mit klinischen Informationen von jemandem hätten, dann würden da keine relevanten Zusammenhänge entstehen, nur dadurch wo sie liegen.

00:04:36: Das haben wir dadurch, dass MRT Bilder letztendlich auch nur Bilder sind, zwar in 3D

00:04:41: und mit gewissen Unterschieden noch zu normalen Fotos z.b., aber da haben wir auch diese Nachbarschaft Informationen,

00:04:49: bei denen CNNs hilfreich sein können über diese Convolutions, die wir da haben. Aber man muss auch ganz klar dazu sagen, es ist nicht die einzige Methode, die wir verwenden.

00:04:59: Es gibt viele Methoden, wie z.B. Support Vector Machines oder auch lineare und logistische Regression,

00:05:07: die sehr effektiv sein können, vor allem auf den Datensatzgrößen, die wir haben.

00:05:15: Was ist denn der Mehrwert von Deep Learning? Funktioniert es auch schon mit einfachen Methoden gut oder braucht man wirklich Deep Learning?

00:05:23: Das ist so eine Art Grundsatzfrage. Da wird viel diskutiert im Forschungsbereich.

00:05:33: Man kann sie nicht hundertprozentig beantworten. Es gibt manche Anwendungsgebiete, in denen einfache Methoden, lineare Methoden super gut funktionieren.

00:05:43: Andererseits gibt es auch Anwendungsgebiete, in denen sie noch nicht so gut funktionieren.

00:05:49: So ein bisschen ist für uns der Ansporn, ok, was können wir noch bei rausholen, wie können wir mit diesen Methoden deutlich besser werden? Da müssen wir aber davon ausgehen,

00:05:59: dass auch genug Nichtlinearität in diesem Daten steckt, also dass da genug Information drin steckt,

00:06:06: die wir mit den Datensatzgrößen, die wir haben, herausfinden können.

00:06:10: Und diese Algorithmen, müsste ihr die jedesmal neu anpassen oder ist das quasi ein Algorithmus, den ihr reinsteckt und der funktioniert dann für alle Daten? Meistens fängt man immer wieder bei Null an. Man hat einen Datensatz,

00:06:25: der hat andere Eigenschaften als ein anderer Datensatz, z.B. die Bildgröße ist anders oder das Dateiformat

00:06:35: oder auch die Datenstruktur ist leider oft sehr durchmischt und deswegen muss man oft wieder von Null anfangen, aber was ist zum Beispiel auch gibt, ist dass man sagt, wenn man einen Datensatz hat, der nicht ganz so groß ist,

00:06:48: dann kann das sogenannte Transfer Learning machen, dass man zuerst auf einem etwas größeren Datensatz trainiert und dort schon mal erste Feature Extractors

00:06:58: lernt, mit denen man dann die eigentliche Aufgabe, die man trainieren möchte, das eigentlich Netzwerk, dafür schonmal initialisiert.

00:07:08: Und dadurch kann man schneller, im Idealfall, auf dem eigentlichen Task lernen.

00:07:14: Und wie viele Daten braucht man damit Deep Learning gut funktioniert?

00:07:19: Es ist nicht eindeutig, wie viel Daten man wirklich braucht. Tendentiell kann man sagen, je mehr, desto besser und wichtig ist auch saubere Daten zu haben und saubere Labels.

00:07:32: Es gibt die Regel, man sollte möglichst mehr Daten haben, als man Features hat, also als man

00:07:42: Informationspunkte pro Daten-Beispiel hat.

00:07:45: Das ist bei uns bei weitem nicht der Fall. So ein Bild ist ja riesig, vor allem dadurch dass es 3D ist. Und so viele Samples könnten wir niemals bekommen

00:07:56: oder erheben. Aber im Computer Vision-Bereich wird viel von mindestens 1000 Samples pro Klasse gesprochen.

00:08:05: Das ist aber stark davon abhängig,

00:08:08: was für eine Aufgabe es ist, wie schwierig die Aufgabe ist und manchmal kann man auch schon einzelne Unterschiede mit

00:08:15: wenigen Daten feststellen, halt mit linearen Modellen. Aber wenn man wirklich die Vorteile von diesem komplexen, nicht-linearen Modellen verwenden möchte, dann bräuchte man deutlich mehr Daten.

00:08:26: Und was ist so eine typische Größe von Datensätzen die ihr jetzt untersucht? Also wir haben ganz unterschiedliche Datensätze. Wir bekommen die einerseits von öffentlichen Quellen,

00:08:37: also die kann man sich frei aus dem Internet herunterladen. Aber wir bekommen auch Datensätze aus der Charité oder von Kooperationspartner.

00:08:47: Und die variieren teilweise von wenigen hundert Beispielen oder Samples,

00:08:54: bis zu mehreren tausend. Und die größten, die wir haben, die sind so an die 40.000 Bilder.

00:09:02: Und damit kann man dann schon was ganz spannendes machen. Du hattest jetzt schon Alzheimer erwähnt, dann hattest du Multiple Sklerose erwähnt. Wie

00:09:11: sehen Gehirnveränderung hier aus? Multiple Sklerose ist für uns auch sehr spannend, dadurch dass wir da auch einen sehr starken Biomarker haben. Das sind vor allem die sogenannten Läsionen.

00:09:23: Das sind so Art Kratzer auf den Gehirn-Bildern, die sich gut erkennen lassen.

00:09:28: Das sind Entzündungen und die werden auf den MRT-Bilder, also in der Flair-Sequenz,

00:09:36: als sehr starke weiße Bereiche dargestellt. Man nennt sie "white matter hyperintensities".

00:09:43: Und das ist etwas, was so ein Algorithmus auch sehr gut herausgreifen kann und was wir auch untersucht haben an unseren Algorithmen: dass es von dem Algorithmus sehr stark verwendet wird,

00:09:53: zur Entscheidungsfindung. Du sagst, dass der Algorithmus das dann verwendet. Wie kriegt man denn überhaupt raus, was der Algorithmus eigentlich benutzt, für die finale Entscheidung?

00:10:03: Oft spricht man davon, dass dieses Deep Learning-Modelle Black Box Modelle sind,

00:10:08: dass sie nicht der Transparenz sind, was auch stimmt. Diese Modelle zu verstehen, ist ganz so einfach. Es gibt mittlerweile aber sehr viel Forschung in dem Bereich der Erklärbarkeit,

00:10:20: Explainable AI. Und da versucht man über sogenannte Attribution Methods

00:10:27: zu erklären, was für Input-

00:10:33: Bereiche sich das Modell angeschaut hat, wärend es Inferenz macht, also wärend es sich ein Bild ansieht und versucht es zu klassifizieren.

00:10:40: Wir erzeugen sogenannte heatmaps, die wir über das Bild legen können und dann sind die Bereiche die besonders interessant sind, für eine gewisse Klasse, eingefärbt.

00:10:50: Und das haben wir gemacht bei Multipler Sklerose und haben dort gesehen, dass vor allem diese Läsions-Bereiche sehr starken Fokus bekommen, aber auch andere Bereiche, um die Ventrikel herum zum Beispiel.

00:11:03: Und was für uns auch ganz spannend ist: ok, was können wir eigentlich aus diesen Netzwerken und diesen Attribution-Methoden so noch lernen über diese Krankheit, was wir eventuell noch gar nicht wissen?

00:11:13: Ok, aber ihr könnt das auch benutzen um Klassifikations-Entscheidung für einzelne Patienten zu erklären. Also wäre das auch etwas das

00:11:21: vorliegen müsste, wenn man das tatsächlich irgendwann mal in einer Klinik anwenden würde? Genau, das ist eigentlich ein gutes Beispiel, dass man,

00:11:28: wenn man sich das so vorstellt: wie würde das eigentlich in der Klinik verwendet werden? Dann hilft es nicht nur zu sagen, ok, das ist mit soundso prozentiger Wahrscheinlichkeit

00:11:38: ein Alzheimer-Patient oder Multiple Sklerose-Patient, sondern man kann dann solche heatmaps hinzugeben und dem entscheidenden Arzt

00:11:48: Hinweise geben, warum entscheidet sich das so. Was man da aber auch noch machen kann, ist sogenannte "Uncertainties" mit reinzunehmen: wie unsicher ist da sich das Modell eigentlich oder wie unsicher ist das Modell in bestimmten Bereichen des Bildes,

00:12:03: um nicht die volle Verantwortung auf das Modell zu übergeben, sondern immer noch so ein bisschen das Zusammenspiel zwischen

00:12:11: Mensch und Maschine herzustellen.

00:12:13: Und was würdest du sagen, wann können solche KI-Methoden tatsächlich in der Klinik eingesetzt werden oder werden sie schon eingesetzt? Also diese Methoden, die wir entwickeln, die werden so noch nicht verwendet. Da sind wir einfach noch in einem sehr frühen Forschungsstadium

00:12:27: und bis die so weit sind, brauchen wir einfach deutlich mehr Daten, deutlich größere Datensätze und heterogenere Datensätze.

00:12:37: Oft ist das Problem, dass Datensätze nur an einzelnen Instituten erhoben werden und dann nur von einzelnen Scannern kommen.

00:12:43: Es lässt sich sehr gut zeigen, dass Datensätze von unterschiedlichen Scannern sich gut unterscheiden lassen,

00:12:51: nur anhand von welchem Scanner sie kommen. Das fällt vielleicht dem bloßen Auge gar nicht so auf, aber die Algorithmen können das super unterscheiden.

00:13:00: Und da müssen drauf achten, weil die Gefahr ist, dass wir, wenn wir einen Algorithmus nur auf Daten von der Charité trainieren, dass er dann im Klinikum in Hamburg nicht mehr gut funktioniert.

00:13:12: Deswegen brauchen wir Datensätze, die generell genug sind, denn, wenn wir eine gewisse Heterogenität schon haben, dann können sie deutlich besser generalisieren auf weitere noch unbekannte Orte. Wäre nicht ein anderer Ansatz auch,

00:13:26: zu versuchen direkt von Anfang an homogenere Daten zu erzeugen, indem man Standards überall einführt und die gleichen Sequenzen, die gleichen Scanner ...

00:13:34: Das wäre natürlich der andere Ansatz und ich glaube, man braucht ein bisschen beides. Allerdings ist Standardisierung ist sehr schwierig und

00:13:43: wir können nicht alle Gruppen dazu zwingen, auf die gleichen Art und Weise die Daten zu erheben oder den gleichen Scanner zu verwenden.

00:13:51: Und so ein bisschen ist es ja auch gut, dass es da verschiedene Protokolle gibt und etwas Wettbewerb, um zu schauen: ok, was funktioniert einfach besser.

00:14:00: Aber letztendlich sind die Methoden, wenn man sie generell genug trainiert, in der Lage zu generalisieren, zu einem gewissen Grad.

00:14:10: Ok, vielleicht noch mal zurück: Wir hatten jetzt Alzheimer und MS, du hast auch psychische Erkrankung angesprochen. Wie ist es da? ist das schwieriger? Ja, auf psychischen Krankheiten ist es deutlich schwieriger,

00:14:21: solche Modelle zu trainieren,

00:14:23: vor allem auf strukturellen MRTs. Da gibt es nur sehr wenige Veränderungen. Ich hatte ja eben diese Läsionen und die Atrophie angesprochen. Das sieht man bei einer Depression viel schwieriger. Es ist auch für einen Experten

00:14:38: schwierig, nur anhand von einem Radiologie-Bild zu erkennen, ob das jetzt ein depressiver Patient ist oder eine gesunde Kontrolle.

00:14:49: Und da brauchen wir einfach noch mehr Erfahrung und wahrscheinlich noch größere Datensätze. Hinzu kommt auch, dass in

00:15:00: den physischen Erkrankungen

00:15:03: die Erkrankungen selbst deutlich heterogener sind. Es gibt eine größere Symptomvielfalt, die man haben kann und die werden oft unter den gleichen

00:15:15: Schirm gefasst, unter der gleichen Krankheit bezeichnet. Da ist aber die Frage: gibt's da nicht eventuell Subgruppen, die wir noch gar nicht so gut unterscheiden können?

00:15:25: Und da ist aktuell sehr viel Forschung auch zu schauen, ok, sollte man solche Erkrankungen vielleicht gar nicht so schwarz und weiß, als 1 und 0 sehen, sondern eher als ein gewisses Spektrum,

00:15:34: indem einzelne Symptome, aber auch

00:15:38: biologische Faktoren, neurologischer Faktoren Ausprägungen darstellen und eher daraufhin, jemanden in einem Spektrum zu platzieren.

00:15:47: Dass das ein Ansatz ist, den man besser lernen kann, mit so einem Modell.

00:15:53: Was da auch noch hinzukommt, ist die Retest-Reliabilität.

00:15:59: Psychische Erkrankungen werden oft auf eigenen Aussagen der Patienten diagnostiziert

00:16:06: und das kann sich leider sehr stark zwischen verschiedenen Test unterscheiden.

00:16:11: Wenn man den gleichen Test heute macht und dann in zwei Wochen nochmal und dann plötzlich merkt man, oh, in zwei Wochen geht es einem doch viel besser oder geht's einem viel schlechter oder betrachtet Dinge einfach anders, dadurch können sich solche Tests unterscheiden.

00:16:24: Und dieser Label-Noise, der dadurch entsteht, ist sehr schwierig für uns zu trennen. Und könnte man das noch besser standardisieren?

00:16:34: Ich nehme an, dass öffentliche Datensätze schon relativ gut standardisiert sind, aber wenn man jetzt hier in unterschiedliche Psychotherapie-Praxen geht, dass das da sehr schwierig wäre.

00:16:42: Ja, das denke ich auch. Aber da gibt es natürlich auch viel Bewegung und neue Konzepte und neue Frameworks, auf den man aufbaut

00:16:52: und da gibt's auch regen Austausch. Da wird Machine Learning mittlerweile auch schon häufig von Grund auf, heutzutage wenn man diese Frameworks entwickelt,

00:17:02: mitgedacht. Und das ist für uns sehr hilfreich. Also wenn wir wirklich davon ausgehen können: ok,

00:17:07: die Daten wurden so erhoben, dass sie auch gut für Maschinelles Lernen geeignet sind, dann macht das für uns das Leben deutlich einfacher.

00:17:15: Und schaut ihr euch nur die Neurobildgebungsdaten, also diese strukturelle MRT-Daten, an oder schaut ihr euch auch die anderen Daten an?

00:17:22: Wir haben ein Fokus auf die Neurobildgebung und da bieten sich auch diese Convolution Neural Networks besonders an, aber wir schauen auch, wenn wir klinisch Informationen haben:

00:17:33: wie können wir die mit in das Modell integrieren? Das ist auch noch eine offene Forschungsfrage, weil das noch nicht ganz klar ist, weil wir dann plötzlich tabellarische Daten haben

00:17:41: oder unterschiedliche Modalitäten. Wie man die am besten verknüpft,

00:17:46: wie man das gewichtet und dann aber auch wie man herausfindet: ok, haben die jetzt überhaupt eine Rolle gespielt, was für eine Rolle spielen die?

00:17:54: Und da gibt's verschiedene Methoden, die wir auch ausprobieren, was sehr spannend ist.

00:17:59: Du hast schon verschiedene Herausforderung genannt, vor allem, dass die Datengrößen zu klein sind, dass sie teilweise nicht heterogen genug sind, um damit Modelle trainieren zu können, die gut generalisieren. Was sind noch so Herausforderungen?

00:18:13: Wenn wir noch bei den Datensätzen bleiben, ist es natürlich auch:

00:18:18: es gibt nicht genug Benchmarking Datasets. Also Datensätze, bei denen man einfach mal neue Algorithmen entwickeln kann, neue Methoden. Was wir viel machen können ist, einfachen Methoden zu nehmen

00:18:30: und die auf unterschiedliche Krankheiten oder Datensätze anzuwenden, aber was natürlich auch spannend ist, vor allem als Informatiker, zu sagen: ok, können wir uns neue Methoden ausdenken, die spezialisiert sind auf diese Daten? Da ist es allerdings sehr schwierig die zu vergleichen,

00:18:45: weil die Performance ist sehr stark davon abhängig: wie teilt man sein Datensatz auf? wie macht man den Training-, Validierungs- und Testing-Split?

00:18:54: wie vor-verarbeitet man die Daten? Das kann einen extreme Effekt auf das Endergebnis haben

00:19:03: und es gibt einfach keinen standardisierten Datensätze, bei denen solche Dinge schon vorgegeben sind

00:19:09: und bei denen jeder Wissenschaftler genau die gleichen Voraussetzungen hat.

00:19:16: Und das macht es schwierig, da Methoden zu vergleichen.

00:19:21: Und auf der anderen Seite ist natürlich Datenschutz immer ein riesiger Punkt. Wir können nicht einfach hingehen und im Krankenhaus anrufen, hey, schickt uns doch mal all eure Daten,

00:19:29: wir würden da gern einen spannenden Algorithmus programmieren und die finde das super. Aber da ist natürlich, dadurch, dass es medizinische Daten sind,

00:19:37: der Datenschutz sehr wichtig und sehr genau. Und da muss man immer im voraus

00:19:43: Dinge abfragen und Operationspläne zwischen Universitäten schaffen

00:19:50: und das macht es für uns schwierig, genug große Datensätze zu bekommen. Du hast jetzt viel über Diagnostik gesprochen. Wie ist es denn mit komplexeren Fragen, also wenn man den Krankheitsverlauf vorhersagen will oder

00:20:05: schauen möchte, wer vielleicht gut auf eine bestimmte Therapie anspringt. Geht das auch schon oder ist das

00:20:12: eher noch Zukunftsmusik? Da ist die Forschung noch in einem sehr frühen Stadium,

00:20:18: aber es ist ein sehr spannendes Anwendungsgebiet, das wir uns auch anschauen. Es gibt zum Beispiel rekurrente neuronale Netzwerke, mit denen man untersuchen kann, wie

00:20:29: Vorhersagen auf longitudinalen Daten machen kann, aber auch bayessche Modelle.

00:20:38: Das ist aber, dadurch dass es da oft noch weniger Daten gibt und die Daten aktuell erst erhoben werden oder wir über viele Jahre hinweg die Daten erheben müssen,

00:20:47: um einen ausreichend langen Zeitraum zu haben, sehr schwierig. Aber das ist, wie du schon sagst, medizinisch eine sehr spannende Fragestellung.

00:20:58: Als letzte Frage: Was glaubst du, wo wird die Forschung in fünf Jahren stehen oder was erhoffst du dir?

00:21:07: Ich erhoffe mir einerseits, dass wir deutlich mehr Kooperationen haben, international, mit unterschiedlichen Krankenhäusern und Forschungsteams.

00:21:16: Dass wir da wirklich große Datensätze haben, dass viel öffentlich geteilt wird. Dass jeder die Möglichkeit hat da mitzumachen und

00:21:27: seinen Input zu leisten. Auf der andern Seite hoffe ich, dass wir dann schon erste Anwendungen im Krankenhaus haben oder testweise sowas verwenden zu können.

00:21:38: Nicht unbedingt jetzt die volle Diagnostik, aber zum Beispiel eine semi-automatische Diagnostik, bei der man sagen kann:

00:21:45: wir geben eine bestimmte Hilfeleistung für den Radiologen, der wirklich die Entscheidung trifft.

00:21:51: Viel wird das über Segmentierung gemacht, dass Läsionen hervorgehoben werden oder eingekreist werden. Aber es gibt auch andere Möglichkeiten, die man sich da vorstellen kann, wie

00:22:03: man, zusammen mit dem Radiologen, unterstützen kann.

00:22:07: Ja toll! Vielen Dank für das schöne Gespräch und bis zum nächsten Mal! Vielen Dank.

Über diesen Podcast

In der Podcastreihe "Dr. med. KI" von Charité und KI-Campus geht es um den Einsatz von Künstlicher Intelligenz (KI) in Medizin und Gesundheitswesen. Von grundlegenden technischen Funktionsweisen über Diagnosemethoden bis hin zur personalisierten Behandlung wird erkundet, wie KI die medizinische Landschaft verändert. In Gesprächen mit Expert:innen, Ärzt:innen und Technologiepionieren wird in Themen wie Maschinelles Lernen, medizinische Bildgebung, Datenanalyse und Ethik eingetaucht. Begleite uns auf dieser Reise, um zu verstehen, wie KI nicht nur die Präzision der Medizin verbessert, sondern auch die Art und Weise, wie wir für unsere Gesundheit sorgen, grundlegend transformiert.

Wer mehr über KI erfahren möchte, findet auf dem KI-Campus – Der Lernplattform für Künstliche Intelligenz spannende Lernangebote in unterschiedlichen Themenfeldern.

www.ki-campus.org

von und mit KI-Campus

Abonnieren

Follow us