Dr. med. KI - Künstliche Intelligenz in der Medizin

Dr. med. KI - Künstliche Intelligenz in der Medizin

Transkript

Zurück zur Episode

00:00:00: Hallo, herzlich willkommen zu Dr. med. KI, einem Angebot des KI-Campus und der Charité Universitätsmedizin. Mein Name ist Kerstin Ritter, ich bin Wissenschaftlerin an der Charité und

00:00:13: in dieser zweiten Staffel führe ich durch verschiedene Anwendung von KI in der Medizin.

00:00:18: Das heutige Thema ist Neurotechnologie und ich freue mich sehr über meinen Gast heute: Surjo Soekadar. Er ist Professor für Neurotechnologie an der Charité

00:00:28: und wird unter anderem gefördert von der Einstein Stiftung. Surjo, was ist Neurotechnologie und womit befasst sich deine Forschung?

00:00:35: Neurotechnologie ist im Prinzip jedes künstliche Mittel,

00:00:39: um Hirnaktivität, das kann elektrische oder magnetische aber auch metabolische Hirnaktivität sein, zu messen, zu analysieren und zu interpretieren.

00:00:49: Neurotechnologie hat auch den Aspekt, dass man Hirnaktivität gezielt verändert.

00:00:58: Das könnte jetzt z.B. Hirnstimulation sein. Im weiteren Sinne könnte man auch sagen, dass z.B. Psychopharmaka Hirnaktivität verändern, aber eben nicht sehr spezifisch, sonder eher unspezifisch.

00:01:13: Okay, Hilfe für Hirnstimulation, das wären z.B. Parkinson-Patienten, das würde auch unter Neurotechnologie laufen? Genau, alles was mit dem Hirn interagiert, alle technischen Geräte.

00:01:24: Mittlerweile kann man auch sagen, dass dann die Erweiterungen von

00:01:28: diesen Analysegeräten mit anderen Geräten, also z.B. EEG mit VR, wäre auch Neurotechnologie. Daran wird ja im Moment z.B. gearbeitet.

00:01:38: Alles, wo Hirnaktivität ausgelesen wird und dann mit digitalen Systemen interagieren.

00:01:46: Und wie kann ich mir das vorstellen? Hirnsignale sind ja sehr komplex. Also wie kann man da

00:01:51: gute Muster extrahieren, die dann wirklich ein Sinn machen? Ist das nicht sehr individuell? Also man muss ja sagen, bisher war es so, wenn man Hirnaktivität gemessen hat:

00:02:01: Hans Berger, vor über 100 Jahren, hat die Elektroenzephalographie erfunden.

00:02:08: Da konnte er mit bloßem Auge sehen: da sind Wellen, so mit 10 Hz, der sogenannte Alpha Rhythmus oder Berger Rhythmus.

00:02:17: Da war immer die Frage: Ja, wie ist es mit anderen Oszillationen, die man nicht so gut erkennen kann? Da hat man klinisch geguckt, also

00:02:27: bei Epellepsie-Patienten z.B., gibt es charakteristische Veränderungen? Man hat das dann auf Papier schreiben lassen und hat es sich dann hinterher angeguckt, über Stunden lang diese Aufzeichnungen angeschaut.

00:02:37: Durch die Entwicklung von Computern und auch den Einsatz von Computern, die das automatisiert analysieren können, in den 90er Jahren,

00:02:44: kam man dann zu dem Punkt, dass man auch diese Daten, die aus dem Hirn ausgelesen werden, in Echtzeit interpretieren kann.

00:02:52: Und das ist sozusagen die Geburtsstunde der sogenannten Gehirn-Computer-Schnittstellen, die in meiner Forschung eine sehr große Rolle spielen. Bei diesen Gehirn-Computer-Schnittstellen wird genau diese Hirnaktivität

00:03:03: in Echtzeit übersetzt und das kann man jetzt für verschiedene Anwendungen einsetzen.

00:03:09: So die erste Anwendung in der Medizin war die Wiederherstellung der Kommunikationsfähigkeit bei Patienten mit sogenannten Locked-in-Syndrom. Das sind Patienten, die nicht mehr laufen können, die auch nicht mehr sprechen können. Die werden künstlich beatmet.

00:03:23: Die haben natürlich Probleme

00:03:26: zu kommunizieren. Und bei diesen Patienten wurde in den 90er Jahren erstmals gezeigt, dass sie durch die Modulation ihre Hirnaktivität

00:03:33: kommunizieren können, indem sie einzelne Buchstaben auswählen, auf dem Bildschirm.

00:03:38: Das hat eine große Welle ausgelöst von Gehirn-Computer-Schnittstellen, die man auch klinisch einsetzt.

00:03:44: Und ein anderer Anwendungsbereich ist der Einsatz dieser Technologie zur Wiederherstellung von Bewegungsfähigkeit.

00:03:52: Immer wenn wir uns, also, wenn ich jetzt z.B. meine Hand hier so bewege, gibt es charakteristische Veränderungen der Gehirn-Oszillationen im motorischen Kortex,

00:04:00: die man messen kann und die man auch nicht-invasiv sehr gut messen kann, mittlerweile. Und, naja, das war dann der Schwerpunkt meiner Arbeit für viel Jahre, das

00:04:11: zuverlässig zu implementieren und bei gelähmten Personen einzusetzen und zwar auch außerhalb des Labors.

00:04:17: Wie messt ihr die Signale am motorischen Kortex? Invasiv oder von außen? Also ich muss sagen, in den letzten 10 Jahren haben wir

00:04:24: unglaubliche Fortschritte gemacht. Ich habe angefangen mit der sogenannten Magnetoenzephalographie. Das waren damals dann 275 Sensoren.

00:04:36: Das ist ein System, in das man sich hineinsetzt, mit dem man dann neuromagnetische Felder misst, um genau diese Muster zu erkennen.

00:04:45: Das Ding konnte man aber natürlich nicht mit sich herumtragen, das wiegt 2 Tonnen.

00:04:49: Dann war der nächste Schritt, das auf EEG zu übertragen und mit dem EEG Exoskelette zu steuern. Das ist für gelähmte Personen dann relevant,

00:05:00: Menschen, die z.B. nach einem Schlaganfall ihre Hand nicht mehr bewegen können, dass die ein Exoskelett steuern,

00:05:06: das wiederum ihre gelähmte Hand bewegt, wenn sie an Bewegung denken. Und das war sozusagen jetzt der Zwischenschritt. Da hat wir aber sehr sehr viel Elektroden am Kopf. Mittlerweile ist es so, dass wir durch Einsatz von maschinellen Lernverfahren und auch durch

00:05:20: andere technologische Verbesserungen, sehr sehr wenig Elektroden noch brauchen. Im Prinzip haben wir 5 Elektroden, mit denen man Greifbewegung dekodieren kann.

00:05:33: Okay, und was für maschinelle Lernverfahren verwendet ihr und

00:05:37: trainiert ihr die dann für jede Person einzeln oder auch über verschiedene Gruppen hinweg? Es ist so, dass diese Gehirn-Computer-Schnittstellen immer auch kalibriert werden müssen. Jeder Mensch hat andere

00:05:49: Frequenzen, die charakteristisch sich verändern bei Bewegungsabsicht. Das heißt, dieses System muss kalibriert werden. Und

00:05:58: da ist es so: man kann gerade bei Schlaganfallpatienten, bei denen

00:06:04: die Reorganisation des Gehirns auch eine Rolle spielt, maschinelle Lernverfahren einsetzen, um die beste

00:06:12: Elektrode und die Gewichtung der besten Elektrode zu identifizieren, auch im Laufe der Verwendung.

00:06:21: Es ist so, dass wir meistens lineare Klassifikatoren einsetzen, aber jetzt auch vermehrt neuronale Netze,

00:06:28: um Hirn-Aktivität zu dekorieren. Gibt's da eine Verbesserung, wenn ihr jetzt neuronale Netzwerke einsetzt, im Vergleich?

00:06:37: Es ist so, es sind immer mehrere Komponenten, die da eine Rolle spielen. Man kann nur das dekodieren, was im Signal auch enthalten ist. Es ist immer die Frage: was ist Rauschen, was ist Signal und

00:06:47: welche Technologie setzten wir ein. Beim EEG ist man relativ begrenzt, da kann man durch mehr Elektroden auch

00:06:55: mehr Signal rauskitzeln. Aber was wirklich interessant ist, womit wir uns jetzt beschäftigen, ist der Einsatz sogenannter Quantensensoren. Das ist eine neue Generation von Sensoren, die eingesetzt werden können, um neuromagnetische Felder zu messen.

00:07:10: Das war ja bisher ist nur möglich, wie ich vorhin erklärt habe, mit einem Magnetoenzephalographen, der

00:07:16: stationär war, 2 Tonnen wiegt und mit Helium gekühlt werden musste.

00:07:22: Die Sensoren waren, weil sie gekühlt werden mussten, viele Zentimeter entfernt vom Cortex.

00:07:27: Dadurch war die räumliche Auflösung nicht so gut. Aber man konnte

00:07:32: die räumliche Auflösung schon verbessern gegenüber EEG, weil durch die Volumenleitung im EEG kriegt man das einfach nicht gut hin.

00:07:41: So, und jetzt haben wir die Möglichkeit, durch den Einsatz von Quantensensoren, diese räumliche Auflösung nochmal deutlich zu verbessern, weil diese

00:07:49: Quantensensoren direkt an die Schädeloberfläche herangeführt werden können und man ein sehr reiches Signal hat.

00:07:57: Und wenn man ein so reiches Signal hat,

00:08:01: kann man damit natürlich auch mehr klassifizieren und das ist ein Ziel, dass wir jetzt in einem neuen Einstein-Forschungsvorhaben verfolgen, mit der PTB zusammen, der Physikalisch-Technischen Bundesanstalt,

00:08:13: dass wir diese Quantensensoren einsetzen, um nicht-invasiv einzelne Finger zu dekodieren, die Bewegung einzelner Finger, oder auch Sprache.

00:08:23: Es gab sehr einschlägige Arbeiten, in denen Sprache dekodiert wurde aus ECOG-Ableitungen, das sind

00:08:30: Elektroden-Grids, die man auf dem Gehirn platziert. Man muss aber den Schädel öffnen. Die Quantensensoren sind auch alle invasiv? Nein, die Quantensensoren sind alle nicht invasiv und

00:08:43: können aber rein theoretisch die gleiche Auflösung schaffen wie invasive Elektroden.

00:08:51: Und auch bei den Quantensensoren gibt es einfach noch wahnsinnig viel Potential. Im Moment nutzen wir optisch gepumpte Magnetometer,

00:08:58: es gibt aber auch Quantensensoren auf der Basis von Diamanten, also Festkörper, die OPMs nutzen Gas.

00:09:08: Diese Diamant-Magnetometer können noch eine höhere Auflösung bekommen, sind aber alle noch in der Entwicklung.

00:09:17: Und das, was meine Arbeitsgruppe im Moment beschäftigt, ist der Einsatz dieser Technologien in Kombination mit

00:09:26: maschinellen Lernverfahren, um Informationen aus dem Hirnsignal noch besser zu extrahieren.

00:09:34: Weil du gerade das Beispiel mit der Sprache gebracht hast: wie kann ich mir das vorstellen? Erstens, sind das Patienten mit Aphasie, auch nach einem Schlaganfall, geht es um solche Patienten?

00:09:43: Und ihr braucht ja ein Label, also ihr müsst wissen, was er eigentlich sagen wollte.

00:09:50: Und jetzt versuche ich das gerade Broca und Wernicke Aphasie in Verbindung zu kriegen. Da kommen ja auch nicht unbedingt..  also bei Broca Aphasie können sie ja sagen, was für eine Satz sie

00:09:59: schreiben wollen. Funktioniert das so, oder...? Es ist genauso wie du sagst. Man muss ja wissen, wie labeled man die Daten. Und

00:10:07: das ist beim BCI typischerweise so, dass in der Kalibrationen vorgegeben wird

00:10:13: was sie tun sollen. Bei unseren motorischen Gehirn-Computer-Schnittstellen ist es so, dass wir sagen: jetzt,

00:10:19: stell dir vor deine Hand zu schließen. Und dann weiß man ja in der Regel, jetzt ist die Aktivität anders, weil die Person versucht, die Hand zu bewegen.

00:10:30: Bei den Quantensensoren und der Sprachdekodierung ist es ähnlich,

00:10:35: dass man im Prinzip einen Trigger bekommt, von außen, wo gesagt wird: stell dir den Satz vor "meine Tante fährt Motorrad" und dann würde man versuchen, das zu klassifizieren.

00:10:48: Versucht man dann einzelne Sätze zu klassifizieren oder einzelne Wörter?

00:10:54: Man versucht es wahrscheinlich erstmal einfach sich zu überlegen und ein paar unterschiedliche Sätze zu nehmen und schaut, ob man da die Unterschiede findet und...  Also da wurden mittlerweile schon relativ viele Studien gemacht, mit ECOG Elektroden.

00:11:07: Das ist ein Projekt, das Facebook auch sehr stark finanziert hat oder Projekte, die dort finanziert wurden,

00:11:14: weil für diese Unternehmen es hoch interessant ist,

00:11:18: so eine Technologie zu implementieren. Dass wir z.B. mit unseren Smartphones nicht mehr über die Hände interagieren, sondern dass wir direkt

00:11:27: vorgestellte Sprache dekodieren können.

00:11:30: Im Moment ist es aber so, dass wir auf ECOGs angewiesen sind und das Repertoire der Klassifikation natürlich begrenzt ist. Also sagen wir so, da kommt dann die Frage:

00:11:41: "An welchem Tag gehst du zum Schwimmen?" und dann weiß man ja, die Antwort kann nur sein: Montag, Dienstag oder Sonntag und dann kann man dadurch

00:11:54: den Raum der Möglichkeiten reduzieren und dadurch natürlich auch die Klassifikationsgenauigkeit erhöhen. Aber das ist genau das Problem, das man dann hat. Man braucht ein relativ gutes Modell und

00:12:06: natürlich sind es dann immer nur wenige Klassifikationsebenen, die dekodierbar sind.

00:12:13: Geht es denn eigentlich darum, dass man bei Leuten die die Sprache vielleicht nicht wiedererlangen, dass man denen Möglichkeit zur Kommunikation gibt oder geht es auch darum,

00:12:24: dass man sie eventuell trainiert, um wieder zur Sprache zu kommen oder ist das ... Eine ganz spannende Frage, die du stellst, weil da kam jetzt das Stichwort "Training".

00:12:34: Das was mich ja total fasziniert hat, bei dem Einsatz dieser Gehirn-Computer-Schnittstellen bei Gelähmten, war, dass wenn wir diese Exoskelette regelmäßig einsetzen, sprich einmal täglich für eine Stunde,

00:12:46: bei schwerst gelähmten Schlaganfallüberlebenden, 20 Jahre nach ihrem Schlaganfall, dass

00:12:53: nach täglichen Einsatz über einen Monat hinweg, die Motorik der Hand sich verbessert hatte. Das konnten wir in einer größeren Studie mit über 30 Teilnehmern mit schweren Lähmungen auch

00:13:05: herausfinden und auch sehen, dass sich das Gehirn reorganisiert,

00:13:10: weil das Gehirn ja jetzt plötzlich auch einen Input bekommt, auf die Absicht die Hand zu bewegen, nicht nur visuell, sondern auch haptisch, wenn sie jetzt wieder was greifen können, dass dieser Prozess

00:13:23: Neuroplastizität triggert, die dann auch Hirnfunktionen verbessern kann.

00:13:28: Und das bringt mich zu dem Punkt, dass ich sage: diese Hirn-Computer-Schnittstellen können wir so einsetzen, dass auch andere Hirnfunktion verbessert werden können, nicht nur Motorik, das ist relativ trivial und einfach.

00:13:40: Bei einer Motorik kann ich sagen: jetzt stell dir vor, du möchtest deine Hand bewegen. Dann kann ich diese Daten labeln und sie klassifizieren und kann sie in Echtzeit

00:13:47: an einen Roboter schicken. Jetzt ist natürlich die große Herausforderung: können wir das auch bei psychischen Erkrankungen?

00:13:53: Das Problem ist, wenn jemand eine Depressionen hat kann ich nicht sagen, jetzt sei mal depressiv und jetzt hör auf, so eine Art Dual-State Paradigma, und schauen, was ist denn jetzt hier eigentlich anders.

00:14:05: Da müssen wir ein bisschen anders vorgehen. Aber ich halte es grundsätzlich für möglich

00:14:09: und auch für extrem transformativ für die Psychiatrie, wenn wir an diese Stelle herankommen.

00:14:16: Wie geht ihr da ran? Versucht ihr denn z.B.

00:14:21: mit Hilfe von Traumreisende oder bestimmten Bildern sie in unterschiedliche Zustände zu versetzen und dann...?

00:14:28: Im Moment haben wir tatsächlich mehrere Strategien, um dieses Ziel zu verfolgen. Das erste schwierige Ziel, das wir erreichen müssen ist, wir müssen erstmal sagen, wir möchten

00:14:37: psychiatrische Erkrankung, psychische Erkrankung, die charakteristische Symptome haben,

00:14:45: soweit verstehen, dass wir auch die neuralen Substrate benennen können, also welche Aktivität im Hirn geht mit welchen Symptomen einher.

00:14:54: Das können wir natürlich machen, indem wir das Verhalten beobachten und gleichzeitig Hirnaktivität messen.

00:15:04: Das ist eine Methode. Aber jetzt müssen wir schauen, dass wir wirklich den kausalen Link zwischen der Veränderung der Gehirnaktivität und dem Symptom hinbekommen.

00:15:15: Dafür setzen wir Hirnstimulation ein. Das heißt, wir untersuchen das Verhalten der Person und haben dann auch

00:15:25: ein Maß des Symptoms und versuchen das Symptom durch Hirnstimulation zu beeinflussen.

00:15:31: Und wenn wir gleichzeitig die Hirnaktivität messen, können wir den Link zwischen der Hirnaktivität und dem Symptom besser verstehen

00:15:40: und dadurch auch

00:15:42: Datenlabel, da kommen wir wieder zu den maschinen Lernverfahren. Und verstehen, welche Hirn-Oszillationen in welchem Kontext

00:15:51: ein Target wären, um das Symptom zu behandeln.

00:15:55: Das wäre dann der zweite Schritt, dass wir dann über gezielte Neuromodulation, das kann z.B. elektrische Stimulation sein oder Magnetstimulation, genau dieses Substrat modulieren und dann dadurch Symptome von psychischen Erkrankungen adressieren.

00:16:11: Das ist sozusagen die eine Variante, die wir hier verfolgen in unserer Forschung und die andere Variante ist, dass wir Patienten, die Depressionen haben und die zu uns kommen, um

00:16:21: mit rTMS, also repetitiver transkranieller Magnetstimulation, behandelt zu werden,

00:16:27: das ist ein Verfahren das FDA approved ist, das weltweit eingesetzt wird, bei dem man weiß, dass es auf Depressionen wirken kann, dass wir bei diesem Patienten die Hirnaktivität messen

00:16:40: und zwar longitudinal, also vor und während sie behandelt werden und dann auch in den Monaten danach, um

00:16:48: zu korrelieren, was eigentlich in den Hirn-Oszillationen sich verändert über die Zeit.

00:16:54: Das große Problem ist ja, wir können das nicht generalisieren von einem Patienten auf einen anderen.

00:16:59: Wir können natürlich dann später hoffen, dass wenn wir genügend Daten haben, dass wir ein Modell haben von bestimmten Clustern von Depressionen, die einem bestimmten Muster folgen und dann können wir möglicherweise effektiver stimulieren. Aber das ist die andere Herangehensweise, dass wir

00:17:14: direkt schon sagen: hier haben wir Patienten mit einer komplexen Erkrankung wie der Depression, behandeln sie mit rTMS und

00:17:23: beobachten sie longitudinal durch mobile EEG Aufzeichnungen, die gespeichert werden und dann später ausgewertet werden.

00:17:33: Wie lange sieht man denn die Effekte von rTMS? Das ist sehr unterschiedlich. Es ist so, dass wir in der Regel nach sieben bis zehn Sitzungen

00:17:42: erste Symptomverbesserungen feststellen können und in der Regel stimulieren 15 bis 20 Sitzungen, so wie bei der Elektrokrampftherapie, bei der man auch 12 bis 15 Sitzung macht und dann den Effekt erhält durch

00:17:56: wiederholte

00:17:58: Anwendung. Und das ist bei der rTMS ähnlich, also 15 bis 20 Sitzungen und dann eine Erhaltungs-rTMS. Wir haben Patienten, die jetzt seit Jahren symptomfrei sind, nach schwerer Depression.

00:18:13: Das ist bei den Patienten wirklich sehr unterschiedlich. Und das seht ihr auch in den Hirnsignalen, die Unterschiede von vorher und später?

00:18:21: Es gibt ja so Theorien: Hyperaktivität von subkortikalen Strukturen, die könnt ihr ja nicht unbedingt abbilden.

00:18:29: Aber mehr Kontrolle durch den präfrontalen Cortex, ist das sowas, was ihr da auch seht? Es ist so, dass das in der Literatur beschrieben wurde

00:18:37: und dass wir natürlich Interesse haben, das auch noch besser zu quantifizieren, mit unseren Mitteln. Aber es ist auch so, dass ich ja jetzt auch noch nicht allzu lange an der Charité bin und wir die Datenbank

00:18:50: gerade erst aufbauen und ich sehr gespannt bin, wo wir in ein, zwei Jahren stehen, wenn wir Hunderte von Patienten haben, Datensätze haben. Und es ist ja auch so, dass hier durch NeuroCure

00:19:03:

00:19:04: Projekte gefördert werden, wo es auch um Big Data Ansätze geht, also wo wir z.B. in der REPOSE-Studie, das ist eine Registerstudie für Psychosekranke,

00:19:15: Daten erheben, auch EEG-Daten,

00:19:18: und dann später versuchen herauszufinden, was für biologische Substrate hinter einzelnen Symptomen einer Psychose stecken.

00:19:28: Und die Patienten und Patientinnen, wollen die gerne bei solchen

00:19:33: Experimenten, bei solcher Forschung mitmachen, weil sie sich erhoffen, dass sie dann auch irgendwann davon profitieren können oder ist es schwierig? Es ist so, dass es sehr uneinheitlich ist. Die Patienten, die zu mir kommen, wegen Depressionen, die sind sofort dabei.

00:19:47: Patienten, die jetzt hier wegen einer Psychose an die Charité kommen, die sind erstmal etwas misstrauisch, vor allem wenn es darum geht, dass Daten gespeichert werden und in Verbindung gebracht werden und so weiter.

00:19:59: Das sind Herausforderungen, denen wir uns natürlich auch stellen müssen.

00:20:04: Wie kriegen wir es hin, dass die Bereitschaft Daten zu Spenden für die Forschung zunimmt.

00:20:12: Das ist auch eine große Herausforderung, die auch in meiner Arbeitsgruppe adressiert wird.

00:20:17: Ihr habt ja dann immer von einer Person die Daten und die analysiert ihr und da versucht dieses Problem zu lösen. Ist es so, dass das bei manchen Personen gut funktioniert und bei anderen nicht?

00:20:30: Das man z.B. so ein Exoskelett oder auch ein anderes Modell trainieren kann? Interessanterweise ist es so: in der Literatur wird beschrieben, dass etwa 10 Prozent BCI-Illiteraten sind. Das heißt, bei denen kann man

00:20:42: diese charakteristischen Veränderungen nicht gut klassifizieren.

00:20:47: Es gibt mittlerweile aber wirklich ganz viele Strategien, um das zu reduzieren, die Anzahl der Illiteraten.

00:20:56: Ich muss sagen, bei uns ist es so, dass wir eine

00:21:00: sehr hohe Quote an Usern, also erfolgreichen Usern, haben, weil es auch so ist, dass

00:21:07: wenn man es schafft, eine etwa 65- bis 70-prozentige Klassifikation hinzubekommen, dass dann eben auch operante Konditionierungsprozesse eine Rolle spielen und die Leute mit der Zeit immer besser werden. Die sind am Anfang einfach nicht so gut, aber

00:21:22: überzufällig funktioniert das Auslesen richtig

00:21:27: und das führt dann zu einer operanten Konditionierung und dann werden sie immer besser und immer besser. Es kann sein, dass Leute bei ihrer ersten Sitzung 65% - 70% schaffen und dann so in der dritten Sitzung schon bei 90%

00:21:39: liegen, weil das Gehirn sich auch an die Schnittstelle gewöhnt. Zur Klassifikationsgenauigkeit:

00:21:46: Geht es hier um eine binäre Klassifikation oder eine Multi-Klassifikation oder je nachdem? 90% bei einer Multi-Klassifikation mit vielen Sätzen wäre...

00:21:56: wäre natürlich super. Man muss das wirklich immer sehr genau angucken.

00:22:01: Wenn wir Exoskelette einsetzen, im Alltag, sprechen wir über binäre Klassifikation: Hand auf, Hand zu.

00:22:10: Aber da eben wieder im Alltag, das heißt unter Bewegung. Man stellt sich eine Schlaganfallpatientin vor, die in der Küche steht. Das sind andere Bedingungen als jetzt z.B. einer, der mit ALS im Rollstuhl sitzt, sich nicht bewegt und

00:22:24: einen ganz anderen Kontext hat.

00:22:27: Das muss man sich natürlich bei diesen Arbeiten immer genau angucken: in welchem Kontext findet das statt, welche Signale haben wir da und was sind eigentlich die Rahmenbedingungen für die Klassifikation.

00:22:37: Du hast jetzt schon ziemlich viele Herausforderung angesprochen. Was ist so die Größte, was ist so das Schwierigste?

00:22:43: Ich muss sagen, ich bin wirklich sehr zufrieden, dass wir einige wirklich wichtige Meilensteine erreicht haben, jetzt auf dem Weg dahin.

00:22:52: Ich habe durch meinen ERC grant (European Research Council) sehr viel Bewegungsfreiheit bekommen, um diese Methoden jetzt zu implementieren.

00:23:00: Das ist extrem wichtig gewesen, einfach die Zeit zu haben und auch ein bisschen Dinge ausprobieren zu können,

00:23:07: ohne den kurzfristigen Druck zu haben, wie er in vielen anderen Förderinstrumenten da ist.

00:23:16: Wir sind jetzt an der Stelle, wo es darum geht, diesen Transfer von Kommunikation und Bewegung hin zu psychischen Erkrankung zu machen.

00:23:27: Das wird jetzt noch mal wirklich eine spannende Aufgabe. Ich habe ja vorhin schon erwähnt: ein großes Problem ist Zusammenhänge herzustellen und zwar kausale Zusammenhänge.

00:23:39: Wir haben ein psychisches Symptom, wir haben zugrundeliegende Hirnfunktionen, die möglicherweise gestört sind und diesen

00:23:47: Gehirnfunktionen liegen widerum gewisse Gehirnzustände und eine gewisse Dynamik von Hirnzuständen zugrunde. Und diese Kette aufzuschlüsseln,

00:23:58: bei diesen ganz heterogenen psychischen Erkrankung, ist eine extreme Herausforderung. Jetzt ist eigentlich unser Ziel erst einmal eine Art

00:24:08: Best Practice

00:24:10: Ansatz zu entwickeln, wo wir sagen können, unsere Neuromodulation, die als closed-loop System eingesetzt wird, das heißt wir detektieren brain states in Echtzeit, klassifizieren die

00:24:21: und modulieren das Gehirn in einer bestimmten Art, sodass Symptome substanziell reduziert werden können.

00:24:30: Das wäre sozusagen jetzt der nächste Schritt in meiner Arbeitsgruppe und da arbeiten wir natürlich mit Hochdruck dran, dass wir das auch bald schaffen können.

00:24:39: Noch eine kurze Frage: Symptom, was ist das? Sowas wie Anhedonie, wäre das ein Symptom? Da sind wir genau bei der großen Herausforderungen, vor der wir stehen. Als Kliniker ist es so,

00:24:53: du hast einen Patienten und es gibt Symptome, die kann man von außen wahrnehmen und es gibt Symptome die müssen berichtet werden. Es ist wirklich extrem schwierig und anspruchsvoll

00:25:05: Symptome richtig

00:25:08: festzustellen. Da gibt's dann so Operationalisierungen, wie man das machen kann: Da gibt's das sogenannte INTP Rating, die Psychopathologie oder einen psychischen Befund, wie man da vorgeht.

00:25:21: Es ist aber so, dass wir immer darauf angewiesen sind, was berichtet der Patient, also sein Erleben

00:25:27: und das, was wir wahrnehmen können vom Patienten.

00:25:31: Das kann die Sprache sein, das kann sein Verhalten sein, das können Charakteristika in der Interaktion sein.

00:25:41: Daraus, oder sagen wir mal, in dieser Sphäre findet man dann Symptome. Bei Anhedonie z.B.

00:25:48: würde ich sagen: ja, hast du weniger Lust auf Dinge, die dir vor Spaß gemacht haben? Dann sagst du, ich habe überhaupt gar keine Lust. Dann wäre jetzt für mich natürlich die Frage: kann ich das belegen, gibt es Belege dafür?

00:26:02: Und dann versucht man Belege dafür zu finden, also z.b. Angehörige zu fragen oder genauer zu fragen, was haben Sie denn früher gemacht und was machen sie jetzt.

00:26:12: Wenn das alles glaubwürdig ist, dann würde ich sagen, jetzt sind die Kriterien für das Symptom Anhedonie erfüllt.

00:26:18: Da sieht man, wie schwierig das ist, ein Symptom nicht nur festzustellen, also ja nein, sondern auch festzustellen, wie stark ist es denn ausgeprägt:

00:26:28: habe ich heute ein bisschen weniger Anhedonie als gestern? Es ist extrem anspruchsvoll, sich damit zu beschäftigen,

00:26:35: aber ich glaube, dass wir durch digitale Werkzeuge, die uns erlauben, viel mehr Daten zu berücksichtigen, bei der Einschätzung von Symptomen, dass wir auf diese Daten zurückgreifen können

00:26:46: und dadurch natürlich ein viel besseres Bild bekommen, von einem Verlauf eines Symptoms z.B.

Über diesen Podcast

In der Podcastreihe "Dr. med. KI" von Charité und KI-Campus geht es um den Einsatz von Künstlicher Intelligenz (KI) in Medizin und Gesundheitswesen. Von grundlegenden technischen Funktionsweisen über Diagnosemethoden bis hin zur personalisierten Behandlung wird erkundet, wie KI die medizinische Landschaft verändert. In Gesprächen mit Expert:innen, Ärzt:innen und Technologiepionieren wird in Themen wie Maschinelles Lernen, medizinische Bildgebung, Datenanalyse und Ethik eingetaucht. Begleite uns auf dieser Reise, um zu verstehen, wie KI nicht nur die Präzision der Medizin verbessert, sondern auch die Art und Weise, wie wir für unsere Gesundheit sorgen, grundlegend transformiert.

Wer mehr über KI erfahren möchte, findet auf dem KI-Campus – Der Lernplattform für Künstliche Intelligenz spannende Lernangebote in unterschiedlichen Themenfeldern.

www.ki-campus.org

von und mit KI-Campus

Abonnieren

Follow us