Dr. med. KI - Künstliche Intelligenz in der Medizin

Dr. med. KI - Künstliche Intelligenz in der Medizin

Transkript

Zurück zur Episode

00:00:04: Hallo hier ist wieder Mike von KI-Campus ich freue mich heute über das Thema Maschinelles Lernen zu sprechen und habe hierzu wieder Kerstin bei mir zu Gast Hi Kerstin.

00:00:16: Hi Maik wir sprachen in den letzten Folgen viel über data science und Daten im allgemeinen wir haben unterschieden zwischen strukturierten und unstrukturierten Daten und auch verschiedenen Datentypen.

00:00:31: Daher meine erste Frage an dich Kerstin angenommen wir haben nun genug Daten können wir dann gleich damit beginnen ein machine learning Modell zu trainieren.

00:00:41: Nee im Allgemeinen nicht weil die Daten häufig nicht in der Form vorliegen so dass man sie direkt in einen Maschinelles Lernen Modell stecken kann man spricht dann auch vom data cleaning also meistens hat man ja Tipptabellen vorlegen.

00:00:53: Und dann muss man sich ganz genau angucken wie sind denn z.b. die einzelnen Features codiert und wenn ja z.b. die Größe mal in Zentimetern und mal in Metern

00:01:01: angegeben wird ist das ein Problem für für jede statistische Analyse.

00:01:06: Und die muss man sich erst mal genau angucken sind die liegen die Daten eigentlich im richtigen Format vor gibt es fehlende Daten wie viele Daten fehlen wie kann man die Daten ersetzen als es wird auch häufig ganz unterschiedlich gehandhabt

00:01:18: manchmal kodiert man fehlende Werte mit -4 Männchen.

00:01:23: 9999 am besten finden wenn man das dann wirklich benutzen will es wenn man man nimmt also note number this is in eine extra Codierung die man in der Programmierung benutzt

00:01:35: aber auch andere also wenn man jetzt Muschibilder hat muss man die auf eine bestimmte Art des

00:01:40: art for prozessieren hat man muss die Intensität skalieren und bei MRT Bildern des Gehirns muss man sich z.b. auf eine Template transformieren also das hängt sehr sehr stark davon ab was von month

00:01:51: also Daten man hat und ansonsten würde ich halt auch immer empfehlen dass man sich erstmal ein bisschen explorativ die Daten noch angeguckt ne was für Daten haben wir eigentlich wie viele Personen wie.

00:02:02: Features wie viele Daten fehlen wie sind die Daten skaliert wie sind sie verteilt was sind Mittelwerte und so weiter dass man erstmal so ein Gefühl für die daten kriegt

00:02:11: bevor man dann wirklich anfängt ein Maschinelles Lernen Modell zu trainieren dazu vielleicht eine Frage welche welche Fehler können denn aus unbereinigte Noda in korrekten Daten resultieren.

00:02:21: Ja da kann der kann relativ viel passieren also man jetzt z.b. mal in Zentimetern mal in Metern die Größe angibt und dann den Mittelwert berechnet dann ist es das natürlich kein aussagekräftiger

00:02:33: wer hat dann kann man nicht sagen dass der Mittelwert dann in Zentimetern oder Metern angegeben wird dann ist das irgendwie so ein Mischwert

00:02:41: na also das ist also das ist super essentiell dass die Daten so genau und standardisiert wie möglich vor

00:02:48: wegen dieses Problem hat man auch in einer anderen Bereichen also auch wenn man z.b. bestimmte Krankheiten kodieren will und aber immer irgendwie einen anderen Begriff dafür benutzt

00:02:59: dann dann dann kann der Computer damit nicht umgehen oder wenn man genau also Freitext ist z.b. auch so ein Thema wenn man Freitext Symptome hat

00:03:08: und dann bei dem einen Bauchschmerzen schreibt bei dem anderen Krämpfe schreibt und so weiter dann ist dass das ist eine Information damit können bestimmte maschinelle Lernalgorithmen umgehen aber es macht es wesentlich schwieriger

00:03:22: sind die auch noch zusätzlich versuchen sollen Text zu verstehen.

00:03:26: Okay und angenommen wir haben dann unsere bereinigten Daten können wir dann beginnen maschinelles Lernmodell zu trainieren.

00:03:35: Genau wenn wir nicht gute Datengrundlage haben dann kann man im Prinzip anfangen ein Maschinelles Lernen Modell zu trainieren muss ich immer am Anfang fragen.

00:03:44: Was ist eigentlich die Fragestellung also was wollen wir erreichen das kann z.b. sein dass man zwischen kranken und gesunden anhand von Bildern

00:03:53: unterscheiden möchte also ein Beispiel wäre Hautkrebs man hat

00:03:58: Bilder von Muttermalen die zum Teil die gutartig sind und zum Teil auch

00:04:04: bösartig sind und man möchte dann ein Algorithmus trainieren der zwischen diesen Bildern unterscheiden kann also der dann völlig neue Bilder also für neue Patienten oder für neue.

00:04:14: Von Muttermalen sagen kann dass es jetzt ein gutartiger ein gutartiges oder ein bösartiges.

00:04:21: Muttermal und du hast jetzt schon konkrete Beispiele genannt vielleicht können wir noch mal einen kurzen Schritt zurückgehen und eine kleine Definition.

00:04:29: Von von dem machen was Maschinelles Lernen eigentlich ist.

00:04:34: Bzw noch mal in bezug auf eine frühe Folge wie sich Maschinelles Lernen als ein

00:04:41: spezifisches fällt der KI darstellen ja genau also genau wie du gerade schon gesagt hast ist Maschinelles lernen eben ein Teilgebiet der Calle Calle sein großes Teilgebiet erstmal der Informatik.

00:04:55: Der ist am Anfang viel auch im regelbasiertes lernen gegen also das heißt.

00:04:59: Jemand definiert bestimmt die Regeln gibt diese Regeln an den Computer und der Computer hält sich dann an diese Regeln um eine bestimmte.

00:05:07: Entscheidung zu treffen und Maschinelles Lernen das eben nun ein Teilgebiet.

00:05:13: Der KID Informatik in dem bestimmte Algorithmen selbstständig anhand von.

00:05:20: Bildern oder anhand von Daten lernen also z.b. eben.

00:05:27: Bilder von Hunden und Bilder von Katzen und dann soll der Algorithmus zwischen diesen Bildern unterscheiden das kann man eigentlich auf jede beliebige Fragestellung.

00:05:35: Anwenden ja Kerstin um auf dein Beispiel zurückzukommen die Entscheidung die im Rahmen des maschinellen Lernens die die KI treffen muss Hund oder Katze ist ja eine

00:05:46: binäres Entscheidungsmodell kann.

00:05:49: Man im Rahmen des maschinellen Lernens auch komplexere Unterscheidungen treffen wie verschiedene Vogelarten beispielsweise.

00:05:57: Ja ganz genau man kann das beliebig Komplex Gestalten natürlich wird es immer schwieriger je mehr Kategorien man unterscheiden möchte man spricht dann auch von Multi Klassifikation und Galen diesen großen.

00:06:12: Imagenet

00:06:13: schade und das sind so große maschinelle lernen challenges geht es genau darum eben z.b. um die 1.000 Kategorien anhand von beliebigen Google Bildern zu erkennen aber es gibt auch viele weitere Anwendungen wie z.b. dass man unterschiedliche Räume

00:06:29: erkennen dass ob etwas ein Wohnzimmer ist oder ein Schlafzimmer oder auch

00:06:35: Bilder von der Erde wo wo man sich gerade befindet wäre so ein anderes Problem.

00:06:41: Na was hier immer das gleiche ist ist dass man quasi eine einer feste also dass man unterschiedliche Kategorien hat ne dass die also das eine ist eben Wohnzimmer das andere Schlafzimmer und so weiter es gibt aber noch eine andere

00:06:55: Form von Problem die man lösen kann mit maschinellen lernen das sind regressionsproblem hier liegt die Zielvariable kontinuierlich

00:07:03: vor das kann z.b. sein.

00:07:07: Die Symptome schwere also man jetzt ein Beispiel und dann z.b. dass die wuecampus Volumen das ist sein ein kleiner Bereich

00:07:14: eine bestimmte Struktur im Gehirn und die ist sehr wichtig für die Erkennung von der Alzheimer Erkrankung und man kann jetzt dieses Hippocampus Volumen z.b. nehmen um zwischen Patient mit Alzheimer und gesund Kontrollen zu unterscheiden dass wir ein binäres klassifikationsproblem

00:07:29: oder man kann dieses über Campus Volumen benutzen um die kognitive Beeinträchtigung bei den einzelnen Personen.

00:07:36: Vorherzusagen das wäre dann ein regressionsproblem aber bei all diesen Dingen braucht

00:07:42: das immer eine Zielvariable die genannt werden muss richtig ja genau und das ist eben ein Spezialfall hier nämlich.

00:07:50: Überwachtes lernen also im englischen würde man supervised learning nennen das heißt man gibt also vor was der Algorithmus eigentlich lernen soll indem man sagt er soll zwischen gutartig und bösartig unterscheiden oder zwischen unterschiedlichen

00:08:04: Rauma.

00:08:06: Eine andere Möglichkeit ist unüberwachtes lernen an supervised learning hier hätte man z.b. nur die Bilder also z.b. nur die Bilder von Muttermalen.

00:08:15: Und dann soll der versuchen bestimmt soll der Rhythmus versuchen bestimmte Strub

00:08:19: Touren in den Daten zu finden und es könnte z.b. sein dass dann der Algorithmus trotzdem die Bilder clustered in gutartige und

00:08:28: bösartige Muttermale ja wir hatten im Rahmen seines bereits darüber gesprochen es gibt gute und schlechte Taten gibt es auch ein gutes oder schlechtes machine-learning Modell

00:08:41: könntest du vielleicht ein Beispiel für ein gutes nennen

00:08:44: ja genau das ist eigentlich quasi das Wichtigste also muss natürlich wenn man so einen Maschinelles Lernen Modell trainiert muss man dann entscheiden kann ob es eigentlich ein gutes Modell war oder nicht

00:08:54: und man gibt das mit unterschiedlichen evaluations Metriken an die die am einfachsten und auch erstmal am häufigsten benutzt wird ist die klassifikations Genauigkeit

00:09:03: wie viele von den Beispielen wurden denn jetzt eigentlich richtig klassifiziert und wenn ein klassifikations Algorithmus z.b. eine 95 prozentige Trefferquote zeigt er sind 95% der Fälle richtig entscheidet ist das natürlich ein besseres Modell als ein anderes Modell was vielleicht nur in 60.

00:09:23: Prozent der Fälle richtig liegt okay also die.

00:09:27: Klassifikation Genauigkeit ist ein zentrales Merkmal für ein gutes machine learning Modell.

00:09:33: Genau das ist erstmal so I was man sich angucken kann und dann kann man sich natürlich auch noch genauer anschauen und dann gib zu mir spiel Sensitivität das wäre die Anzahl

00:09:43: der Kranken die auch als krank klassifiziert worden sind oder die Spezifität das wäre die anzahl der gesunden die auch als gesund erkannt worden wären

00:09:54: das wären jetzt das wären alles auch erstmal über Lotion Metriken die für die Klassifikation wichtig sind

00:10:00: für die Regression wo man ja versucht einen kontinuierlichen Marker vorherzusagen schaut man sich andere Marke an hier z.b. den mean squared error ihr schaut man sich den Abstand

00:10:10: zwischen dem vorhergesagten und dem tatsächlichen Wert an und quadrierte hast und so mir das über die unterschiedlichen Datenpunkte auf und kriegt dann eben auch ein Maß dafür wie gut der klassifikations Algorithmus eigentlich war.

00:10:25: Ja wie berechnet man denn eigentlich Sensitivität und Spezifität.

00:10:30: Ja man nimmt sich hier häufig die sogenannte konfusionsmatrix zur Hilfe das ist wenn man jetzt binäre Labels hat ist das eine vierfeldertafel man hat das tatsächliche Label und das vorhergesagte Label und guck dann inwieweit diese Labels übereinstimmen

00:10:50: also wenn man z.b. jetzt die Labels hatte krank und gesund und würde für eine Person die.

00:10:58: Die krank ist auch vorher sagen dass sie krank ist dann wäre das ein Schuh positiv weil das wird dann so gezählt als to pawsitive

00:11:07: wenn jetzt einer Person gesund ist und auch es wird auch vorher gesagt dass diese Person gesund ist dann wäre das ein zu negativ Fall und wenn man.

00:11:17: Dann das wären jetzt gerade die richtigen Fälle also Bus kongruent ist Nervus übereinstimmen das tatsächliche und das vorhergesagte Label man hat dann aber auch noch die Fälle wo es eben nicht übereinstimmen

00:11:28: wo man z.b. vorher sagt dass jemand krank ist obwohl er eigentlich gesund ist.

00:11:34: Das wäre dann ein Falls positiv oder umgekehrt man sagt vorher dass jemand

00:11:40: krank ist obwohl er gesund ist das wäre dann ein falls negativ angesprochen von zwei Labels entweder krank und gesund was mich als

00:11:50: nicht Mediziner jetzt interessieren würde gibt es da nicht auch möglicherweise graduelle

00:11:55: Abstufungen die man die sich dann auch in das machine learning Modell übertragen lassen wie beispielsweise eine leichte Erkrankung eine mittelschwere und eine schwere Erkrankung

00:12:04: ja ganz genau das kommt eben genau darauf an was für ein Problem oder was für eine Aufgabe man eigentlich lösen will.

00:12:11: Also der Medizin das ist oft so dass man für bestimmte Erkrankungen gibt es ja diagnostische guidelines und nachdem gehen die Ärzte vor.

00:12:19: Z.b. bei Multipler Sklerose müssen bestimmte Sachen vorliegen ne bestimmte Anzahl von Visionen das müssen klinische Symptome sein

00:12:26: und dann wird eben die Diagnose MS z.b. gemacht

00:12:29: jetzt kann man sich überlegen dass man eben ein Maschinelles Lernen Modell trainiert um zwischen Patienten mit MS und gesunden Kontrollen zu unterscheiden und dann kann man sich halt im nächsten Schritt auch angucken was für eine Form von Demenz haben Sie eigentlich oder wie schwer sind sie betroffen oder ein anderes Beispiel wäre auch Depressionen wo man eben

00:12:47: schwerer Mittel gerade oder auch leichte Depressionen hat

00:12:52: und das kann man natürlich auch in so ein maschinelles Lernen Modell aufnehmen es hängt immer davon ab was für Informationen hat man eigentlich.

00:13:00: Und was ist das Ziel von dem Algorithmus kann ja auch erstmal das Ziel sein wirklich nur zwischen

00:13:08: Patient mit Depressionen und gesunden Kontrollen zu unterscheiden aber man kann das natürlich auch beliebig Komplex waren also z.b. eine wirklich klinisch relevante Fragestellung wäre

00:13:17: am Anfang vorherzusagen für die Patienten mit Depressionen ob sie von einer bestimmten Art der Therapie z.b. Verhaltenstherapie profitieren werden oder nicht

00:13:27: ja du hast ja jetzt das den Aspekt des Vorhersagen es angesprochen da stellt sich mir natürlich die Frage wie.

00:13:36: Können neue Daten klassifiziert werden also nicht der Anwendungsfall die Daten die

00:13:42: bereits Vorlagen weil ein zentrales Ziel von machine learning soll ja sein dass es auf neue Beispiele angewendet werden kann wie kann das gemacht werden genau das ist quasi das Wichtigste an den Maschinen Lernmodell dass man möchte nicht nur dass sie auf den Trainingsdaten wo man das Modell trainiert hat eben gut sind sondern man möchte vor allen Dingen dass sie auf anderen auf neuen auf Testdaten gut funktionieren weil man möchte ja man soll Modell gelernt hat

00:14:07: dannzumal Spiel für neue Patienten eine bestimmte Erkrankungen erkennen

00:14:13: und man macht das eben in der Regel immer so also man hat z.b. einen Datensatz für den man die ganzen Informationen hat und wenn man jetzt in Maschinelles Lernen Modell.

00:14:24: Trainieren an aufsetzen muss dann teilt man die Daten ein also man muss immer so sagen wir mal so zehn bis 20% der Daten

00:14:35: nehmen gegebenenfalls auch weniger kommt immer drauf an wie viele Daten und zur Verfügung hat und.

00:14:40: Schließt diese Daten erstmal weg also das sind die kompletten Test holt Daten als die rührt man sich rührt man nicht an ne

00:14:47: und auf den restlichen Daten sagen wir jetzt mal 80 %.

00:14:51: Kann man eben die kann man noch mal unter noch mal unterteilen also zu mir spinnt redings und validierungsdaten es gibt auch

00:14:58: bestimmte Schemata nach denen man die Daten einteilen kann das wäre zum Spinne Kreuzvalidierung da wechselt man immer zwischen den Trainings und Testdaten in diesem Trainingsdatensatz um zu gucken wie gut eigentlich das Modell

00:15:13: und auf den Trainingsdaten guckt man erst mal welche klassifikations Algorithmus funktioniert eigentlich gut wie muss man bestimmte hyperparameter ein

00:15:22: stell ne also bestimmt da die Algorithmen die haben bestimmte Parameter durch die sich auch beschrieben werden die kann man eben dadurch schätzen und dann erst ganz am Ende wenn man gutes Modell hat dann.

00:15:37: Wendet man das auf die Testat Daten an und guckt

00:15:40: wie gut dass es würde man jetzt die Tester hatten schon vorher in das Modell rein nehmen dann würde das Modell ja schon Informationen von den Testdaten hätte und dann könnte man nicht wirklich gut die generalisierungsfähigkeit.

00:15:52: Einschätzen ja in diesem Kontext gibt es den Begriff des sogenannten overfitting.

00:16:00: Kerstin kannst du uns sagen was das genau ist

00:16:03: ja das ist das was man vermeiden möchte overfitting bedeutet dass man ein zu komplexes Modell an die Trainingsdaten anpasst.

00:16:12: Was dann nicht gut auf die Testdaten generalisiert man kann sich dass du mir so vorstellen dass man eine sehr komplexe Funktionen anlegt und dann aber wenn man dann sich die Testdaten anguckt dann nicht wirklich das Wesentliche an den Daten gelernt worden ist und daneben

00:16:30: nicht gut regularisiert.

00:16:32: Ja könntest du vielleicht noch mal ein etwas anschauliches Beispiel nennen was worum es sich bei overfitting genau handelt.

00:16:42: Ja so wie man sich das ziemlich genau vorstellt dass man hatten Koordinatensystemen.

00:16:46: Dann hat man zwei Variablen X und Y und dann hat man bestimmte Datenpunkte die durch diese beiden Variablen beschrieben werden also.

00:16:58: Größe und Gewicht z.b. und dann hat man unterschiedliche na dann hat man für jede Person quasi eine Daten. Der durch du bestimmte Größe und Gewicht

00:17:08: beschrieben wird und dann könnte eine klassifikations Aufgabe sein dass man Kinder und Erwachsene z.b. klassifizieren möchte was jetzt im Gala tief einfaches klassifikationsproblem ist

00:17:18: dann ist halt immer die Frage wenn man jetzt so so Punkte hat die eine unterschiedliche Farbe haben für die unterschiedlichen Kategorien ob man da jetzt möchte eine Leni

00:17:28: lineare gerade durch liegt oder eine eine quadratische Funktion oder eine beliebige.

00:17:34: Komplexe Funktionen die dann quasi genau die die Punkte voneinander trennt.

00:17:40: Man kann dann meistens sagen dass diese Funktion die ganz komplex ist die super auf den Trainingsdaten funktioniert und zu einer hundertprozentigen klassifikations Genauigkeiten auf dem Training starten.

00:17:51: Das dann nicht generell isiert auf die Testdaten sondern dass hier dann der Fehler wieder höher wird und das versucht man eben zu vermeiden wie lässt sich das vermeiden.

00:18:01: Indem man ihm Daten in Trainings und Testdaten

00:18:05: einteilt oder auch doch vorher ein validierungsdaten und eben auch guck wie ist denn jetzt die klassifikations Genauigkeit auf die validierungsdaten erstmal bei die Testdaten soll man sich ja erstmal nicht anschauen ne wenn jetzt das Modell der Wut auf dem Training starten

00:18:19: funktioniert aber immer nicht gut generell isiert auf den validierungsdaten dann

00:18:25: kann das eben sein dass dass das Modell overfitted und dann gibt es auch verschiedene Möglichkeiten wie man damit umgehen kann man spricht dann von Regularisierung.

00:18:35: Okay aber die.

00:18:36: Das Entscheidende ist tatsächlich diese Einteilung in Trainings validierungs und Testdaten genau also das muss man eben immer machen also das ist.

00:18:45: Alles ja jetzt im Moment auch auf dem wissenschaftlichen Studien erstmal darum geht wie gut kann ich eigentlich ein Modell trainieren wie gut funktioniert es ein ihr das geht gar nicht noch nicht gar nicht um den Schritt.

00:18:54: Dass man das wirklich irgendwo anders anwenden möchte

00:18:57: sondern erstmal zu gucken wie gut kann ich denn jetzt zwischen bestimmten Erkrankungen und anderen Erkrankungen unterscheiden deswegen braucht man eben einen vollen Datensatz und da muss man wirklich aufpassen dass am Anfang dass man

00:19:10: daten rausnimmt

00:19:11: und nur auf den anderen trainiert und das wird dann eben auch schwieriger wenn man z.b. Daten von unterschiedlichen Krankenhäusern zusammen nimmt die dann wieder unterschiedlich charakterisiert sind

00:19:20: wo ist nicht so einfach ist jetzt alle in einem Maschinelles Lernen Modell einzuwerfen da muss man sich immer angucken.

00:19:26: Wenn wir jetzt auf den Daten von einem Krankenhaus trainieren wie gut generalisiertes eigentlich zu einem anderen Krankenhaus also kann der wird nur auf den eigenen Daten klassifizieren oder auch auf anderen.

00:19:35: Und über diese Dinge wie man die Daten einschalten Fasten im rotes Validierung Schema ist da muss man sich frühzeitig

00:19:43: Gedanken, ja das klingt alles sehr challenging wir haben auch schon darüber gesprochen über challenges im Bereich machine learning gibt es das auch konkret in der Medizin.

00:19:54: Ja da gibt es immer mehr challenges und es ist auch eine wirklich sehr sehr gute Möglichkeit um sicherzustellen dass.

00:20:03: Trainings und Testdaten getrennt werden weil wenn man nativ in Wissenschaftler jetzt den ganzen Datensatz vorliegen hat ne ist immer die Frage wann hat er denn jetzt eigentlich die Einteilung und die Trainings und Testdaten machine learning challenges ist so

00:20:17: das Trainingsdaten mit den Labels

00:20:21: zur Verfügung gestellt werden die sind meistens öffentlich da kann jeder dran teilnehmen also bestimmte Teams aus unterschiedlichen Bereichen der Welt die trainieren dann ihre Modell auf diesem Trainingsdaten mit Labels nur gucken was könnte gutes Modell sein haben dann ein finales Modell und das wenden Sie dann an auf die Test

00:20:40: Daten an aber hier haben sie ihm nicht die Labels ne sondern die Labels werden gerade zurückgehalten und die Organisatoren die werden dann halt später aus.

00:20:48: Welches von diesen vielen Modellen die eingereicht worden sind war denn jetzt nun eigentlich das beste.

00:20:54: Das hat sie mir auch zu diesem Durchbruch geführt von Deep learning im Bereich der Bilderkennung das ist diese sogenannte imagenet Challenge wo dann plötzlich die klassifikations Genauigkeiten viel viel besser waren deep learning Algorithmen

00:21:07: benutzt worden es und im Bereich Medizin gibt z.b. challenges zum Thema Läsion Segmentierung

00:21:16: Tumorklassifikation oder wir haben z.b. vor einiger Zeit bei einer Challenge mitgenommen mitgemacht wo es darum ging Patienten mit Depressionen von gesunden Kontrollen zu unterscheiden.

00:21:29: Und das Schöne bei den Challenger soft dass man halt.

00:21:33: Wirklich große Datensätze auch zur Verfügung gestellt bekommt um diese Aufgabe zu lösen man kann man dann wirklich gucken.

00:21:41: Wie gut sind einzelne klassifikationsalgorithmen und auch wie gut lässt sich dann überhaupt eine bestimmte Aufgabe lösen zugespitzt ziemlich schwierig Depression anhand von gehirnschnitt Bildern zu

00:21:50: zuverlässig zu erkennen.

00:21:53: Könntest du vielleicht auch mal einen ja einen zeitlichen Horizont nennen wie lange dauert es einen machine learning Modell in dieser Richtung zu trainieren.

00:22:04: Ja das kommt wieder ganz drauf an wie komplex und was für eine Aufgabe man hat und auch was für Daten die Grundlage sind wenn man jetzt angenommen hätte jetzt einer Tabelle

00:22:15: Runde also wünsche same mal 1000 Personen na das wären dann die einzelnen Zeilen und 104 dass die da beschrieben werden sind.

00:22:25: Da kann man ziemlich schnell einen Algorithmus auch wenn er muss es natürlich erstmal programmieren und was die Trainings sind es Daten aufteilen aber die eigentliche Rechenzeit ist da relativ gering.

00:22:36: Wenn man jetzt aber natürlich MRT-Bilder verarbeitet die sehr sehr hochdimensional sind

00:22:42: und dann auch noch bestimmte Algorithmen benutzt dass es fallenden deep learning Algorithmen mit mehreren layers dann sind das schon Sachen die dann auch länger.

00:22:52: Dauern kann die dann auch schon mal einen Tag laufen und natürlich muss man dann auch muss man irgendwie

00:22:59: muss man viel testen also das ist schon insgesamt kann das schon eben einen längerer Prozess sein dass man dann auch ein gutes Maschinelles Lernen Modell hat

00:23:08: ja das war's für heute schon unser unserer

00:23:12: unseren Einstieg in das maschinelle lernen haben wir geschafft damit geht es auch unter anderem in der nächsten Folge weiter ich möchte mich wieder herzlich bei

00:23:24: Kerstin Ritter bedanken und sage Tschüss bis zum nächsten Mal tschüss vielen Dank.

Über diesen Podcast

In der Podcastreihe "Dr. med. KI" von Charité und KI-Campus geht es um den Einsatz von Künstlicher Intelligenz (KI) in Medizin und Gesundheitswesen. Von grundlegenden technischen Funktionsweisen über Diagnosemethoden bis hin zur personalisierten Behandlung wird erkundet, wie KI die medizinische Landschaft verändert. In Gesprächen mit Expert:innen, Ärzt:innen und Technologiepionieren wird in Themen wie Maschinelles Lernen, medizinische Bildgebung, Datenanalyse und Ethik eingetaucht. Begleite uns auf dieser Reise, um zu verstehen, wie KI nicht nur die Präzision der Medizin verbessert, sondern auch die Art und Weise, wie wir für unsere Gesundheit sorgen, grundlegend transformiert.

Wer mehr über KI erfahren möchte, findet auf dem KI-Campus – Der Lernplattform für Künstliche Intelligenz spannende Lernangebote in unterschiedlichen Themenfeldern.

www.ki-campus.org

von und mit KI-Campus

Abonnieren

Follow us