00:00:04: Hallo hier ist wieder Mike von KI-Campus ich freue mich heute über das Thema Maschinelles Lernen zu sprechen und habe hierzu wieder Kerstin bei mir zu Gast Hi Kerstin.
00:00:16: Hi Maik wir sprachen in den letzten Folgen viel über data science und Daten im allgemeinen wir haben unterschieden zwischen strukturierten und unstrukturierten Daten und auch verschiedenen Datentypen.
00:00:31: Daher meine erste Frage an dich Kerstin angenommen wir haben nun genug Daten können wir dann gleich damit beginnen ein machine learning Modell zu trainieren.
00:00:41: Nee im Allgemeinen nicht weil die Daten häufig nicht in der Form vorliegen so dass man sie direkt in einen Maschinelles Lernen Modell stecken kann man spricht dann auch vom data cleaning also meistens hat man ja Tipptabellen vorlegen.
00:00:53: Und dann muss man sich ganz genau angucken wie sind denn z.b. die einzelnen Features codiert und wenn ja z.b. die Größe mal in Zentimetern und mal in Metern
00:01:01: angegeben wird ist das ein Problem für für jede statistische Analyse.
00:01:06: Und die muss man sich erst mal genau angucken sind die liegen die Daten eigentlich im richtigen Format vor gibt es fehlende Daten wie viele Daten fehlen wie kann man die Daten ersetzen als es wird auch häufig ganz unterschiedlich gehandhabt
00:01:18: manchmal kodiert man fehlende Werte mit -4 Männchen.
00:01:23: 9999 am besten finden wenn man das dann wirklich benutzen will es wenn man man nimmt also note number this is in eine extra Codierung die man in der Programmierung benutzt
00:01:35: aber auch andere also wenn man jetzt Muschibilder hat muss man die auf eine bestimmte Art des
00:01:40: art for prozessieren hat man muss die Intensität skalieren und bei MRT Bildern des Gehirns muss man sich z.b. auf eine Template transformieren also das hängt sehr sehr stark davon ab was von month
00:01:51: also Daten man hat und ansonsten würde ich halt auch immer empfehlen dass man sich erstmal ein bisschen explorativ die Daten noch angeguckt ne was für Daten haben wir eigentlich wie viele Personen wie.
00:02:02: Features wie viele Daten fehlen wie sind die Daten skaliert wie sind sie verteilt was sind Mittelwerte und so weiter dass man erstmal so ein Gefühl für die daten kriegt
00:02:11: bevor man dann wirklich anfängt ein Maschinelles Lernen Modell zu trainieren dazu vielleicht eine Frage welche welche Fehler können denn aus unbereinigte Noda in korrekten Daten resultieren.
00:02:21: Ja da kann der kann relativ viel passieren also man jetzt z.b. mal in Zentimetern mal in Metern die Größe angibt und dann den Mittelwert berechnet dann ist es das natürlich kein aussagekräftiger
00:02:33: wer hat dann kann man nicht sagen dass der Mittelwert dann in Zentimetern oder Metern angegeben wird dann ist das irgendwie so ein Mischwert
00:02:41: na also das ist also das ist super essentiell dass die Daten so genau und standardisiert wie möglich vor
00:02:48: wegen dieses Problem hat man auch in einer anderen Bereichen also auch wenn man z.b. bestimmte Krankheiten kodieren will und aber immer irgendwie einen anderen Begriff dafür benutzt
00:02:59: dann dann dann kann der Computer damit nicht umgehen oder wenn man genau also Freitext ist z.b. auch so ein Thema wenn man Freitext Symptome hat
00:03:08: und dann bei dem einen Bauchschmerzen schreibt bei dem anderen Krämpfe schreibt und so weiter dann ist dass das ist eine Information damit können bestimmte maschinelle Lernalgorithmen umgehen aber es macht es wesentlich schwieriger
00:03:22: sind die auch noch zusätzlich versuchen sollen Text zu verstehen.
00:03:26: Okay und angenommen wir haben dann unsere bereinigten Daten können wir dann beginnen maschinelles Lernmodell zu trainieren.
00:03:35: Genau wenn wir nicht gute Datengrundlage haben dann kann man im Prinzip anfangen ein Maschinelles Lernen Modell zu trainieren muss ich immer am Anfang fragen.
00:03:44: Was ist eigentlich die Fragestellung also was wollen wir erreichen das kann z.b. sein dass man zwischen kranken und gesunden anhand von Bildern
00:03:53: unterscheiden möchte also ein Beispiel wäre Hautkrebs man hat
00:03:58: Bilder von Muttermalen die zum Teil die gutartig sind und zum Teil auch
00:04:04: bösartig sind und man möchte dann ein Algorithmus trainieren der zwischen diesen Bildern unterscheiden kann also der dann völlig neue Bilder also für neue Patienten oder für neue.
00:04:14: Von Muttermalen sagen kann dass es jetzt ein gutartiger ein gutartiges oder ein bösartiges.
00:04:21: Muttermal und du hast jetzt schon konkrete Beispiele genannt vielleicht können wir noch mal einen kurzen Schritt zurückgehen und eine kleine Definition.
00:04:29: Von von dem machen was Maschinelles Lernen eigentlich ist.
00:04:34: Bzw noch mal in bezug auf eine frühe Folge wie sich Maschinelles Lernen als ein
00:04:41: spezifisches fällt der KI darstellen ja genau also genau wie du gerade schon gesagt hast ist Maschinelles lernen eben ein Teilgebiet der Calle Calle sein großes Teilgebiet erstmal der Informatik.
00:04:55: Der ist am Anfang viel auch im regelbasiertes lernen gegen also das heißt.
00:04:59: Jemand definiert bestimmt die Regeln gibt diese Regeln an den Computer und der Computer hält sich dann an diese Regeln um eine bestimmte.
00:05:07: Entscheidung zu treffen und Maschinelles Lernen das eben nun ein Teilgebiet.
00:05:13: Der KID Informatik in dem bestimmte Algorithmen selbstständig anhand von.
00:05:20: Bildern oder anhand von Daten lernen also z.b. eben.
00:05:27: Bilder von Hunden und Bilder von Katzen und dann soll der Algorithmus zwischen diesen Bildern unterscheiden das kann man eigentlich auf jede beliebige Fragestellung.
00:05:35: Anwenden ja Kerstin um auf dein Beispiel zurückzukommen die Entscheidung die im Rahmen des maschinellen Lernens die die KI treffen muss Hund oder Katze ist ja eine
00:05:46: binäres Entscheidungsmodell kann.
00:05:49: Man im Rahmen des maschinellen Lernens auch komplexere Unterscheidungen treffen wie verschiedene Vogelarten beispielsweise.
00:05:57: Ja ganz genau man kann das beliebig Komplex Gestalten natürlich wird es immer schwieriger je mehr Kategorien man unterscheiden möchte man spricht dann auch von Multi Klassifikation und Galen diesen großen.
00:06:12: Imagenet
00:06:13: schade und das sind so große maschinelle lernen challenges geht es genau darum eben z.b. um die 1.000 Kategorien anhand von beliebigen Google Bildern zu erkennen aber es gibt auch viele weitere Anwendungen wie z.b. dass man unterschiedliche Räume
00:06:29: erkennen dass ob etwas ein Wohnzimmer ist oder ein Schlafzimmer oder auch
00:06:35: Bilder von der Erde wo wo man sich gerade befindet wäre so ein anderes Problem.
00:06:41: Na was hier immer das gleiche ist ist dass man quasi eine einer feste also dass man unterschiedliche Kategorien hat ne dass die also das eine ist eben Wohnzimmer das andere Schlafzimmer und so weiter es gibt aber noch eine andere
00:06:55: Form von Problem die man lösen kann mit maschinellen lernen das sind regressionsproblem hier liegt die Zielvariable kontinuierlich
00:07:03: vor das kann z.b. sein.
00:07:07: Die Symptome schwere also man jetzt ein Beispiel und dann z.b. dass die wuecampus Volumen das ist sein ein kleiner Bereich
00:07:14: eine bestimmte Struktur im Gehirn und die ist sehr wichtig für die Erkennung von der Alzheimer Erkrankung und man kann jetzt dieses Hippocampus Volumen z.b. nehmen um zwischen Patient mit Alzheimer und gesund Kontrollen zu unterscheiden dass wir ein binäres klassifikationsproblem
00:07:29: oder man kann dieses über Campus Volumen benutzen um die kognitive Beeinträchtigung bei den einzelnen Personen.
00:07:36: Vorherzusagen das wäre dann ein regressionsproblem aber bei all diesen Dingen braucht
00:07:42: das immer eine Zielvariable die genannt werden muss richtig ja genau und das ist eben ein Spezialfall hier nämlich.
00:07:50: Überwachtes lernen also im englischen würde man supervised learning nennen das heißt man gibt also vor was der Algorithmus eigentlich lernen soll indem man sagt er soll zwischen gutartig und bösartig unterscheiden oder zwischen unterschiedlichen
00:08:04: Rauma.
00:08:06: Eine andere Möglichkeit ist unüberwachtes lernen an supervised learning hier hätte man z.b. nur die Bilder also z.b. nur die Bilder von Muttermalen.
00:08:15: Und dann soll der versuchen bestimmt soll der Rhythmus versuchen bestimmte Strub
00:08:19: Touren in den Daten zu finden und es könnte z.b. sein dass dann der Algorithmus trotzdem die Bilder clustered in gutartige und
00:08:28: bösartige Muttermale ja wir hatten im Rahmen seines bereits darüber gesprochen es gibt gute und schlechte Taten gibt es auch ein gutes oder schlechtes machine-learning Modell
00:08:41: könntest du vielleicht ein Beispiel für ein gutes nennen
00:08:44: ja genau das ist eigentlich quasi das Wichtigste also muss natürlich wenn man so einen Maschinelles Lernen Modell trainiert muss man dann entscheiden kann ob es eigentlich ein gutes Modell war oder nicht
00:08:54: und man gibt das mit unterschiedlichen evaluations Metriken an die die am einfachsten und auch erstmal am häufigsten benutzt wird ist die klassifikations Genauigkeit
00:09:03: wie viele von den Beispielen wurden denn jetzt eigentlich richtig klassifiziert und wenn ein klassifikations Algorithmus z.b. eine 95 prozentige Trefferquote zeigt er sind 95% der Fälle richtig entscheidet ist das natürlich ein besseres Modell als ein anderes Modell was vielleicht nur in 60.
00:09:23: Prozent der Fälle richtig liegt okay also die.
00:09:27: Klassifikation Genauigkeit ist ein zentrales Merkmal für ein gutes machine learning Modell.
00:09:33: Genau das ist erstmal so I was man sich angucken kann und dann kann man sich natürlich auch noch genauer anschauen und dann gib zu mir spiel Sensitivität das wäre die Anzahl
00:09:43: der Kranken die auch als krank klassifiziert worden sind oder die Spezifität das wäre die anzahl der gesunden die auch als gesund erkannt worden wären
00:09:54: das wären jetzt das wären alles auch erstmal über Lotion Metriken die für die Klassifikation wichtig sind
00:10:00: für die Regression wo man ja versucht einen kontinuierlichen Marker vorherzusagen schaut man sich andere Marke an hier z.b. den mean squared error ihr schaut man sich den Abstand
00:10:10: zwischen dem vorhergesagten und dem tatsächlichen Wert an und quadrierte hast und so mir das über die unterschiedlichen Datenpunkte auf und kriegt dann eben auch ein Maß dafür wie gut der klassifikations Algorithmus eigentlich war.
00:10:25: Ja wie berechnet man denn eigentlich Sensitivität und Spezifität.
00:10:30: Ja man nimmt sich hier häufig die sogenannte konfusionsmatrix zur Hilfe das ist wenn man jetzt binäre Labels hat ist das eine vierfeldertafel man hat das tatsächliche Label und das vorhergesagte Label und guck dann inwieweit diese Labels übereinstimmen
00:10:50: also wenn man z.b. jetzt die Labels hatte krank und gesund und würde für eine Person die.
00:10:58: Die krank ist auch vorher sagen dass sie krank ist dann wäre das ein Schuh positiv weil das wird dann so gezählt als to pawsitive
00:11:07: wenn jetzt einer Person gesund ist und auch es wird auch vorher gesagt dass diese Person gesund ist dann wäre das ein zu negativ Fall und wenn man.
00:11:17: Dann das wären jetzt gerade die richtigen Fälle also Bus kongruent ist Nervus übereinstimmen das tatsächliche und das vorhergesagte Label man hat dann aber auch noch die Fälle wo es eben nicht übereinstimmen
00:11:28: wo man z.b. vorher sagt dass jemand krank ist obwohl er eigentlich gesund ist.
00:11:34: Das wäre dann ein Falls positiv oder umgekehrt man sagt vorher dass jemand
00:11:40: krank ist obwohl er gesund ist das wäre dann ein falls negativ angesprochen von zwei Labels entweder krank und gesund was mich als
00:11:50: nicht Mediziner jetzt interessieren würde gibt es da nicht auch möglicherweise graduelle
00:11:55: Abstufungen die man die sich dann auch in das machine learning Modell übertragen lassen wie beispielsweise eine leichte Erkrankung eine mittelschwere und eine schwere Erkrankung
00:12:04: ja ganz genau das kommt eben genau darauf an was für ein Problem oder was für eine Aufgabe man eigentlich lösen will.
00:12:11: Also der Medizin das ist oft so dass man für bestimmte Erkrankungen gibt es ja diagnostische guidelines und nachdem gehen die Ärzte vor.
00:12:19: Z.b. bei Multipler Sklerose müssen bestimmte Sachen vorliegen ne bestimmte Anzahl von Visionen das müssen klinische Symptome sein
00:12:26: und dann wird eben die Diagnose MS z.b. gemacht
00:12:29: jetzt kann man sich überlegen dass man eben ein Maschinelles Lernen Modell trainiert um zwischen Patienten mit MS und gesunden Kontrollen zu unterscheiden und dann kann man sich halt im nächsten Schritt auch angucken was für eine Form von Demenz haben Sie eigentlich oder wie schwer sind sie betroffen oder ein anderes Beispiel wäre auch Depressionen wo man eben
00:12:47: schwerer Mittel gerade oder auch leichte Depressionen hat
00:12:52: und das kann man natürlich auch in so ein maschinelles Lernen Modell aufnehmen es hängt immer davon ab was für Informationen hat man eigentlich.
00:13:00: Und was ist das Ziel von dem Algorithmus kann ja auch erstmal das Ziel sein wirklich nur zwischen
00:13:08: Patient mit Depressionen und gesunden Kontrollen zu unterscheiden aber man kann das natürlich auch beliebig Komplex waren also z.b. eine wirklich klinisch relevante Fragestellung wäre
00:13:17: am Anfang vorherzusagen für die Patienten mit Depressionen ob sie von einer bestimmten Art der Therapie z.b. Verhaltenstherapie profitieren werden oder nicht
00:13:27: ja du hast ja jetzt das den Aspekt des Vorhersagen es angesprochen da stellt sich mir natürlich die Frage wie.
00:13:36: Können neue Daten klassifiziert werden also nicht der Anwendungsfall die Daten die
00:13:42: bereits Vorlagen weil ein zentrales Ziel von machine learning soll ja sein dass es auf neue Beispiele angewendet werden kann wie kann das gemacht werden genau das ist quasi das Wichtigste an den Maschinen Lernmodell dass man möchte nicht nur dass sie auf den Trainingsdaten wo man das Modell trainiert hat eben gut sind sondern man möchte vor allen Dingen dass sie auf anderen auf neuen auf Testdaten gut funktionieren weil man möchte ja man soll Modell gelernt hat
00:14:07: dannzumal Spiel für neue Patienten eine bestimmte Erkrankungen erkennen
00:14:13: und man macht das eben in der Regel immer so also man hat z.b. einen Datensatz für den man die ganzen Informationen hat und wenn man jetzt in Maschinelles Lernen Modell.
00:14:24: Trainieren an aufsetzen muss dann teilt man die Daten ein also man muss immer so sagen wir mal so zehn bis 20% der Daten
00:14:35: nehmen gegebenenfalls auch weniger kommt immer drauf an wie viele Daten und zur Verfügung hat und.
00:14:40: Schließt diese Daten erstmal weg also das sind die kompletten Test holt Daten als die rührt man sich rührt man nicht an ne
00:14:47: und auf den restlichen Daten sagen wir jetzt mal 80 %.
00:14:51: Kann man eben die kann man noch mal unter noch mal unterteilen also zu mir spinnt redings und validierungsdaten es gibt auch
00:14:58: bestimmte Schemata nach denen man die Daten einteilen kann das wäre zum Spinne Kreuzvalidierung da wechselt man immer zwischen den Trainings und Testdaten in diesem Trainingsdatensatz um zu gucken wie gut eigentlich das Modell
00:15:13: und auf den Trainingsdaten guckt man erst mal welche klassifikations Algorithmus funktioniert eigentlich gut wie muss man bestimmte hyperparameter ein
00:15:22: stell ne also bestimmt da die Algorithmen die haben bestimmte Parameter durch die sich auch beschrieben werden die kann man eben dadurch schätzen und dann erst ganz am Ende wenn man gutes Modell hat dann.
00:15:37: Wendet man das auf die Testat Daten an und guckt
00:15:40: wie gut dass es würde man jetzt die Tester hatten schon vorher in das Modell rein nehmen dann würde das Modell ja schon Informationen von den Testdaten hätte und dann könnte man nicht wirklich gut die generalisierungsfähigkeit.
00:15:52: Einschätzen ja in diesem Kontext gibt es den Begriff des sogenannten overfitting.
00:16:00: Kerstin kannst du uns sagen was das genau ist
00:16:03: ja das ist das was man vermeiden möchte overfitting bedeutet dass man ein zu komplexes Modell an die Trainingsdaten anpasst.
00:16:12: Was dann nicht gut auf die Testdaten generalisiert man kann sich dass du mir so vorstellen dass man eine sehr komplexe Funktionen anlegt und dann aber wenn man dann sich die Testdaten anguckt dann nicht wirklich das Wesentliche an den Daten gelernt worden ist und daneben
00:16:30: nicht gut regularisiert.
00:16:32: Ja könntest du vielleicht noch mal ein etwas anschauliches Beispiel nennen was worum es sich bei overfitting genau handelt.
00:16:42: Ja so wie man sich das ziemlich genau vorstellt dass man hatten Koordinatensystemen.
00:16:46: Dann hat man zwei Variablen X und Y und dann hat man bestimmte Datenpunkte die durch diese beiden Variablen beschrieben werden also.
00:16:58: Größe und Gewicht z.b. und dann hat man unterschiedliche na dann hat man für jede Person quasi eine Daten. Der durch du bestimmte Größe und Gewicht
00:17:08: beschrieben wird und dann könnte eine klassifikations Aufgabe sein dass man Kinder und Erwachsene z.b. klassifizieren möchte was jetzt im Gala tief einfaches klassifikationsproblem ist
00:17:18: dann ist halt immer die Frage wenn man jetzt so so Punkte hat die eine unterschiedliche Farbe haben für die unterschiedlichen Kategorien ob man da jetzt möchte eine Leni
00:17:28: lineare gerade durch liegt oder eine eine quadratische Funktion oder eine beliebige.
00:17:34: Komplexe Funktionen die dann quasi genau die die Punkte voneinander trennt.
00:17:40: Man kann dann meistens sagen dass diese Funktion die ganz komplex ist die super auf den Trainingsdaten funktioniert und zu einer hundertprozentigen klassifikations Genauigkeiten auf dem Training starten.
00:17:51: Das dann nicht generell isiert auf die Testdaten sondern dass hier dann der Fehler wieder höher wird und das versucht man eben zu vermeiden wie lässt sich das vermeiden.
00:18:01: Indem man ihm Daten in Trainings und Testdaten
00:18:05: einteilt oder auch doch vorher ein validierungsdaten und eben auch guck wie ist denn jetzt die klassifikations Genauigkeit auf die validierungsdaten erstmal bei die Testdaten soll man sich ja erstmal nicht anschauen ne wenn jetzt das Modell der Wut auf dem Training starten
00:18:19: funktioniert aber immer nicht gut generell isiert auf den validierungsdaten dann
00:18:25: kann das eben sein dass dass das Modell overfitted und dann gibt es auch verschiedene Möglichkeiten wie man damit umgehen kann man spricht dann von Regularisierung.
00:18:35: Okay aber die.
00:18:36: Das Entscheidende ist tatsächlich diese Einteilung in Trainings validierungs und Testdaten genau also das muss man eben immer machen also das ist.
00:18:45: Alles ja jetzt im Moment auch auf dem wissenschaftlichen Studien erstmal darum geht wie gut kann ich eigentlich ein Modell trainieren wie gut funktioniert es ein ihr das geht gar nicht noch nicht gar nicht um den Schritt.
00:18:54: Dass man das wirklich irgendwo anders anwenden möchte
00:18:57: sondern erstmal zu gucken wie gut kann ich denn jetzt zwischen bestimmten Erkrankungen und anderen Erkrankungen unterscheiden deswegen braucht man eben einen vollen Datensatz und da muss man wirklich aufpassen dass am Anfang dass man
00:19:10: daten rausnimmt
00:19:11: und nur auf den anderen trainiert und das wird dann eben auch schwieriger wenn man z.b. Daten von unterschiedlichen Krankenhäusern zusammen nimmt die dann wieder unterschiedlich charakterisiert sind
00:19:20: wo ist nicht so einfach ist jetzt alle in einem Maschinelles Lernen Modell einzuwerfen da muss man sich immer angucken.
00:19:26: Wenn wir jetzt auf den Daten von einem Krankenhaus trainieren wie gut generalisiertes eigentlich zu einem anderen Krankenhaus also kann der wird nur auf den eigenen Daten klassifizieren oder auch auf anderen.
00:19:35: Und über diese Dinge wie man die Daten einschalten Fasten im rotes Validierung Schema ist da muss man sich frühzeitig
00:19:43: Gedanken, ja das klingt alles sehr challenging wir haben auch schon darüber gesprochen über challenges im Bereich machine learning gibt es das auch konkret in der Medizin.
00:19:54: Ja da gibt es immer mehr challenges und es ist auch eine wirklich sehr sehr gute Möglichkeit um sicherzustellen dass.
00:20:03: Trainings und Testdaten getrennt werden weil wenn man nativ in Wissenschaftler jetzt den ganzen Datensatz vorliegen hat ne ist immer die Frage wann hat er denn jetzt eigentlich die Einteilung und die Trainings und Testdaten machine learning challenges ist so
00:20:17: das Trainingsdaten mit den Labels
00:20:21: zur Verfügung gestellt werden die sind meistens öffentlich da kann jeder dran teilnehmen also bestimmte Teams aus unterschiedlichen Bereichen der Welt die trainieren dann ihre Modell auf diesem Trainingsdaten mit Labels nur gucken was könnte gutes Modell sein haben dann ein finales Modell und das wenden Sie dann an auf die Test
00:20:40: Daten an aber hier haben sie ihm nicht die Labels ne sondern die Labels werden gerade zurückgehalten und die Organisatoren die werden dann halt später aus.
00:20:48: Welches von diesen vielen Modellen die eingereicht worden sind war denn jetzt nun eigentlich das beste.
00:20:54: Das hat sie mir auch zu diesem Durchbruch geführt von Deep learning im Bereich der Bilderkennung das ist diese sogenannte imagenet Challenge wo dann plötzlich die klassifikations Genauigkeiten viel viel besser waren deep learning Algorithmen
00:21:07: benutzt worden es und im Bereich Medizin gibt z.b. challenges zum Thema Läsion Segmentierung
00:21:16: Tumorklassifikation oder wir haben z.b. vor einiger Zeit bei einer Challenge mitgenommen mitgemacht wo es darum ging Patienten mit Depressionen von gesunden Kontrollen zu unterscheiden.
00:21:29: Und das Schöne bei den Challenger soft dass man halt.
00:21:33: Wirklich große Datensätze auch zur Verfügung gestellt bekommt um diese Aufgabe zu lösen man kann man dann wirklich gucken.
00:21:41: Wie gut sind einzelne klassifikationsalgorithmen und auch wie gut lässt sich dann überhaupt eine bestimmte Aufgabe lösen zugespitzt ziemlich schwierig Depression anhand von gehirnschnitt Bildern zu
00:21:50: zuverlässig zu erkennen.
00:21:53: Könntest du vielleicht auch mal einen ja einen zeitlichen Horizont nennen wie lange dauert es einen machine learning Modell in dieser Richtung zu trainieren.
00:22:04: Ja das kommt wieder ganz drauf an wie komplex und was für eine Aufgabe man hat und auch was für Daten die Grundlage sind wenn man jetzt angenommen hätte jetzt einer Tabelle
00:22:15: Runde also wünsche same mal 1000 Personen na das wären dann die einzelnen Zeilen und 104 dass die da beschrieben werden sind.
00:22:25: Da kann man ziemlich schnell einen Algorithmus auch wenn er muss es natürlich erstmal programmieren und was die Trainings sind es Daten aufteilen aber die eigentliche Rechenzeit ist da relativ gering.
00:22:36: Wenn man jetzt aber natürlich MRT-Bilder verarbeitet die sehr sehr hochdimensional sind
00:22:42: und dann auch noch bestimmte Algorithmen benutzt dass es fallenden deep learning Algorithmen mit mehreren layers dann sind das schon Sachen die dann auch länger.
00:22:52: Dauern kann die dann auch schon mal einen Tag laufen und natürlich muss man dann auch muss man irgendwie
00:22:59: muss man viel testen also das ist schon insgesamt kann das schon eben einen längerer Prozess sein dass man dann auch ein gutes Maschinelles Lernen Modell hat
00:23:08: ja das war's für heute schon unser unserer
00:23:12: unseren Einstieg in das maschinelle lernen haben wir geschafft damit geht es auch unter anderem in der nächsten Folge weiter ich möchte mich wieder herzlich bei
00:23:24: Kerstin Ritter bedanken und sage Tschüss bis zum nächsten Mal tschüss vielen Dank.