Dr. med. KI - Künstliche Intelligenz in der Medizin

Dr. med. KI - Künstliche Intelligenz in der Medizin

Transkript

Zurück zur Episode

00:00:00: Hallo hier ist wieder Mike vom KI-Campus ich begrüße euch zu unserer zweiten Folge machine-learning nachdem wir

00:00:12: in der letzten Folge ein wenig die Oberfläche gekratzt haben bringen wir tiefer ein hierzu freue ich mich wieder Kerstin begrüßen zu dürfen Hi Kerstin.

00:00:20: Hi Mike ja ich würde sagen lass uns direkt starten mit meiner ersten Frage was ist der einfachste machine learning Algorithmus.

00:00:29: Ja so als erstes würde mir da erstmal die lineare Regression einfallen da gibt es auch ein ganz nettes Zitat so von deren schwarz

00:00:38: das nennt sich wenn ihr Fundraising ICE when you're hiring its machine learning Wendy implementing its linear regression venue Debugging es princep

00:00:48: also lineare Regression das erstmal so so der Standard Fall den man im Studium lernt und dem man sich anschauen kann

00:00:55: wie der Begriff ist schon sagt ne geht es hier erstens um linha also man lernt eine lineare Funktion das wäre eine eine Gerade.

00:01:05: Und eine Regression das bedeutet so wie wir das letzte Mal gelernt haben dass man eine kontinuierliche variable Vorhersagen möchte

00:01:13: Kerstin könntest du vielleicht mal ein konkretes Beispiel nennen für lineare Regression.

00:01:20: Ja also man könnte z.b. den Wert eines Hauses Vorhersagen wollen also man hat ein bestimmtes Haus und fragt sich wie wertvoll ist denn eigentlich mein Haus.

00:01:29: Und hast du eine Idee wie man da rangehen könnte.

00:01:34: Ja also ich würde möglicherweise versuchen herauszufinden was die Häuser in der Nachbarschaft zu Wert werden ja genau das wäre ne super Idee man guckt sich einfach die Häuser in der Nachbarschaft an und guckt wie teuer die sind in Abhängigkeit

00:01:49: der Quadratmeterzahl

00:01:51: mathematisch würde man sich das folgendermaßen anschauen also man hat ein Koordinatensystem mit einer x-Achse und eine y-Achse auf der x-Achse hat man die Quadratmeter.

00:02:02: Von den unterschiedlichen Häusern und auf der y-Achse hat man den Preis.

00:02:07: Und man möchte jetzt ja aus dem k-draht Meter den Preis vorher sagen das heißt in diesem Fall sind die Quadratmeter ist gerade das Feature der Prädiktor

00:02:17: und das was man vorher sagen möchte ist der Preis und in dieses Koordinatensystem würde man dann jetzt die einzelnen Häuser der Nachbarschaft eintragen also man würde gucken dieses und jenes Haus hat so so viele Quadratmeter und das so und so teuer

00:02:34: na und dann hat man hier verschiedene Punkte sagen wir mal wir haben 20 Häuser Nachbarschaft und wissen auch den Wert von denen und dann können wir die alle in dieses Koordinatensystem eintragen kannst du dir vorstellen dass du so ein bestimmtes Prinzip

00:02:48: am schon hinter ist.

00:02:51: Also z.b. sind eher kleinere Häuser teurer oder größere Häuser teuer teurer.

00:03:03: Da könnte ich mich nur an das Beispiel Berlins halten da weiß ich beispielsweise das Wohnung mit 3 Zimmern

00:03:11: seltsamerweise tendenziell am teuersten sind währenddessen Wohnung die größer werden dann wieder im Vergleich günstiger werden und kleinere Wohnungen dann auch relativ günstig sind ist das bei Häusern ähnlich.

00:03:26: Ja das kann gut sein jetzt in unserem Beispiel würden wir jetzt relativ einfach wir gehen quasi nur von davon aus dass nur die Quadratmeter relevant sind und in diesem Beispiel wäre es jetzt so.

00:03:38: Wie größer das Haus desto teurer aber natürlich muss man wenn man jetzt sich einen reelles Beispiel irgendwo anschaut muss man natürlich noch andere Sachen da mit rein

00:03:47: nee Mama kann ja auch gucken wie viele Bäder hat jetzt eine Wohnung oder ein Haus oder wie wir gut renoviert ist das unsere weitere Spiele natürlich viele Faktoren rein und das zeigt auch so ein bisschen

00:03:59: auf die Schwierigkeit die man oft hat.

00:04:02: Dass man natürlich immer möchte und wie ein einfaches Modell sich erst mal angucken aber die Welt ist eben in der Regel nicht einfach sondern die ist dann komplex und dann.

00:04:10: Treten ebenso Sachen auf das dann tatsächlich kleinere Wohnung teurer sind bei natürlich auch die Nachfrage viel höher ist nach Dreizimmerwohnung als jetzt vielleicht nach einer 6 Zimmer Wohnung

00:04:21: aber tendenziell kann man hier vermutlich auch wieder sagen je mehr Daten das wir haben also wir mehr Vergleichswerte mir Häuser desto desto genauer können wir dann beispielsweise auch den Preis spezifizieren.

00:04:35: Genau hier mehr Daten wir haben desto desto besser können wir quatschen die Funktion schätzen und desto besser können wir dann auch sagen.

00:04:44: Wie teuer dann ein konkretes Haus ist.

00:04:46: Dass wir uns jetzt geht ne man hat jetzt erstmal diese Punkte in diesem paginate System und dann macht man da eine lineare gerade durch und.

00:04:56: Hast du wenn du also das ist jetzt natürlich abstrakt aber wenn du dir das vorstellst.

00:05:04: Was was wäre dann eine gute grade gute gerade

00:05:09: oder was wäre nett wenn er gerade die die Dir quasi hilft den frei zu schon also legt EZB nah an den Punkten ran oder sie eher ein bisschen weiter weg

00:05:19: also tendenziell natürlich möglichst nah wenn Sie möglichst nah an den Punkten liegt würde ich vermuten

00:05:24: ja genau genau genau so wie man sich das intuitiv denken würde ist das halt auch dass man wirklich die gerade quasi durch die Punkte durch legt

00:05:33: und mathematisch beschreibt man das dann versucht man quasi die Abstände zwischen der gerade und den einzelnen Punkten zu minimieren

00:05:41: na das ist genau das was man was bei einer linearen Regression passiert ne man kann erst mal gucken also man kann sich unterschiedliche geraden da hinlegen die eine unterschiedliche Steigung haben die auch einen unterschiedlichen Schnitt

00:05:53: Punkt mit der y-Achse hat und dann berechnet man für jede einzelne gerade.

00:05:58: Waren die Abstände oder die quadrierten Abstände zu der gerade und entscheidet dann welche gerade einen geringsten Fehler.

00:06:07: Und hier kommt man dann auch wieder ganz schnell zu dem Thema was wir auch das letzte Mal hatten das

00:06:12: man aber jetzt hier bei dem haben wir jetzt ja nicht gerade aber man kann natürlich auch quadratische Funktionen oder auch komplexere Funktionen dran legen und man kann hier z.b. auch Funktionen dran legen

00:06:24: oder zumindest versuchen die dann tatsächlich durch jeden einzelnen Punkt gehen oder durch ganz viele das und dann sehr sehr.

00:06:32: Komplexe Funktionen die haben aber das Problem dass sie dass sie overwritten ne also die passen da die Trainingsdaten sehr sehr gut an

00:06:41: aber sind dann nicht unbedingt gut auch für neue Testdaten aber hier dann auch in dem Kontext wir hatten es ja in einer früheren Folge auch von guten und schlechten Daten.

00:06:51: Versprechen in diesem Fall.

00:06:53: Ja also hier also erstmal guter Daten werden Daten die die genau sind also die alle einfach in ne genaue Anzahl der Quadratmeter geben die dann zB auch einheitlich sind ne also das von ihr z.b. bei den einen

00:07:09: Balkon mit zur Fläche gezählt wird bei den anderen er Garten und so weiter dass das wäre dann zu mischen Problem alles muss irgendwie einheitlich gemessen werden das wären erstmal gute Daten man kann jetzt nicht direkt sagen wenn die daten jetzt

00:07:22: alle auf einer gerade sind könnte man sagen dann hätte man gutes Modell und dann wäre das irgendwie dann wäre der Preis einheitlich.

00:07:33: Das ist halt da gibt's dann wirklich mehr um Interpretation alles geht erstmal darum man hat die Daten so wie sie sind in diesem Fall und guckt daneben welches Modell

00:07:44: jetzt am besten dann aber wäre es da nicht auch so dass wenn ich mir wenn ich mir die Häuser in meiner Nachbarschaft ansehen würde dass ich tatsächlich auch schauen müsste

00:07:53: dass die Häuser bestenfalls ähnlichen Typs dann auch sind wir www.sv meinem eigenen Haus der Fall ist.

00:08:01: Ja ganz genau das wäre genau der Fall dass man eben noch weitere komplexitätsstufen.

00:08:06: Mitnimmt das andere wäre eben z.b. wie viele wie viele Badezimmer hat das Haus wie neuestes und so weiter.

00:08:14: Das könnte man dann modellieren dann hätte man eben nicht nur dieses eine Feature die Quadratmeter sondern dann halt immer noch das

00:08:20: II die anzahl der Quadratmeter dann vielleicht als drittes den Typ des Hauses und so weiter und da hätten wir dann immer mehr Features.

00:08:30: Und dann sind wir auch nicht mehr in dem 2 dimensionalen Koordinatensystem sondern gehen in eine Höhe dimensionales Koordinatensystem und das Gute ist eben dass diese maschinellen Lernverfahren damit umgehen kann und eben auch in.

00:08:44: Beliebig hoch dimensionalen Räumen lernen kann also z.b. wir haben ja MRT Daten das sind.

00:08:54: So hunderttausende bis auch bis 1000000 wachse das hat erstmal sehr sehr viele Werte das ist jetzt für so einen für so einen Standard klassifikations also muss erstmal relativ.

00:09:04: Schwierig zu verarbeiten deswegen reduziert man hier meistens die Dimensionalität sodass man vielleicht 100 oder auch tausend oder so hat aber selbst in solchen.

00:09:14: Räumen die mit 1000 Dimensionen können diese Algorithmen eben gut lernen und das obwohl wir uns das überhaupt nicht mehr vorstellen kann.

00:09:22: Okay ja gehen wir vielleicht über zum nächsten Thema Kerstin was sind Entscheidungsbäume.

00:09:31: Ja Entscheidungsbäume sind ein weiterer machine learning Algorithmus der sowohl für Klassifikation als auch

00:09:39: Regression angesetzt werden kann Entscheidungsbäume kennen ja die meisten eigentlich auch aus der Medizin oder auch an aus anderen Bereichen wenn man z.b. versucht bestimmte Fehler herauszufinden.

00:09:52: Bei einem Computer oder so na dann werden bestimmte Fragen gestellt und dann geht man quasi einem Flussdiagramm weiter und.

00:09:59: Dann ob man eine Lösung des Problems finden Beispiel in der Medizin wäre z.b. die Diagnostik einer bestimmten Erkrankung Diabetes z.b. da würde man fragen liegt der mineralische systolische Blutdruck über 190 Jahren ein ist das Alter über 40 Jahren ein und dann kommt man irgendwann zu einer bestimmten Antwort

00:10:17: ja die Person hat wahrscheinlich Diabetes oder sie hat kein Diabetes

00:10:20: und diese und die Entscheidungsbäume im maschinellen lernen die können halt selber aus Daten so eine Struktur lernen das heißt sie lernen

00:10:30: Sympathie nahten System auch in höheren Dimensionen quasi in unterschiedliche Bereiche reinzulegen ne also wenn bestimmte Werte da drüber legen aber ein anderer Wert da drunter liegt

00:10:43: dann ist es z.b. diese Kategorie und nicht eine andere Kategorie.

00:10:48: Also wir haben es jetzt hiermit mit der linearen Regression und den end zu sogenannten entscheidungsbäumen mit zwei verschiedenen.

00:10:56: Typen von Algorithmen zu tun könnte man das so sagen ja genau also es gibt eben oder sind unterschiedliche Arten von Maschinen in all beraten und es gibt natürlich viel viel mehr als du

00:11:06: viele und dann natürlich die Frage wann benutzt man denn jetzt welchen und dann muss man eben gucken was für ein Problem hat man hat was für Daten man hat und dann gibt es aber auch bestimmte

00:11:18: naja also Gewohnheiten in bestimmten Bereichen werden eben unterschiedliche Algorithmen.

00:11:24: Benutzt also z.b. immer ich kann das dass mein Bereich sagen der in der Bildgebung MRT Bildgebung waren das sehr viel support vector machines das sind

00:11:34: das sind sehr gute Klassifikatoren die auch sehr gut nichtlineare Daten trennen kann er sie versuchen mit den Abstand zwischen den Gruppen zu maximieren in anderen Bereichen sind es aber eben zum Beispiel logistische Regression oder auch Entscheidungsbäume sind auch beliebt

00:11:52: da

00:11:54: der Vorteil dass sie einfach und intuitiv sind und dass man sie gut interpretieren kann also wenn man dann wirklich sind Entscheidungsbaum aus dem Modell rauskriege

00:12:02: aber der Nachteil ist dass sie sehr sensitive bezüglich der Trainingsdaten sind und auch wenig robust deswegen gibt es so eine Verallgemeinerung von anschauen

00:12:11: Entscheidungsbäume random forest aber es gibt auch andere Verfahren die mit ganz vielen Entscheidungs Bäume arbeiten also hier werden z.b. an die 1000 Entscheidungsbäume auf den Daten trainiert man nennt sie randomforest weil man sagt

00:12:27: zufälliger Entscheidungsbäume dem man dann z.b. die.

00:12:31: Nicht immer alle Trainingsdaten verwendet also wenn man jetzt Personen hat die durch bestimmte Eigenschaften charakterisiert werden würde man immer einfach nur eine Teilmenge von den Personen nehmen

00:12:40: und man nimmt auch nicht immer alle Features die man hat sondern auch nur eine Teilmenge davon und trainiert soeben ganz ganz viele Entscheidungs Bäume und macht dann letztendlich eine Mehrheitsentscheidung.

00:12:52: Und dieser Algorithmus ist z.b. dann nicht mehr so gut interpretierbar weil man ja eben ganz viele Entscheidungs Bäume hat aber.

00:13:00: Aber eben wesentlich robuster und häufig auch von der klassifikations Genauigkeit besser und das ist ja dass immer das Hauptziel bei möchte ja nur der was dann auf.

00:13:09: Validierungs und auch auf Trainingsdaten gut performt also was Wesentliches aus den Daten gelernt hat

00:13:15: Ernst ist denn jetzt zwei Aspekte gerade im Gespräch aufgekommen auf die ich gerne noch mal etwas konkreter eingehen würde das eine ist also wir haben ja sowohl jetzt von der linearen Regression zu Beginn bereits gesprochen das ist ein vergleichsweise einfacher

00:13:30: Algorithmus sei ähnliches hast du jetzt eben auch von entscheidungsbäumen gesagt könntest du.

00:13:35: Da vielleicht mal ganz kurz was dazu sagen wie man das kategorisiert und dann vielleicht auch.

00:13:40: Ein weiteres Beispiel für möglicherweise nicht so einfache Algorithmen ja also mit einfach meine ich hier dass man

00:13:49: die Grundidee dahinter relativ einfach ist als geht immer dabei darum dass man quasi eine verlustfunktion.

00:13:58: Mini mir dass man möchte ja gute Vorhersagen treffen na das wäre jetzt im Bereich der linearen Regression wäre das eben dass man

00:14:04: die auf summierten Quadrate minimiert das wäre dass das ist dass es letztendlich so eine Art Optimierungsaufgabe ne und das einfach ist daran dass man das

00:14:14: ja eigentlich relativ gut nachvollziehen kann und auch ein relativ einfach machen kann weil jetzt komplexere Methoden Mitsubishi support vector machine steckt halt noch viel mehr Mathe mal

00:14:25: schick dahinter wie man dann eigentlich wie man es schafft

00:14:30: das meine gerade reinigt so dass der Abstand zwischen den beiden Gruppen maximiert wird und dann zusätzlich kann man dann auch man hat ja nicht immer nur linear trennbarer Daten und teilweise auch nicht linear trennbare Daten oder man kann sich auch überlegen dass man

00:14:45: bestimmte.

00:14:48: Das bestimmte Beispiel eben viel klassifiziert werden und dass man das zulässt und das kann man eben alles in so ein mathematisches Modell einbauen.

00:14:58: Was ich jetzt vielleicht mich

00:15:00: rüber vielleicht man hier auch noch mal sprechen könnte es dass man so ein bisschen unterscheidet zwischen traditionellen maschinellen lernen Algorithmen und Deep learning Algorithmen das was ich jetzt so versprochen habe das sind alles traditionelle maschinelle Lernverfahren was hier wichtig ist dass man

00:15:18: nicht zu viele Features hat

00:15:22: und dass man die meistens vorher so ein bisschen auswählt und guckt was ist dann überhaupt relevant also wenn man jetzt bei einem MRT Bild wenn man einfach das gesamte MRT Bild da rein stellt.

00:15:32: Steckt als ein riesen nachher weg dann ist das meistens zu komplex sondern man überlegt sich das Hippocampus Volumen ist relevant für die Alzheimer-Erkrankung deswegen nehme ich das als Feature und steckt das in Algorithmus rein.

00:15:44: Und sag dann dass man.

00:15:45: Quasi als Experte vorher definiert welche Features eigentlich überhaupt relevant sind das heißt man hat vorher schon eine gewisse Aufgabe um zu gucken welche welche Features sind dann überhaupt relevant und dann benutzt man relativ einfach Klassifikation Seilbrücke.

00:16:00: Deep learning im Unterschied kann man eben wirklich DIRO Bilder die Rohdaten je nachdem

00:16:08: nein bisschen muss man schon auch meistens dran arbeiten aber kann man im Prinzip Rohdaten reingehen weil sie können z.b. mit den gesamten Bildern umgehen und die Struktur daraus

00:16:17: lernen deswegen brauchen sie immer noch häufig länger und brauchen auch mehr Rechenpower und auch häufig mehr Daten um überhaupt gut zu lernen

00:16:26: also neben dir einfacher dass es war ein Aspekt ein weiterer Aspekt dass wir mir jetzt aufgefallen ist was du schon häufiger erwähnt hast ist der Aspekt der des robusten

00:16:35: oder der Robustheit eben gerade in dem im Kontext von Entscheidungsbaum könntest Du hierzu was sagen was

00:16:43: bedeutet robust oder Robustheit genau.

00:16:47: Ja mit Robustheit meint man das wenn man selbst wenn man so ein bisschen die Trainingsdaten variiert also z.b. bestimmte Trainingspunkte raus nimmt das dann immer noch

00:16:57: ähnliches Modell rauskommt

00:16:59: das da quasi keine zu hohe Variabilität das also einen entscheidungsbäumen kann das dann z.b. sein dass in dem einen Fall einen bestimmten Entscheidungsbaum gefunden wird und im anderen fallen ganz andere Entscheidungsbaum gefunden und eigentlich möchte man ja das

00:17:14: selbst für ein bisschen die Trainingsdaten variiert irgendwie immer ein relativ ähnliches Modell gelernt wird es kann schon bisschen variieren es kann auch ein bisschen verschoben werden und so weiter aber das im Prinzip etwas ähnliches.

00:17:26: Gelernt wird und

00:17:27: jetzt bei den random forest hat man hier eben ganz viele unkorrelierte Entscheidungsbäume deswegen lernt man hier so bisschen über die Variabilität der Trainingsdaten hinweg den man die Variabilität in das Modell mit rein und und das ist etwas im was dieses Modell

00:17:42: Post macht wo hast du schon die sogenannten support vector machines genannt hast das auch ganz kurz erklärt meinte doch das sei.

00:17:52: Deine lieblings Methode könntest du da vielleicht noch mal genauer drauf eingehen was macht die support vector machines konkret zu deiner.

00:18:00: Lieblings Methode oder zu deinem Lieblings Algorithmus.

00:18:03: Ja die Vorteile von support vector machines ist dass sie eine hohe generalisierungsfähigkeit haben dass sie mit hochdimensionale Daten umgehen kann das ist für einen auch wichtig bei den MRT Daten die ich habe.

00:18:16: Und sie sind eben auch sehr flexibel und man kann hier eben auch also dann spricht man von der von von sogenannten

00:18:26: Kernels mit dem man die Daten dann in höherdimensionale Räume projizieren kann wo man dann eben auch neue trennen Ebenen finden kann aber die sind mathematisch eben sehr eleganter sie hat noch ihren Sohn

00:18:39: große Zahl von der 90er 2000er Jana sie wurden viel benutzt nicht nur nicht nur im Bereich der Neuro Bildgebung sondern in ganz vielen Bereichen weil sie.

00:18:51: Wirklich gut da drin da sind da drin sind bestimmte Strukturen und Muster

00:18:58: daten zu erkennen und man kann sie ihm für Klassifikation für Regression einsetzen auch für Multi Klassifikation es gibt bestimmte Parameter die man anfassen kann also ich kann man entweder.

00:19:10: Vorher kann man in default value nehmen und den einfach eingeben oder man kann die Parameter auch im Laufe

00:19:19: der Validierung quasi lernen lassen und also bei uns sondern Euro Bildgebung

00:19:26: hat man eben 4 support vector machines benutzt und dann vorher überlegt ja welche Volumen von Hirsch und Touren sind z.b. relevant oder man schaut sich die kortikale dicke im Gehirn an oder auch wie gut das Gehirn vernetzt ist das wäre dann die connect

00:19:41: geht oder wir haben uns auch so kleine Kugeln im gehören angeguckt und dann immer eine support vector machine benutzt um da so ein.

00:19:50: Jan klassifikationsproblem meistens zu lösen manchmal auch in regressionsproblem okay jetzt hast du gerade gesagt die support vector machines wenn ich dich richtig verstehe wurden in den Neunzigern viel genutzt

00:20:02: da wäre meine Frage kommen also auch darüber hinaus okay aber da wäre meine Frage kommen Algorithmen möglicherweise aus der Mode.

00:20:10: Ja das ist natürlich auf jeden Fall so trotzdem würde man in support vector machines sind jetzt nicht

00:20:17: nicht in dem Sinne auch die sind immer noch sehr gut und sehr viele Probleme sehr gut es hat sich jetzt ein bisschen verlagert in Richtung von Deep learning das in mir zuviel

00:20:26: bilddaten zurückbekommen Duschen netfox verwendet werden aber für bestimmte andere Probleme werden support vector machines nach wie vor benutze sie wollen 90er Jahren entwickelt

00:20:37: und werden jetzt auch benutzt man kann das immer ganz gut ablesen wenn man jetzt bei PubMed oder bei anderen Literatur Ressourcen guckt wie oft ein bestimmter Begriff benutzt wird und dann sieht man es am Anfang

00:20:51: dann relativ wenig und dann kommt irgendwie so eine hoch Zeit dann geh zwei mal wieder so ein bisschen runter

00:20:57: na also das kommt natürlich immer drauf an was was das jetzt so fern Wicklungen gibt und

00:21:02: ja man kann sie müssen sagen bestimmte Sachen sind in der Mode und dann wieder weniger Namo das war ja bei der neuronalen Netzwerken auch so am Anfang waren sie in Mode und ganz toll hat mir das so gedacht für bestimmte Probleme sind sie gar nicht so gut dann kam dieser Winter.

00:21:16: Na dann waren sie quasi nicht mehr so ein Mode und dann kam wieder neue Entwicklung und dann sind sie wieder hoch gestiegen das ist sowieso ganz interessant aber das ist halt

00:21:25: so wie das häufig auch in anderen wissenschafts Feldern ist ne gibt's ja immer wieder auch Paradigmenwechsel oder wieder irgendwie eine neue Methode was weiß ich in der Medizin Genetik alle setzen auf den e.

00:21:38: Dann funktioniert manches doch nicht so gut wie man dachte dann guckt man sich andere Daten mikrobiome an und so.

00:21:47: Ja also wir sehen auch im Bereich der KI gibt es gibt es Dinge die in der Mode sind möglicherweise aus der Mode kommen du hast jetzt einen ganz wichtigen Aspekten ganz wichtiges Teilgebiet hast du schon

00:21:58: genannt in dem mit dem wir uns in der nächsten Folge konkret befassen wollen also deep-learning hast du genannt du hast es weitere noch neuronale Netzwerke genannt

00:22:08: aber nehmen wir vielleicht mal deep learning.

00:22:11: Und weil du ja meintest dass das jetzt gerade up-to-date ist oder up-to-date zu sein scheint was.

00:22:19: Ist jetzt vielleicht abschließend zu dieser Folge der grundlegende Unterschied zwischen deep learning und maschinellem lernen.

00:22:26: Ja so deep learning basiert meistens auf neuronalen Netzwerken und hier wieder auf ganz unterschiedlichen Architektouren und was diese Algorithmen dann zum deep learning macht ist dass sie dann mehrere Schichten haben also das kompliziertere Features gelernt werden und durch diese Struktur

00:22:44: haben deep learning Algorithmen den Vorteil dass sie direkt auch aus.

00:22:50: Mehr oder weniger Rohdaten lernen können also das man nicht eine aufwendige vor Prozessierung von Daten vornehmen muss und menschliche Experten darüber befinden was gute Features für ein bestimmtes

00:23:03: Problem sind also wenn man jetzt noch mal ein anderes Beispiel nimmt man jetzt.

00:23:08: Anhand von IP Autos klassifizieren möchte oder Autos anhand von Bildern erkennen möchte

00:23:16: dann lernen kann man diese Algorithmen also vor einige convolutional Networks direkt auf diese Bilder anwenden wäre man vorher z.b. er danach gegangen wenn man guckt dann ob da bestimmte Reifen drauf sind ob der bestimmte Form vorkommen und so weiter das wären so manuelle Features die man sich das überlegen könnte aber bei aadiplan den Algorithmus.

00:23:35: Die werden eben selbstständig aus diesen Daten und dann kommt eben immer drauf an wie repräsentativ sind die Daten so dass daneben auch Autos aus ganz unterschiedlichen Winkeln erkannt werden kann.

00:23:45: Grundsätzlich muss man immer festhalten.

00:23:49: Dass man schauen muss was für ein Problem man hat und was man lösen möchte und dann guckt man halt was für klassifikationsalgorithmen sind jetzt dafür geeignet sind das eben erst

00:23:59: Standard maschinelle Lernverfahren ist Interpretierbarkeit wichtig oder nicht wie viele Features hat man und dann versucht man zu überlegen was was.

00:24:08: Was für ein Algorithmus gut ist

00:24:10: jetzt gerade bei diesen neueren Sachen was wir auch immer machen oder was auch viele machen dass man halt wieder deep learning Verfahren auch mit klassischen Maschinen hören den Verfahren Vergleich ne

00:24:19: sind sie denn jetzt überhaupt so viel besser und wo sind sie besser und warum sind sie besser und wo sind sie vielleicht nicht unbedingt besser wo kann man auch einfach einen einfachen anderen klassifikations Algorithmus verwenden.

00:24:31: Ja also so viel zu dem Bereich deep learning mit dem wir uns.

00:24:36: Konkret in der nächsten Folge befassen wollen wir haben jetzt einen ersten anderes gefunden I Unterscheidungsmerkmal zum maschinellen lernen ich freue mich darauf das nächste Mal wieder mit Kerstin darüber sprechen zu dürfen und sage für heute

00:24:51: tschüss tschüss vielen Dank.

Über diesen Podcast

In der Podcastreihe "Dr. med. KI" von Charité und KI-Campus geht es um den Einsatz von Künstlicher Intelligenz (KI) in Medizin und Gesundheitswesen. Von grundlegenden technischen Funktionsweisen über Diagnosemethoden bis hin zur personalisierten Behandlung wird erkundet, wie KI die medizinische Landschaft verändert. In Gesprächen mit Expert:innen, Ärzt:innen und Technologiepionieren wird in Themen wie Maschinelles Lernen, medizinische Bildgebung, Datenanalyse und Ethik eingetaucht. Begleite uns auf dieser Reise, um zu verstehen, wie KI nicht nur die Präzision der Medizin verbessert, sondern auch die Art und Weise, wie wir für unsere Gesundheit sorgen, grundlegend transformiert.

Wer mehr über KI erfahren möchte, findet auf dem KI-Campus – Der Lernplattform für Künstliche Intelligenz spannende Lernangebote in unterschiedlichen Themenfeldern.

www.ki-campus.org

von und mit KI-Campus

Abonnieren

Follow us