Dr. med. KI - Künstliche Intelligenz in der Medizin

Dr. med. KI - Künstliche Intelligenz in der Medizin

Transkript

Zurück zur Episode

00:00:05: Hallo und herzlich willkommen zu einer neuen Folge von Doktor mit KI einen gemeinsamen Lernangebot des KI-Campus und der charité-universitätsmedizin Berlin mein Name ist Kerstin Ritter.

00:00:15: Und wir befinden uns in der dritten Staffel in der Freundin ethische und rechtliche Fragestellungen von KI Anwendung in der Medizin geht.

00:00:23: Das heutige Thema SK II am Krankenbett und ich freue mich sehr.

00:00:27: Das eine medizinethiker rennen hier ist nämlich Professor Doktor Susanne Michel magst du mich vielleicht kurz vorstellen.

00:00:33: Ja wie du schon gesagt hast ich bin Professorin für Medizinethik und Medical humanities das ist an einem geisteswissenschaftlichen Institut an der Charité das Institut für Geschichte der Medizin und Ethik in der Medizin

00:00:45: ich bin auch klinische Ethik Beraterin das heißt ich werde auch rufen direkt ans Krankenbett wenn es darum geht in der Krankenversorgung.

00:00:55: Therapieentscheidungen wenn Therapieentscheidungen ansteht die eben auch sehr schwierig zu treffen sind weil sie nicht allein aus den medizinischen Befunden her zu treffen sind sondern eben auch Wertvorstellungen und Werthaltungen zu möchte dass Patienten der Patientin betreffen.

00:01:10: Kannst du gleich mal kurz erzählen wie wird man dann eigentlich Medizin et dann also was war dein Werdegang wie bist du dahin gekommen.

00:01:16: Ich bin also ich habe in den Geisteswissenschaften studiert eigentlich ursprünglich Geschichtswissenschaft und Literatur und Sprachwissenschaft bin dann sehr früh.

00:01:25: Diese geisteswissenschaftlichen Institute innerhalb der großen medizinischen Fakultät nimmt man GTE Geschichte Theorie und Ethik.

00:01:34: Gekommen und war dann an mehreren Standorten habe mich dann auch langsam in Richtung Medizinethik dann auch weiterentwickelt und.

00:01:42: Genau in unserem Fachbereich sind

00:01:46: ganz unterschiedliche Leute aus ganz unterschiedlichen disziplinären Hintergründen des kann Mediziner sein die sich Ermittlungen geisteswissenschaftlichen Fragestellungen beschäftigen oder eben auch Geisteswissenschaftler die sich dann sozusagen das medizinisches und ist in draufsatteln.

00:01:58: Okay und wie viel also welche Rolle spielt Kay ist das jetzt so ein Bereich der immer größer wird und immer mehr den ganzen Fachbereich durchzieht oder.

00:02:07: Ist das immer noch eher so ein Teilbereichen kleiner Teilbereich würdest du das sehen

00:02:12: also es sind viele jetzt aus der Medizinethik die sich damit beschäftigen das ist ja auch klar immer wenn

00:02:19: auch in neue Technologien auftreten dann fragt man sich ja da stellt man sich auch die Frage was machen die jetzt in diesem in diesem Kontext.

00:02:27: Natürlich auch welches bisschen generieren Sie also wie valide ist auch das wissen aber auch ganz konkret.

00:02:32: Was macht das z.b. in der arzt-patienten-kommunikation was macht das für den institutionellen Kontext für Rollenverständnis im Selbstverständnis der von Patientinnen und üben auch.

00:02:42: Ärztin.

00:02:44: Und ich höre nur Z super viele spannende Fragestellungen gesagt aber wie wie geht man dann da dran jetzt also er hat man dann immer einen konkreten Fall ein konkretes Problem.

00:02:53: Was man dann versuchte ethisch zu klären oder ist das ganz allgemeine Fragestellungen versucht er ja philosophisch ethisch dran zu gehen.

00:03:02: Sowohl als auch also ich glaube gerade wenn wir über Digitalisierung in der Medizin reden sind das ja ganz ganz unterschiedliche digitale Technologie na ob das ja Pflegeroboter ist oder überhaupt die Robotik,

00:03:15: ob das eben algorithmenbasierte Systeme sind die Entscheidungs unterstützend wirken sollen ob das Smart devices sind oder telemedizinische Applikationen also das sind ja ganz unterschiedliche digitale Technologien

00:03:28: man kann in der Medizinethik natürlich ganz konkret und so

00:03:31: konkret wie möglich ist immer besser tatsächlich den Einsatz einer bestimmten Technologie in einem spezifischen Kontext auch noch mal untersuchen

00:03:41: man kann natürlich auch übergeordnete Fragestellungen stellen also das wäre dann um so bisschen zu Pierre die Vogelperspektive wir sind mitten in einem.

00:03:50: Also tiefgreifenden Transformationsprozess und wir können uns wirklich auch die Frage stellen was macht das eigentlich was macht das mit uns was macht das mit unserer Gesellschaft hat das.

00:04:00: Erwünschte Entwicklungen die wir ja auch fördern wollen dann und was sind aber vielleicht unerwünschte Entwicklungen die wir ja möglichst verhindern wollen ja.

00:04:10: Also das wären ganz andere Fragestellungen dann noch mal die beiden Bereiche die hängt zusammen aber.

00:04:15: Man kann beides machen und und hast du dann eine spezielle Spezialisierung auf bestimmte Fragestellung auf bestimmte Technologien z.b. oder.

00:04:24: Habt ihr quasi so einen allgemeinen Werkzeugkasten den ihr dann immer auch auf unterschiedliche Probleme anwenden können natürlich hat jeder sozusagen ist inzwischen

00:04:33: schienen Forschungsprojekten natürlich auch eingebunden und insofern ist es ja auch schon vorgegeben also man stößt ja als ethikerin nicht die Entwicklung angesagte ich jetzt weil sondern das wird ja von anderen angestoßen und dann wird man ja erstmal auch,

00:04:46: wie isst man in einem Kontext drinnen oder eine bestimmte digitale Technologie momentan ist dass du mich auch in einem Forschungsprojekt mit der Herzchirurgie,

00:04:53: überall montiert reality und der Einsatz von Augmented Reality auch in im im Operationssaal.

00:05:01: Was mich natürlich besonders interessiert ist auch tatsächlich dann alles was die Krankenversorgung direkt betrifft also auch wie.

00:05:08: Was verändert sich auch in Entscheidungsprozessen wenn es.

00:05:13: Digitale durch digitale Technologien durch KI Systeme einfach unterstützt werde ich denke da wird sich sehr sehr viel verändern was dann diätische evaluation betrifft greift man natürlich immer auf ähnliche Dinge zurück sozusagen es gibt schon so ein Handwerkszeug.

00:05:28: Letztlich dass das Ethik der Ethik was man da machen kann.

00:05:33: Und werden es jetzt immer spät diese medizinethische Prinzipien oder gibt es da noch was anderes.

00:05:40: Das sind ganz gutes ich sage jetzt fast so bisschen Hilfswerkzeug dass man anlegen kann.

00:05:46: Vielleicht noch mal ein Schritt zurück es geht natürlich immer um eine nutzen Schadens Abwägung na also es in der Ethik.

00:05:53: Gerade auch in ein anwendungsbezogen im Bereich wie die Medizinethik oder Bioethik sind das sehr oft Abwägungsprozess er die vorgenommen werden.

00:06:01: Und wenn wir jetzt davon reden welchen Nutzen stiftet eine Technologie und welches Schadenspotential da ist,

00:06:08: ist das leicht gesagt aber irgendwie schwer aus zu buchstabieren

00:06:11: dazu müssen erstmal identifizieren also was was für ein Schaden eigentlich na welcher Schaden wer hat den Schaden oder nutzen natürlich jeweils respektive.

00:06:22: Wie hoch ist der wie plausibel ist eigentlich das so ein Schadensereignis Eintritt und wenn ja in welcher Höhe wenn es ein hohes Schadensereignis ist das auch

00:06:31: womöglich der possible Eintritt dann tun wir tunlichst viel dafür dass wir es verhindern ja also das ist sozusagen glaube ich immer

00:06:39: diese Abwägungsprozess die stehen immer im Hintergrund die vier Prinzipien Autonomie Fürsorge,

00:06:47: nicht schaden und Gerechtigkeit helfen dann einfach das auch noch mal genauer zu identifizieren also noch mal genauer zu sagen welche,

00:06:55: auch besonders schutzwürdige Güter eigentlich in unserer Gesellschaft sind denn in Gefahr

00:07:02: oder können Schaden nehmen oder vielleicht womöglich wird werden sie auch gefördert eben durch digitale Technologien und da kann man da eigentlich guten Abwägungsprozess eben auch vornehmen

00:07:13: und aber gehen die Meinung darauf dann sehr auseinander auch also oder ist man sich da im Groben auch einig oder gibt es aus dem bestimmte.

00:07:23: 40 sagen Schuhe in aber die sind die eine eher Richtung soll ich ein bestimmtes principal's zu wesentlich wichtiger halten als ein anderes und dann da so Uneigentlichkeit entsteht.

00:07:33: Also die basiert ja eigentlich darauf.

00:07:39: Das ist sie haben also schon entscheidet sie das in den 70er Jahren in Amerika leben

00:07:44: sozusagen als buch principles of bioethics eben auch geschrieben haben die sagen dass das Prinzipien mittlerer Reichweite sind das heißt es gibt keines der Prinzipien das jetzt,

00:07:56: ein anderes perse übertrumpft also wir reden da auch von prima facie Prinzipien im ersten Anschein nach dann gelten die erstmal na also wir werden jetzt hier nicht diskutieren ob das Prinzip der Autonomie überhaupt.

00:08:10: Gut sinnvoll ist oder so ne

00:08:13: das was dann natürlich passiert ist dass diese Prinzipien einfach in Konflikt geraten und das ist ja eigentlich unsere ethischen schwierigen Situation oder zuweilen auch dilemmasituationen dass zum Beispiel ein Fürsorgeprinzip.

00:08:26: Gegen einen autonomieprinzip plötzlich steht ja also.

00:08:30: Das vielleicht jetzt nicht so abstrakt zu machen genau ein Beispiel ist schnell aus dem Kopf für sozusagen also wenn z.b. ein Fürsorgeprinzip würde könnte sich so dergestalt dass man einen Patienten.

00:08:44: Das Wissen geben möchte dass er zu einem

00:08:48: zu einer Risikogruppe gehört oder dass er mit einer bestimmten Wahrscheinlichkeit XY zu einem bestimmten Alter womöglich an etwas erkranken wird ja das ist natürlich in gewisser Weise eine Fürsorge weil wir dadurch natürlichen Patienten auch die Möglichkeit geben.

00:09:00: Mach das sein Lebensstil zu ändern oder vielleicht darauf einwirken ja das autonomieprinzip.

00:09:06: Könnte ja sein dass der Patient die Patientin einfach sagt ich will es aber gar nicht wissen oder

00:09:11: ja auch ein Recht auf Nichtwissen oder ein Recht auch auf unvernünftige Handlungen ja und Entscheidungen die er trifft

00:09:18: und das ist jetzt immer die Frage eigentlich im Einzelfall wenn diese Prinzipien konfligieren also in dem Fall Fürsorgeprinzip versus autonomieprinzip wie stark man da gewichtet also welches man mehr gewichtet und hier natürlich gibt es verschiedene.

00:09:33: Einschätzungen Daniele aber es kann eigentlich nur eine Einzelfallentscheidung sein ne weil das kann ja auch je nach Patient auch ganz angenehm auch meine Frage welche Rolle spielt der konkrete Patienten in diesem Jahr eigentlich ne

00:09:45: also begründet werden müssen ja dann eigentlich immer wie man gewichtet im Einzelfall das und ist das wäre die ethische Begründung und nicht die Prinzipien Persi

00:09:54: und was ist gerade Beweis gegen Abend an den du fährst in der Herzchirurgie Augmented Reality worum geht's dabei und was sind die ethischen Fragen die ihr euch stellen.

00:10:04: Also da versuchen wir jetzt von dem ethischen Teil das wird natürlich von den Informatikern Technikern und so weiter alles entworfen und dann werden die Klinika natürlich auch sagen.

00:10:14: Was Ihre Anforderungen sind wenn da Brillen aufgesetzt wird und dann irgend so ein Herz im Raum steht sozusagen geht es dann um OP-Planung erstes und dann noch die richtige OP sozusagen und.

00:10:27: Und und.

00:10:28: Und zusätzlich wird auch noch so eine Art phonetischer Anforderungsanalyse eben sein das heißt wir würden untersuchen dass es steht jetzt gerade so an wie wie sich das auswirkt.

00:10:40: Im Team also im Chirurgen Chirurgen in Team sozusagen also wie wie was macht das eigentlich mit diesem ganzen Kontext ist die Kommunikation dann anders und wenn ja wie und dann könnte man das natürlich auch ethisch evaluieren

00:10:54: das wäre die eine Seite und die andere Seite wäre natürlich.

00:10:57: Ob das Zimmer in einem Aufklärungsgespräch mit dem Patienten der Patientin auch tatsächlich ein Mittel wäre um die Operation auch noch mal genau darzulegen was da genau gemacht wird einem Patient.

00:11:10: Um das zu zeigen und so genau.

00:11:13: Aber das ist ja ethisch noch gar nicht sozusagen also erst mal ob das überhaupt gewollt wird so viel Informationen und genau und was ist dann auch macht natürlich auch ne.

00:11:25: Ja interessant auch die auch die Frage genau ob die Patienten also ob sie sich dafür interessieren ob es gestern auch um die Frage ob man das überhaupt einsetzt ich meine wenn man jetzt feststeht.

00:11:37: Das hilft es gibt dir aber der schon darum gehen dass eine bessere OP ist oder dass sie sich für dich beruhigen vereinfacht wird oder.

00:11:46: Geht es darum ich denke nicht dass nur das eine ethische Anforderungsanalyse das ist auch gerade diese Abwägungsprozess wirklich dazu kommt dass es.

00:11:56: Sozusagen so viel Schaden stiftet das dass man es überhaupt nicht einsetzt das kann natürlich je nach Kontext auch noch mal irgendwie anders sein

00:12:04: ich könnte mir sehr gut vorstellen dass es aber dazu führt dass wir ziemlich besagen mm Arzt-Patienten-Gespräch wird es nicht eingesetzt oder so dass das könnte ich schon sein oder da sehr sehr vorsichtig sind sage ich jetzt mal erstmal.

00:12:18: Weil womöglich da der der Nutzen davon gar nicht so groß ist gegenüber einem potentiellen wir können immer nur potentiell Schadenspotential dass das haben könnte.

00:12:28: Genau also die genau darum geht es in welchem Kontext ist es wirklich sinnvoll diese diese Technologie einzusetzen.

00:12:36: Ja aber was mir noch nicht ganz klar also würde man diese Technologie wenn jetzt immer irgendwie eigentlich besser ist ne also zum besseren autcon bei der OP z.b. führt würde man die dann.

00:12:45: Immer auch einsetzen oder würde man dann trotzdem z.b. den Patienten oder Patienten die Wahl geben ob so ein Instrument eingesetzt wird oder nicht mit Informationen darüber wie gut das ist

00:12:57: wird das auch noch alle oder ist das in diesem Fall eigentlich eher.

00:13:02: Irrelevant das bei der 70. dann die beste Technologie und dann setzt man sie auch ein z.b. also

00:13:08: natürlich ist das ein ganz wichtiges Kriterium ja das jetzt erstmal gar nicht ethisch ist jetzt in dem Sinne dass wir sagen hier ist etwas dass das eben einfach unsere Versorgung verbessert ja und das sind ja sehr viele dieser digitalen nicht alle aber sehr viele

00:13:22: der tatsächlich wo wir sagen hier können wir dazu beitragen.

00:13:26: Eine eine bessere Versorgung zu haben also es ist nicht so dass die Ethik immer kommt und sagt oh nein oh nein und den moralischen Zeigefinger hebt sondern

00:13:34: dass er eben also im Gegenteil wenn etwas nicht Versorgung verbessere dann wäre es ethisch wahrscheinlich auch schwierig zu argumentieren ist nicht einzusetzen.

00:13:43: Aber natürlich untersteht sozusagen wieder auf der anderen Seite das man die Patienten darüber informiert in dem Fall würde es ja das Aufklärungsgespräch auch sein ob sie überhaupt

00:13:52: letztlich irgendwie so also es geht um den Modus der Aufklärung eigentlich in dem Fall ob sie das wollen oder ob Sie das nicht wollen,

00:14:01: das wäre ja praktisch noch mal die dem Susan versetzt ja genau,

00:14:08: ja interessant ist man bevor man eine OP beim durchgeführte kriegt man ja auch immer viele Aufklärungsbogen was überhaupt alles so passiert und dass man ja dann auch.

00:14:16: Also im Prinzip muss man dem ja auch zustimmen wenn man diese OP in Anspruch nehmen wird und man könnte sich sehr parallel dann auch vorstellen dass Du noch meintest reality da irgendwie mit rein kommt ja.

00:14:26: Genau ich hatte mich nur gefragt ob man das irgendwie den Patienten dann auch zur Wahl stellt oder ob das Datum später keine Rolle spielt aber das ist.

00:14:33: Naja zu Wahl also wenn es tatsächlich etwas ist was die Versorgung ist eh ganz abgesehen und welche Technologie das ist.

00:14:40: Ist ja eigentlich der Arzt die Ärztin auch verpflichtet state-of-the-art das Beste was wir anbieten können und was ja womöglich auch geronnen in Leitlinien irgendwie abrufbar ist sagen Anzug.

00:14:51: Und dann wäre das natürlich sehr schwierig zu argumentieren,

00:14:55: dass man hier sagt man würde jetzt da irgendwie vom von der Qualität her irgendwie etwas runter gehen so sag ich jetzt mal.

00:15:03: Da müsste man jetzt gucken ob es irgendwelche Gründe dafür spreche das anders zu machen oder so aber da sind die patientenpräferenzen sehr wichtig aber womöglich auch nicht ausschlaggebend ja.

00:15:16: Du hast doch ein andere interessante Beispiele sagt generell in der Entscheidungsfindung mittels KI.

00:15:24: Was sind das für Fragestellungen was für Entscheidung gibt es z.b. naja also wenn wir über ki-systeme im Krankenbett am Krankenbett reden dann ist in das ja eigentlich.

00:15:34: Soweit ich das sehen kann erstmal 22 unterschiedliches eine ist natürlich als Unterstützung bei der Befundung also bei der Diagnosestellung da ist ja auch teilweise das schon sehr weit vorangeschritten auch in der Bildgebung und Radiologie dermatologie,

00:15:48: Leberfleck sozusagen jetzt Hautkrebs ist oder nicht wo wir sehen das wäre ki-systeme sehr sinnvoll eben auch einsetzen können die andere Sache wäre natürlich auch bei Therapieentscheidungen bzw bei,

00:15:59: Prognose Einschätzungen also wenn wir viele Daten haben von vielen Patienten dass wir eben auch sagen können ein wir können doch.

00:16:07: Müssen ja Vorhersagemodelle also prädiktive Modelle wir können Krankheitsverläufe besser vorhersagen na dann können natürlich vielleicht besser vorhersagen wann jemand erkrankt oder wir welcher Wahrscheinlichkeit er erkrankt

00:16:20: das werden sozusagen solche Prognose Einschätzungen wo Yakari auch eingesetzt werden kann aber bei diesem Prognosemodell wie es da,

00:16:29: deine Einschätzung also wir versuchen das ja auch den Krankheitsverlauf bei Multiple Sklerose vorherzusagen oder auch z.b. den Behandlungserfolg bei Patienten Patientin mit internalisierende Störungen Depression Angststörung und so weiter forschen.

00:16:44: Was bald du dir und ich bin hatte ich immer er damit beschäftigt zu gucken ob das überhaupt funktioniert ne aber es ist natürlich klar dass da ganz viele ethische Fragestellung auch dahinter

00:16:55: stehen hast du so eine Art

00:16:57: Einschätzung oder Gefühl wie wie gut das angenommen wird oder wie sehr Patienten auch daran interessiert sind etwas über ihren Verlauf zu erfahren.

00:17:06: Na also erstmal ist es natürlich was Gutes na das wäre schon also das ist ja genau das was wir in der Medizin auch manchmal so wie wie können wir einschätzen wie wie der Krankheitsverlauf ist und wann zu welchem Zeitpunkt auch

00:17:18: bieten wir welche Therapie am besten an das ist ja auch erstmal etwas wo wir das Gefühl haben eben auch viel

00:17:24: besser das zu kontrollieren das ist sozusagen die eine Entscheidung der oder die eine der eine Aspekt der andere Aspekt in einer Therapieentscheidung sind natürlich immer

00:17:33: da komme jetzt wieder drauf patientenpräferenzen Wünsche Bedürfnisse natürlich auch.

00:17:40: Und da könnte es natürlich auch so kommen sozusagen dass man sagt zum Beispiel die KI macht eine bestimmte Empfehlung und das.

00:17:49: Widerspricht eigentlich den Krankheitserleben nach dem subjektiven Krankheitserleben dass Patienten Ja und ähm also ich könnte mir durchaus such Szenarien vorstellen

00:17:58: wo Patienten sich vielleicht eher als

00:18:01: datensubjekt gesehen sage ich jetzt mal die jetzt zwar verdattert werden und alles immer relativ genau weiß aber sich selber eigentlich nicht mehr sehen in ihrem ganz konkreten Bedürfnissen wünschen Präferenzen,

00:18:14: und das wäre dann eine Entwicklung da müssen wir gegensteuern,

00:18:19: ja das wär ja für einen auch dann der Fall wenn man so wirklich so sehr allgemeine Systeme wo alle Daten einfließen und so es gibt ja weiß ich jetzt auch.

00:18:27: Sehr spezialisierte Systeme wurde an einen bestimmte an bestimmten das Bild beurteilen wird und das wird dann in der Zusammenschau mit anderen Faktoren vom Arzt oder von der Ärztin eben.

00:18:38: Eingeordnet da ich

00:18:40: glaube es ist schon und es macht einen großen Unterschied wenn sage ich mal gerade bei diesem schwierigen Therapieentscheidungen plötzlich hier sowas wie eine KI oder

00:18:51: ist und Didi

00:18:52: ja selbst fast schon ein Akteur wird sozusagen in z.b. irgendwie einem Arzt Ärztin Patient Patientin Gespräch oder so ne also wenn wir erster Gerti hat gesagt das richtig groß

00:19:05: das große Problem könnte tatsächlich sein dass ist ja so fast schon bisschen automatisierte Verhandlungen sind

00:19:12: und dann aufs auch so zu Handlos imperativen kommt ja also z.b. die Kathi hat gesagt XY dann müssen wir doch auch so handeln tätig ist das überhaupt nicht der Fall also auch auch wenn wir eine bessere Wissensgrundlage hab

00:19:23: bin ihn jetzt mal an das ist valides wissen ja also dass wir dass das eine gute KI ist.

00:19:28: Heißt das nicht dass wir daraufhin zu besseren Handlungen kommen na also dass das muss nicht unbedingt sein es gibt übrigens auch den Fall dass.

00:19:37: Wir sehr viel Wissen aber es gar keine Handlungsoptionen gibt ja das Innere Medizin auf der Fall ist gibt gar keine Therapie für eine Zyste sehr seltene Erkrankung

00:19:44: was macht man denn dann mit diesem Wissen oder oder es gibt eine nein wissen

00:19:50: das aber wie ich vorhin schon Gesagte dem subjektiven Krankheitserleben komplett entgegensteht ja aber man sagt ich fühle mich aber gar nicht so als ob ich so schwer krank wäre in Arm was was passiert denn dann eigentlich so und das sind sozusagen

00:20:04: achso handlungs imperative die sich natürlich sehr leicht einschleichen können gerade wenn man ein großes Vertrauen ins KI natürlich auch hat also das glaube ich.

00:20:14: Könnte sein dass da auch eine Entwicklung im Gang getreten wird wo auch Patienten und Patientinnen sagen ich habe da

00:20:20: bitte lassen Sie doch noch meine KI drüberlaufen also fast mit der Forderung der Erwartung das zu tun na weil sie in dieses große Technik Vertrauen haben vielleicht sogar größer als das Experten Vertrauen dann.

00:20:30: Und das da aber sowas automatisiert ist abläuft.

00:20:34: Wo wir dann am Ende vielleicht erst merken oder sind aber Entwicklungen die wir jetzt nicht vorhergesehen haben und die wir vielleicht sogar als nicht erwünscht ansehen.

00:20:43: In der nächsten Folge ist ja wo die auch zum Skifahren todesalgorithmus gesprochen.

00:20:52: Kannst du dazu was sagen was ist das worum geht's dabei das würde Media Leben sehr als todesalgorithmus tituliert und das stinkt ja auch nicht auch schon ganz schön viel mit.

00:21:04: Ich glaube auch die Unbehagen geht ja auch eben um einen algorithmenbasierte System auch bei schwerstkranken Patienten also schon allein dass dieses todesalgorithmus da,

00:21:13: so genannt wird zeigt natürlich dass es doch ein gewisses Unbehagen gibt.

Über diesen Podcast

In der Podcastreihe "Dr. med. KI" von Charité und KI-Campus geht es um den Einsatz von Künstlicher Intelligenz (KI) in Medizin und Gesundheitswesen. Von grundlegenden technischen Funktionsweisen über Diagnosemethoden bis hin zur personalisierten Behandlung wird erkundet, wie KI die medizinische Landschaft verändert. In Gesprächen mit Expert:innen, Ärzt:innen und Technologiepionieren wird in Themen wie Maschinelles Lernen, medizinische Bildgebung, Datenanalyse und Ethik eingetaucht. Begleite uns auf dieser Reise, um zu verstehen, wie KI nicht nur die Präzision der Medizin verbessert, sondern auch die Art und Weise, wie wir für unsere Gesundheit sorgen, grundlegend transformiert.

Wer mehr über KI erfahren möchte, findet auf dem KI-Campus – Der Lernplattform für Künstliche Intelligenz spannende Lernangebote in unterschiedlichen Themenfeldern.

www.ki-campus.org

von und mit KI-Campus

Abonnieren

Follow us