#18 - Black Box KI
KI-basierte Entscheidungsprozesse können von Anwender:innen oft nicht nachvollzogen werden. Es bleibt im Dunkeln, welche Faktoren bei Vorschlägen, Vorhersagen und Entscheidungen einen Ausschlag geben. Gleichzeitig machen KI-Systeme bereits heute in vielen Fällen weniger Fehler als der Mensch. Sollten diese Systeme auch für den Menschen nicht-nachvollziehbare Entscheidungen treffen dürfen oder sollte Erklärbarkeit eine Voraussetzung für den Einsatz in medizinischen Bereichen sein? Diesen und weiteren Fragen widmen sich Kerstin Ritter und Dr. Marina Höhne, Leiterin der Nachwuchsforscher:innengruppe “Understandable Machine Learning” an der TU Berlin, in der aktuellen Episode von Dr. Med. KI.
Kommentare
Neuer Kommentar