“Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead”

In der elften Woche wurde der Artikel von Cynthia Rudin besprochen. Es geht um die Frage, ob erklärende Modelle auf Blackboxen aufgesetzt werden sollten oder nicht.

Cynthia Rudin – 2019
Schwarze-Box-Modelle des maschinellen Lernens werden derzeit für wichtige Entscheidungen in der Gesellschaft eingesetzt und verursachen Probleme im Gesundheitswesen, im Strafjustizsystem und in anderen Bereichen. Einige hoffen, dass Methoden zur Erklärung dieser Black-Box-Modelle einige dieser Probleme mildern können. Doch der Versuch, Black-Box-Modelle zu erklären, anstatt von vornherein interpretierbare Modelle zu entwickeln, führt eher zu schlechten Praktiken und könnte der Gesellschaft erheblichen Schaden zufügen.

Der richtige Weg besteht darin, Modelle zu entwerfen, die von Natur aus interpretierbar sind. Diese Perspektive verdeutlicht die große Kluft zwischen der Erklärung von Black-Box-Modellen und der Nutzung von inhärent interpretierbaren Modellen. Sie zeigt mehrere zentrale Gründe auf, warum erklärbare Black-Box-Modelle für Entscheidungen mit weitreichenden Folgen vermieden werden sollten, identifiziert Herausforderungen im Bereich des interpretierbaren maschinellen Lernens und gibt mehrere Anwendungsbeispiele, in denen interpretierbare Modelle potenziell Black-Box-Modelle in der Strafjustiz, im Gesundheitswesen und in der Computer Vision ersetzen könnten.1


DOI: https://doi.org/10.1038/s42256-019-0048-x

  1. Eigene Übersetzung des Abstracts von Nature Machine Intelligence ↩︎