
John Zerilli – 2022
Die Funktionsweise tiefer neuronaler Netzwerke gilt weithin als undurchschaubar. Das wachsende Forschungsfeld der erklärbaren Künstlichen Intelligenz (Explainable AI, XAI) ist als direkte Antwort auf dieses Problem entstanden.Aufgrund der besonderen Art dieser Undurchsichtigkeit war XAI jedoch gezwungen, Interpretierbarkeit über Vollständigkeit und sogar Realismus zu stellen. Dies führt dazu, dass XAI-Erklärungen oft verständlich sind, aber nicht unbedingt auf umfassenden
Erklärungen basieren, die tatsächlich widerspiegeln, wie ein neuronales Netzwerk seine Vorhersagen berechnet.Während dies häufig als Schwäche des XAI-Feldes betrachtet wird, argumentiere ich, dass es im Großen und Ganzen der richtige Ansatz für dieses Problem ist.
(Eigene Übersetzung des Abstracts von Cambridge University Press)
In Journal: Philosophie of Science, Volume 89, Issue 1
DOI: https://doi.org/10.1017/psa.2021.13