Meine Erklärung, warum es kaum möglich ist, eben nur mit irrsinnigem Aufwand EINE einzige KI-Entscheidung zu EINEM konkreten Zeitpunkt zu erklären, kann ich derzeit nicht verbessern.
Der Aufwand ist zigtausend Mal so hoch wie der immense Aufwand für das "Training" von KI, worüber schon viel gestöhnt wird.
Das Problem wird relevant, wenn sich eine KI-gesteuerte Maschine, ein Auto sich bspw, tödlich verhält.
Zwar kann man viel mit Haftpflichtversicherungen abdecken, nicht aber das moralische bzw. ethisch-strafrechtliche Dilemma.
Explainable AI ist ein Vorhaben, ein Wunsch, kein fertiges Produkt.
Aber soeben las ich u.a. bei ZDF-Nachrichten, dass bereits jeder Dritte ChatGPT ausprobiert hat. Das ist eine wahnsinnig hohe Zahl bzw. Quote und straft alle die Lügen, die schwadronieren, die Menschen wären gegen Digitalisierung oder technikfeindlich.
Die Menschen sind es nur leid kriminell per "Digitaliserung" totalüberwacht zu werden, ahnen oder wissen, dass das mit Demokratie und Menschenwürde nicht zusammenpasst.