Künstliche Intelligenz erklärbar machen

Der Blick in Neuronale Netze

Forschung Kompakt / 1.7.2019

Künstliche Intelligenz, kurz KI, ist längst in unserem Alltag präsent und dringt in immer mehr Bereiche vor. Sprachassistenten etwa sind bereits als Helfer auf dem Smartphone, im Auto oder zu Hause Normalität geworden. Fortschritte im Bereich der KI beruhen vor allem auf der Verwendung Neuronaler Netze. Vergleichbar mit der Funktionsweise des menschlichen Gehirns verknüpfen sie mathematisch definierte Einheiten miteinander. Doch bisher wusste man nicht, wie ein Neuronales Netz Entscheidungen trifft. Forschende des Fraunhofer Heinrich-Hertz-Instituts HHI und der Technischen Universität Berlin haben nun eine Technik entwickelt, die erkennt, anhand welcher Kriterien KI-Systeme Entscheidungen fällen. Die neuartige Methode Spectral Relevance Analysis (SpRAy) basierend auf der Technik Layer-Wise Relevance Propagation erlaubt den Blick in die »Black Box«.