Vi får ofte høre at KI-modeller er sorte bokser, uforståelige selv for de som utvikler dem. Er dette sant? Hvordan jobber forskningen for å «forklare» modeller og modellutfall. Hvordan går forskerne frem? Hva slags type forklaringer kan vi få og hvilke metoder finnes i verktøykassa dag? Hvor kommer disse verktøyene til kort?