Naświetla to problem programistów którzy programują sztuczną inteligencję. Algorytm reprezentuje uprzedzenia i cele programistów którzy go stworzyli:
To nie programiści "programują" AI, tylko "specjaliści od danych" i uczenia maszynowego oraz przygotowania modeli "trenują" AI. Może i stosuje się tam różne korekty wyników, ale to nadal nie programiści zasilają system danymi i nie oni korygują wyniki. To tak, jakby obarczać inżynierów, którzy zaprojektowali samochód winą za to, że ktoś jechał pod prąd autostradą
W przypadku AI "najlepsze" (sarkazm) jest to, że finalnie NIKT nie jest w stanie odtworzyć toku rozumowania tej "inteligencji" i powiedzieć dokładnie, dlaczego w tym konkretnym przypadku zdecydowała/zrobiła tak a nie inaczej

. Możemy analizować statystyki zgodności otrzymanych rezultatów z oczekiwanymi, ale nie damy rady przeanalizować ścieżki decyzyjnej jednego, konkretnego przypadku (obecne maszyny AI przetwarzają za dużo zależności, żeby ludzki umysł mógł to przyswoić i przeanalizować).