Om datan som matas in i AI-systemet är skev eller inte representativ för den verkliga världen, kommer algoritmen sannolikt att utveckla bias som speglar det. Fenomen kallas ofta för “Garbage in, garbage out” där kvalitén på outputen direkt beror på kvalitén på inputen.
Den mänskliga är en stor risk, allt från användare till utvecklare som skapat verktyg som indirekt påverkar systemet/verktyget med sin egen bias.