Vad händer när AI kopierar människans sämre sidor? När fördomar och diskriminering smyger sig in i programmeringen finns risken att våra skapelser lever som de lär.
Artificiell intelligens med organiska fördomar


Mest läst i kategorin
”Om det fanns en fördom mot till exempel kvinnor i träningsdatan, så kommer den fördomen att följa med in i AI-systemet.”
Det säger Fransca Rossi, gloabl chef för etisk AI på IBM, till Svenska Dagbladet.
I sin första delrapport skriver EU:s experter att den nya tekniken måste instrueras i etik för att kunna användas på rätt sätt. Att upptäcka när fördomar eller diskriminering smugit sig in i programmeringen kan vara svårt, menar Rossi.
Enligt rapporten har 180 varianter av psykologiska mönster hos människor identifierats – som alla kan ha en effekt på en AI-motors beteende.
IBM har själva använt ett AI-system för att leta fördomar som underlag till rapporten, enligt artikeln. Frågan är vad det säger om resultatets trovärdighet? Håller AI-motorer varandra om ryggen?