相關技術人員使用一個因果模型分析表示,能夠識別AI生成藝術品的相關方面,以及這些不同方面是如何相互影響的。其中偏見比其他問題更有害。GoArt是一個類似DeepArt的平臺,它將克萊曼婷·亨特的《黑矩陣女主角》的面部顏色從黑色改為紅色,將其轉(zhuǎn)化為表現(xiàn)主義風格。另一個AI生成的藝術工具,“Abacus”將拉斐爾和皮耶羅·迪·科西莫作品中留長發(fā)的年輕男性錯當成了女性。
相關技術人員將這些問題歸咎于用于訓練生成人工智能模型的數(shù)據(jù)集失衡,指出,這可能受到數(shù)據(jù)集管理員偏好的影響。
例如,研究中提到的一款應用“人工智能肖像”人工智能使用了4.5萬幅文藝復興時期的肖像畫,其中大部分是白人。根據(jù)研究人員的說法,另一個潛在的偏差來源可能是標記過程中的不一致。不同的注釋者有不同的偏好、文化和信念,這些可能反映在它們創(chuàng)建的標簽中。

在藝術流派、藝術家、藝術運動等方面可能存在不平衡。另外,描述不同種族、外貌等信息也沒有納入數(shù)據(jù)集,因此造成了代表性偏見。錯誤地建?;蚝鲆暷承┪⒚畹男畔ⅲ伤囆g可能會助長對過去社會、文化和政治方面的錯誤認知,并阻礙了解重要歷史事件。