相關(guān)技術(shù)人員使用一個(gè)因果模型分析表示,能夠識(shí)別AI生成藝術(shù)品的相關(guān)方面,以及這些不同方面是如何相互影響的。其中偏見比其他問(wèn)題更有害。GoArt是一個(gè)類似DeepArt的平臺(tái),它將克萊曼婷·亨特的《黑矩陣女主角》的面部顏色從黑色改為紅色,將其轉(zhuǎn)化為表現(xiàn)主義風(fēng)格。另一個(gè)AI生成的藝術(shù)工具,“Abacus”將拉斐爾和皮耶羅·迪·科西莫作品中留長(zhǎng)發(fā)的年輕男性錯(cuò)當(dāng)成了女性。
相關(guān)技術(shù)人員將這些問(wèn)題歸咎于用于訓(xùn)練生成人工智能模型的數(shù)據(jù)集失衡,指出,這可能受到數(shù)據(jù)集管理員偏好的影響。
例如,研究中提到的一款應(yīng)用“人工智能肖像”人工智能使用了4.5萬(wàn)幅文藝復(fù)興時(shí)期的肖像畫,其中大部分是白人。根據(jù)研究人員的說(shuō)法,另一個(gè)潛在的偏差來(lái)源可能是標(biāo)記過(guò)程中的不一致。不同的注釋者有不同的偏好、文化和信念,這些可能反映在它們創(chuàng)建的標(biāo)簽中。
在藝術(shù)流派、藝術(shù)家、藝術(shù)運(yùn)動(dòng)等方面可能存在不平衡。另外,描述不同種族、外貌等信息也沒(méi)有納入數(shù)據(jù)集,因此造成了代表性偏見。錯(cuò)誤地建?;蚝鲆暷承┪⒚畹男畔ⅲ伤囆g(shù)可能會(huì)助長(zhǎng)對(duì)過(guò)去社會(huì)、文化和政治方面的錯(cuò)誤認(rèn)知,并阻礙了解重要?dú)v史事件。