IT之家 10 月 22 日消息,據(jù)英國《衛(wèi)報》20 日報道,AI 生成的極端貧困、兒童以及性暴力幸存者圖像正在大量涌入圖庫網(wǎng)站,并被越來越多的全球衛(wèi)生非政府組織使用,引發(fā)了全球衛(wèi)生專家的廣泛關(guān)注。
致力于推動“使用道德圖像”的 Fairpicture 組織成員諾亞?阿諾德表示:“幾乎到處都能看到這些圖像的使用,有些組織在積極使用 AI 生成圖像,還有一些至少正在嘗試。”
阿諾德表示,美國政府對非政府組織預(yù)算的削減使這一趨勢加劇?!艾F(xiàn)在越來越多的機構(gòu)開始考慮使用合成圖像,而非真實的照片,因為這樣成本更低,而且不需要為同意等問題擔(dān)憂?!?/p>
安特衛(wèi)普熱帶醫(yī)學(xué)研究所的阿爾謝尼?阿列尼切夫指出,這些圖像復(fù)制了貧困的視覺模式 —— 例如,孩子們手持空盤、裂開的土地和固有的刻板印象。
阿列尼切夫收集了超過 100 張被個人或非政府組織用于反對饑餓和性暴力的 AI 生成貧困圖像,他與《衛(wèi)報》分享的圖像呈現(xiàn)了夸張的、強化刻板印象的場景:孩子們蜷縮在泥水中;一位穿婚紗的非洲女孩,臉上留下淚痕。
AI 生成的“貧困”主題圖像正在 Adobe Stock Photos、Freepik 等多個知名圖庫網(wǎng)站上大量出現(xiàn),主題包括“難民營中的真實兒童”“亞洲兒童在垃圾河中游泳”“白人志愿者為非洲村莊的黑人兒童提供醫(yī)療咨詢”等。
阿列尼切夫指出,這些圖像過于種族化,根本不應(yīng)被允許發(fā)布,且強化了關(guān)于非洲、印度等地區(qū)的最糟糕刻板印象。
IT之家從報道中獲悉,生成式 AI 工具長期以來已被發(fā)現(xiàn)會復(fù)制甚至放大更廣泛的社會偏見。阿列尼切夫表示,此類圖片在全球衛(wèi)生傳播中的泛濫可能會加劇這一問題,其可能流入網(wǎng)絡(luò)并被用來訓(xùn)練下一代 AI 模型,進而加劇偏見。