美國(guó)VICE新聞網(wǎng)12月6日文章,原題:人工智能并不“智能” 克麗絲特爾·考夫曼已在亞馬遜旗下的眾包網(wǎng)站MTurk工作7年?挤蚵f(shuō),其中許多工作都是訓(xùn)練人工智能(AI)項(xiàng)目。她是推動(dòng)AI發(fā)展的大量勞動(dòng)力中的一員,他們的工作包括查看大數(shù)據(jù)以標(biāo)記圖像、過(guò)濾不適合上班時(shí)間瀏覽的內(nèi)容、為圖像和視頻中的物體注釋等。對(duì)于許多公司內(nèi)部的開(kāi)發(fā)人員來(lái)說(shuō),這些工作既機(jī)械又單調(diào)乏味,通常被外包給零工工人或主要生活在南亞和非洲并為數(shù)據(jù)公司打工的人。
像Meta和亞馬遜這樣的大公司擁有強(qiáng)大的AI開(kāi)發(fā)團(tuán)隊(duì)?萍季揞^設(shè)想在不遠(yuǎn)的未來(lái),AI可以代替許多人類(lèi)工作,并釋放出新的生產(chǎn)力。但這種愿景忽視了一個(gè)現(xiàn)實(shí),即我們認(rèn)為的大部分AI,其實(shí)都是由從事單調(diào)乏味工作的低報(bào)酬人類(lèi)勞動(dòng)力來(lái)推動(dòng)的?挤蚵f(shuō):“我們習(xí)慣于做一些我們不知道用途的事情,我們只知道我們是在為一些大型科技設(shè)備勞作。你可能很少會(huì)聽(tīng)到一家大型科技公司承認(rèn)隱藏在技術(shù)背后的隱形勞動(dòng)力!
實(shí)際上,科技公司會(huì)雇用數(shù)以萬(wàn)計(jì)的零工工人幫助開(kāi)發(fā)AI。AI開(kāi)發(fā)與材料生產(chǎn)周期之間的共同點(diǎn)遠(yuǎn)比我們意識(shí)到的多得多。
牛津大學(xué)互聯(lián)網(wǎng)研究院公平工作項(xiàng)目博士后研究員凱勒·豪森表示:“我認(rèn)為公眾并沒(méi)有深入意識(shí)到這是一條供應(yīng)鏈的現(xiàn)實(shí)。實(shí)際上,這是一條全球供應(yīng)鏈,建立在大量人類(lèi)勞動(dòng)力的基礎(chǔ)之上。”
與其他全球供應(yīng)鏈一樣,AI的鏈條也非常不平衡。位于全球南方的發(fā)展中國(guó)家正通過(guò)承擔(dān)低工資工作來(lái)推動(dòng)AI系統(tǒng)發(fā)展,包括測(cè)試、數(shù)據(jù)注釋與標(biāo)記以及內(nèi)容審核等,而位于全球北方的國(guó)家則是“權(quán)力中心”!皬脑谖⒐ぷ髌脚_(tái)上工作的人數(shù)來(lái)看,‘全球南方’遠(yuǎn)遠(yuǎn)超過(guò)‘全球北方’。這些平臺(tái)上的大部分勞動(dòng)力供應(yīng)都集中在‘全球南方’,而大多數(shù)需求都位于‘全球北方’”,豪森說(shuō),“我們從農(nóng)業(yè)食品、紡織業(yè)等其他供應(yīng)鏈的經(jīng)驗(yàn)中得知,當(dāng)這些工作外包給低收入勞動(dòng)力和低收入國(guó)家時(shí),通常很難保證良好的工作條件和應(yīng)有的勞動(dòng)保護(hù)!
在2021年一篇有關(guān)全球勞動(dòng)力如何促進(jìn)AI發(fā)展的論文中,包括康奈爾大學(xué)計(jì)算機(jī)科學(xué)系博士生奧克洛在內(nèi)的研究人員認(rèn)為,目前將“全球南方”工人納入AI鏈條是一種不平等的現(xiàn)象,西方國(guó)家利用來(lái)自“全球南方”的人和資源獲取廉價(jià)勞動(dòng)力,以使其機(jī)構(gòu)和企業(yè)從中獲利。今年5月,前內(nèi)容審核員在肯尼亞內(nèi)羅畢提起訴訟,指責(zé)Meta及其外包伙伴Sama存在的不公現(xiàn)象。Sama員工對(duì)《時(shí)代》周刊表示,他們每小時(shí)僅能獲得1.5美元,在查看暴力相關(guān)的圖像與視頻后,至少有兩名內(nèi)容審核員被診斷出患有創(chuàng)傷后應(yīng)激障礙等精神疾病。
研究人員指出,像Sama這樣的標(biāo)記和內(nèi)容審核公司雖在美國(guó)運(yùn)營(yíng),但其勞動(dòng)力嚴(yán)重依賴(lài)撒哈拉沙漠以南非洲和東南亞的低工資工人。專(zhuān)家表示,外包對(duì)大型科技公司有利,不僅為它們省錢(qián),還能使它們更容易躲避?chē)?yán)格的司法審查。大多數(shù)人都認(rèn)同這種現(xiàn)實(shí):從開(kāi)發(fā)模型到審核錯(cuò)誤,人類(lèi)將永遠(yuǎn)是AI的一部分。因此,AI專(zhuān)家認(rèn)為,人們應(yīng)該聚焦于如何使AI開(kāi)發(fā)以合乎道德和可持續(xù)的方式讓人類(lèi)參與其中。(作者Chloe Xiang,崔曉冬譯)