過去一年,我們親眼見證了人工智能的爆發(fā):無人駕駛汽車上路、語音識(shí)別屢屢突破、機(jī)器翻譯更上層樓、人工智能甚至還掌握了古老復(fù)雜的圍棋……看起來似乎人工智能很快就將無所不能了。
雖然人工智能取得了如此之多的成功,但同時(shí)它也鬧出了很多笑話,其中一些事件更是冒犯了一些群體和個(gè)人。了解這些人工智能的「失敗」案例,能夠幫助我們防微杜漸,預(yù)防未來可能出現(xiàn)的更嚴(yán)重的人工智能失誤。路易斯維爾大學(xué) Cybersecurity Lab 主任 Roman Yampolskiy 近日的一篇論文《Artificial Intelligence Safety and Cybersecurity: a Timeline of AI Failures》概述了人工智能「與這樣的系統(tǒng)被設(shè)計(jì)所表現(xiàn)的智能直接相關(guān)的」失敗的歷史。
據(jù) Yampolskiy 表示,這些類型的失敗都可歸因于這些人工智能系統(tǒng)在學(xué)習(xí)階段的錯(cuò)誤或在表現(xiàn)階段的錯(cuò)誤。
這里 TechRepublic 所列舉的人工智能十大失敗事件是根據(jù) Yampolskiy 的論文和多位人工智能專家的意見整理而成的。
1. 為預(yù)測未來犯罪所打造的人工智能是種族主義的
Northpointe 公司開發(fā)了一個(gè)設(shè)計(jì)用來預(yù)測被指控的罪犯再次犯罪的幾率的人工智能系統(tǒng)。這個(gè)被 Gawker 稱為「少數(shù)派報(bào)告類型」(借鑒自 Philip K. Dick 的一篇小說和衍生電影)的算法被指控帶有種族偏見,因?yàn)橄啾扔谄渌N族,黑人罪犯被標(biāo)注為未來可能再次犯罪的概率要大得多。而另一家媒體 ProPublica 還發(fā)現(xiàn) Northpointe 的算法「即使不管種族上的問題,也通常不能有效地預(yù)測。」
2. 一個(gè)視頻游戲中的非玩家角色創(chuàng)造出創(chuàng)造者規(guī)劃之外的武器
今年 6 月,一個(gè)加入了人工智能的視頻游戲 Elite: Dangerous 表現(xiàn)出了一些其創(chuàng)造者計(jì)劃之外的能力:該人工智能有能力創(chuàng)造出超出游戲設(shè)定之外的超級(jí)武器。據(jù)一家游戲網(wǎng)站表示:「玩家會(huì)遭遇那些裝備有能將他們的戰(zhàn)艦粉碎的可笑武器的戰(zhàn)艦。」這些武器后來被該游戲的開發(fā)者撤下了。
3. 機(jī)器人使一個(gè)兒童受傷
今年 7 月份,一個(gè)由 Knightscope 平臺(tái)所創(chuàng)造的一個(gè)所謂的「打擊犯罪機(jī)器人(crime fighting robot)」在硅谷的一家商場里使一個(gè) 16 月大的男童受傷。洛杉磯時(shí)報(bào)援引該公司的話稱這場意外是一個(gè)「奇怪的事故(freakish accident)」。
4. 特斯拉 Autopilot 模式下的死亡
今年五月份,在佛羅里達(dá)的一條高速公路上,Joshua Brown 駕駛著一輛開啟了 Autopilot 模式的特斯拉與一輛拖車發(fā)生了碰撞并最終隕命。這是涉及該公司的第一例死亡事件。事故發(fā)生后,特斯拉已經(jīng)發(fā)布了對其 Autopilot 軟件的重大更新,Elon Musk 聲稱該更新可以防止這樣的碰撞發(fā)生。此外今年也還出現(xiàn)了其它一些與 Autopilot 相關(guān)的死亡事故,包括發(fā)生在中國的一起,但這些其它事故并不與人工智能的失敗直接相關(guān)。
5. 微軟的聊天機(jī)器人 Tay 發(fā)布種族主義、性別歧視和攻擊同性戀言論
為了和年輕的消費(fèi)者搞好關(guān)系,今年春季的時(shí)候微軟在 Twitter 上發(fā)布了一個(gè)人工智能驅(qū)動(dòng)的聊天機(jī)器人 Tay。Tay 原本是為模仿一個(gè)十幾歲的美國青少年女孩而設(shè)計(jì)的,但在和用戶開放對話后不到一天的時(shí)間里,它就變成了一個(gè)「熱愛希特勒、譏諷女權(quán)主義」的噴子。微軟很快就下線了 Tay,并宣布將會(huì)對 Tay 的算法進(jìn)行調(diào)整。另外提一點(diǎn),近日微軟新的英語聊天機(jī)器人 Zo 又在 Kik 平臺(tái)上線了(https://earlyaccess.zo.ai/),希望這一次它會(huì)表現(xiàn)更好吧。
6. 人工智能評(píng)美有種族歧視
據(jù)大賽網(wǎng)站稱,在「首屆國際人工智能選美大賽」上,基于「能準(zhǔn)確評(píng)估人類審美與健康標(biāo)準(zhǔn)的算法」的機(jī)器人專家組對面部進(jìn)行評(píng)判。但由于未對人工智能提供多樣的訓(xùn)練集,比賽的獲勝者都是白人。就像 Yampolskiy 說的,「美人在模式識(shí)別器中」。
7.Pokémon Go 使得游戲玩家集中到白人社區(qū)
7 月份,Pokémon Go 發(fā)布之后,多個(gè)用戶注意到極少的 Pokémon 位于黑人社區(qū)。據(jù) Mint 的首席數(shù)據(jù)官 Anu Tewary 說,這是因?yàn)樗惴ǖ陌l(fā)明者沒有提供多樣的訓(xùn)練集,在黑人社區(qū)上沒有花費(fèi)時(shí)間。
8. 谷歌人工智能 AlphaGo,敗給了李世乭一局
在 3 月份的圍棋大賽中,谷歌的人工智能系統(tǒng) AlphaGo 4 比 1 擊敗了韓國李世乭。失敗的一局表明人工智能算法如今還不完美。
新南威爾斯大學(xué)的人工智能教授 Toby Walsh 說「看起來,李世乭發(fā)現(xiàn)了蒙特卡洛樹搜索中的一個(gè)弱點(diǎn)?!闺m然被視為人工智能的一次失敗,但 Yampolskiy 說此次失敗「可認(rèn)為在正常操作規(guī)范之內(nèi)?!?/font>
9. 中國的面部識(shí)別學(xué)習(xí)預(yù)測罪犯,有偏見
上海交通大學(xué)的兩個(gè)研究人員發(fā)表了一篇名為「Automated Inference on Criminality using Face Images」的論文。據(jù) Mirror 報(bào)道,他們「將 1856 張面部圖片(一半是罪犯)饋送進(jìn)電腦并進(jìn)行分析」。在此研究中,研究人員總結(jié)說「有一些可識(shí)別的結(jié)構(gòu)特征來預(yù)測犯罪,比如唇曲率(lip curvature)、眼內(nèi)角距(eye inner corner distance),以及所謂的口鼻角度(nose-mouth angle)?!诡I(lǐng)域內(nèi)的許多人質(zhì)疑這些結(jié)果和道德問題。
10. 保險(xiǎn)公司使用 Facebook 數(shù)據(jù)觀察出現(xiàn)問題的概率,有偏見
今年,英格蘭最大的汽車保險(xiǎn)商 Admiral Insurance 打算使用 Facebook 用戶的推文數(shù)據(jù)觀察社交網(wǎng)站與好司機(jī)之間的聯(lián)系。
雖然這不是一次直接的失敗,確是對人工智能的濫用。Walsh 說「Facebook 在數(shù)據(jù)限制上做的很好」。這一被稱為「first car quote」的項(xiàng)目未能落地,因?yàn)?Facebook 限制該公司獲取數(shù)據(jù),援引條款稱國營企業(yè)不能「使用來自 Facebook 的數(shù)據(jù)做關(guān)于資質(zhì)的決策,包括支持或反對一項(xiàng)應(yīng)用,以及貸款利率應(yīng)該提多少等?!?/font>
在以上案例的證明下,人工智能系統(tǒng)極其傾向于有偏見。在多樣的數(shù)據(jù)集上訓(xùn)練機(jī)器學(xué)習(xí)算法,從而避免偏見變得極其重要。隨著人工智能能力的增加,確保研究的適當(dāng)檢測、數(shù)據(jù)多樣性和道德標(biāo)準(zhǔn)也更為重要。