用更好的人工智能建設(shè)更美好的社會
人工智能 (AI) 具有巨大的潛力,可以通過創(chuàng)新來改善社會的方方面面,從傳統(tǒng)工程系統(tǒng)到醫(yī)療保健,再到藝術(shù)和娛樂領(lǐng)域的創(chuàng)意過程。例如,在好萊塢,制片廠正在使用人工智能來揭示和衡量劇本中的偏見——制片人和編劇需要這些工具來創(chuàng)造更公平和更具包容性的媒體。
然而,人工智能的智能程度取決于它所訓(xùn)練的數(shù)據(jù),而這些數(shù)據(jù)反映了現(xiàn)實生活中的偏見。為了避免長期存在刻板印象和排他性,技術(shù)人員正在解決現(xiàn)實生活和創(chuàng)新中的公平和包容問題。
人類天生的偏見
由于技術(shù)人員希望使用 AI 來尋找以人為中心的解決方案來優(yōu)化行業(yè)實踐和日常生活,因此,注意我們與生俱來的偏見可能會產(chǎn)生意想不到的后果至關(guān)重要。
“作為人類,我們有很大的偏見,”德勤人工智能研究所全球負(fù)責(zé)人、德勤技術(shù)和人工智能倫理負(fù)責(zé)人 Ammanath說。“隨著這些偏見融入系統(tǒng),社會各部分很可能被拋在后面——代表性不足的少數(shù)族裔,無法使用某些工具的人——這可能會導(dǎo)致世界上更多的不平等?!?
如果系統(tǒng)是用有偏見的數(shù)據(jù)訓(xùn)練出來的,或者研究人員沒有考慮到他們自己的觀點如何影響研究方向,那么出發(fā)點是好的項目——創(chuàng)造平等的結(jié)果或減輕過去的不平等——最終仍可能產(chǎn)生偏見。
Ammanath表示,到目前為止,對 AI 偏見的調(diào)整通常是對發(fā)現(xiàn)有偏見的算法或事后出現(xiàn)的代表性不足的人口統(tǒng)計數(shù)據(jù)做出的反應(yīng)。但是,企業(yè)現(xiàn)在必須學(xué)習(xí)如何積極主動,盡早緩解這些問題,并為他們的人工智能工作中的失誤承擔(dān)責(zé)任。
人工智能中的算法偏差
在人工智能中,偏見以算法偏見的形式出現(xiàn)。“算法偏差是構(gòu)建 AI 模型的一系列挑戰(zhàn),”惠普實驗室首席架構(gòu)師兼惠普企業(yè) (HPE) 副總裁 Kirk Bresniker 解釋說?!拔覀兛赡軙龅教魬?zhàn),因為我們的算法無法處理不同的輸入,或者因為我們沒有收集到足夠廣泛的數(shù)據(jù)集來整合到我們的模型訓(xùn)練中。無論哪種情況,我們都沒有足夠的數(shù)據(jù)?!?/p>
算法偏差也可能來自不準(zhǔn)確的處理、數(shù)據(jù)被修改或有人注入錯誤信號。無論有意與否,這種偏見都會導(dǎo)致不公平的結(jié)果,可能會賦予一個群體特權(quán)或完全排除另一個群體。
例如,Ammanath 描述了一種算法,旨在識別不同類型的鞋子,例如人字拖、涼鞋、正裝鞋和運動鞋。然而,當(dāng)它發(fā)布時,該算法無法識別帶高跟鞋的女鞋。開發(fā)團(tuán)隊是一群剛畢業(yè)的大學(xué)畢業(yè)生——都是男性——他們從沒想過用女鞋訓(xùn)練它。
“這是一個微不足道的例子,但你意識到數(shù)據(jù)集是有限的,”Ammanath 說?!艾F(xiàn)在考慮使用歷史數(shù)據(jù)來診斷疾病或疾病的類似算法。如果它沒有針對某些體型、某些性別或某些種族進(jìn)行訓(xùn)練怎么辦?這些影響是巨大的?!?nbsp;
更好的人工智能意味著自我監(jiān)管和道德準(zhǔn)則
簡單地獲取更多(和更多樣化)的數(shù)據(jù)集是一項艱巨的挑戰(zhàn),尤其是在數(shù)據(jù)變得更加集中的情況下。數(shù)據(jù)共享帶來了許多問題,其中最重要的是安全和隱私。
科羅拉多大學(xué)博爾德分校媒體研究助理教授 Nathan Schneider 表示:“目前,我們面臨的情況是,個人用戶的權(quán)力遠(yuǎn)低于收集和處理其數(shù)據(jù)的大型公司。”
擴展的法律和法規(guī)很可能最終會規(guī)定何時以及如何共享和使用數(shù)據(jù)。但是,創(chuàng)新不會等待立法者。目前,人工智能開發(fā)組織有責(zé)任成為優(yōu)秀的數(shù)據(jù)管家,保護(hù)個人隱私,同時努力減少算法偏差。德勤的 Ammanath 表示,由于技術(shù)成熟得如此之快,不可能依靠法規(guī)來涵蓋所有可能的情況?!拔覀儗⑦M(jìn)入一個在遵守現(xiàn)有法規(guī)和自我監(jiān)管之間取得平衡的時代?!?/p>
這種自我監(jiān)管意味著提高構(gòu)建人工智能解決方案的整個技術(shù)供應(yīng)鏈的標(biāo)準(zhǔn),從數(shù)據(jù)到培訓(xùn)再到使這些解決方案成為可能所需的基礎(chǔ)設(shè)施。此外,企業(yè)需要為跨部門的個人創(chuàng)造途徑,以提出對偏見的擔(dān)憂。雖然不可能完全消除偏見,但企業(yè)必須定期審核其人工智能解決方案的有效性。
由于人工智能的高度情景語境性質(zhì),每家企業(yè)的自我監(jiān)管看起來都不同。例如,HPE 制定了道德 AI 準(zhǔn)則。來自整個公司的各種不同的人花了將近一年的時間共同制定公司的人工智能原則,然后與廣泛的員工一起審查這些原則,以確保它們可以被遵循并且它們對企業(yè)文化有意義。
HPE 的 Bresniker 說:“我們希望提高對這些問題的一般理解,然后收集最佳實踐。這是每個人的工作——在這個領(lǐng)域有足夠的認(rèn)知?!?nbsp;
人工智能技術(shù)已經(jīng)成熟,從研究發(fā)展到實際應(yīng)用和價值創(chuàng)造,遍及所有行業(yè)。人工智能在社會上的日益普及意味著企業(yè)現(xiàn)在有道德責(zé)任提供強大的、包容的和可訪問的解決方案。這種責(zé)任促使組織(有時是第一次)檢查他們拉入流程的數(shù)據(jù)。 Bresniker說:“我們希望人們能建立起這種遠(yuǎn)見,對輸入的數(shù)據(jù)有可衡量的信心。”“他們有能力阻止持續(xù)的系統(tǒng)性不平等,為更美好的未來創(chuàng)造公平的結(jié)果。”