每個(gè)人都想要負(fù)責(zé)任的人工智能,但很少有人為此采取行動(dòng)

來源: 西安童程童美少兒編程培訓(xùn)碑林校區(qū) 發(fā)布時(shí)間:2023-12-12

較近的一項(xiàng)調(diào)查顯示,雖然近十分之九的企業(yè)-都認(rèn)為制定有關(guān)人工智能(AI) 道德和企業(yè)責(zé)任的明確指導(dǎo)方針非常重要,但幾乎沒有人承認(rèn)他們有這樣的指導(dǎo)方針。 

這些發(fā)現(xiàn)表明,人們對需要采取哪些方法來管理人工智能的采用感到困惑,技術(shù)專業(yè)人員需要挺身而出,其以數(shù)據(jù)為主導(dǎo)的計(jì)劃的 安全和道德發(fā)展。

該結(jié)果來自科技公司 Conversica 發(fā)布的一項(xiàng)基于 500 名商界觀點(diǎn)的調(diào)查,調(diào)查顯示:“調(diào)查中得出了一個(gè)響亮的信息:大多數(shù)受訪者認(rèn)識(shí)到,制定明確的指南對于負(fù)責(zé)任地使用信息技術(shù)至關(guān)重要。公司內(nèi)部的人工智能,尤其是那些已經(jīng)采用該技術(shù)的公司。” 

近四分之三 (73%) 的受訪者表示人工智能指南不可或缺。然而,只有 6% 的人制定了明確的人工智能使用道德準(zhǔn)則,36% 的人表示他們可能會(huì)在未來 12 個(gè)月內(nèi)制定準(zhǔn)則。

即使在生產(chǎn)中使用人工智能的公司中,目前使用人工智能的公司中,五分的者也承認(rèn)對其組織的人工智能相關(guān)政策了解有限或一無所知。超過三分(36%)的人聲稱僅“稍微熟悉”與政策相關(guān)的問題。

報(bào)告作者指出,解決負(fù)責(zé)任人工智能問題的指導(dǎo)方針和政策應(yīng)納入治理、公正的訓(xùn)練數(shù)據(jù)、偏見檢測、偏見緩解、透明度、準(zhǔn)確性以及人類監(jiān)督。

約三分之二 (65%) 的受訪高管表示,他們已經(jīng)或計(jì)劃在未來 12 個(gè)月內(nèi)推出人工智能服務(wù)。人工智能的主要用例包括支持互動(dòng)功能,例如客戶服務(wù)和營銷(39%),以及產(chǎn)生分析見解(35%)。

調(diào)查發(fā)現(xiàn),人們對人工智能輸出較關(guān)心的問題是當(dāng)前數(shù)據(jù)模型的準(zhǔn)確性、虛假信息和缺乏透明度。超過四分之三(77%)的高管對人工智能產(chǎn)生虛假信息表示擔(dān)憂。

商界表示,人工智能提供商沒有提供足夠的信息來幫助制定指導(dǎo)方針,尤其是在數(shù)據(jù)安全和透明度以及制定強(qiáng)有力的道德政策方面。 

大約三分之二 (36%) 的受訪者表示,他們的企業(yè)對使用生成式 AI 工具(例如Chat GPT)有規(guī)則。但 20% 的受訪者表示,在可預(yù)見的未來,他們的公司將給予員工個(gè)人使用人工智能工具的自由。

Conversica 的調(diào)查顯示,在實(shí)現(xiàn)負(fù)責(zé)任的人工智能方面存在差距。那么,技術(shù)者和業(yè)務(wù)線專業(yè)人員如何挺身而出,確保負(fù)責(zé)任的人工智能實(shí)踐到位?以下是Google 人工智能團(tuán)隊(duì)分享的一些關(guān)鍵指南 :

  • 使用以人為本的設(shè)計(jì)方法: “實(shí)際用戶體驗(yàn)系統(tǒng)的方式對于評(píng)估其預(yù)測、建議和決策的真實(shí)影響至關(guān)重要。內(nèi)置適當(dāng)披露的設(shè)計(jì)功能:清晰度和控制對于良好的用戶至關(guān)重要在設(shè)計(jì)過程的早期對潛在的不利反饋進(jìn)行建模,然后在部署之前對一小部分流量進(jìn)行特定的實(shí)時(shí)測試和迭代。”
  • 與不同的用戶和用例場景互動(dòng): “在項(xiàng)目開發(fā)之前和整個(gè)過程中納入反饋。這將為項(xiàng)目構(gòu)建豐富多樣的用戶觀點(diǎn),并增加從技術(shù)中受益的人數(shù)。”
  • 使用公平和包容性的具體目標(biāo)來設(shè)計(jì)模型:  “考慮技術(shù)及其隨著時(shí)間的發(fā)展將如何影響不同的用例:代表誰的觀點(diǎn)?代表什么類型的數(shù)據(jù)?遺漏了什么?”
  • 檢查系統(tǒng)是否存在不公平偏見:  “例如,組織一群值得信賴的、多樣化的測試人員,他們可以對系統(tǒng)進(jìn)行對抗性測試,并將各種對抗性輸入納入單元測試中。這可以幫助識(shí)別誰可能會(huì)遇到意想不到的不利影響。甚至低錯(cuò)誤率可能會(huì)導(dǎo)致偶爾出現(xiàn)非常嚴(yán)重的錯(cuò)誤。”
  • 在困難的情況下對系統(tǒng)進(jìn)行壓力測試:  “這將使您能夠快速評(píng)估您的系統(tǒng)在每次更新系統(tǒng)時(shí)可能特別有害或有問題的示例上的表現(xiàn)。與所有測試集一樣,您應(yīng)該不斷更新此集隨著系統(tǒng)的發(fā)展,功能會(huì)被添加或刪除,并且您會(huì)從用戶那里獲得更多反饋。”
  • 測試、測試、測試: “學(xué)習(xí)軟件工程較佳測試實(shí)踐和質(zhì)量工程,以確保人工智能系統(tǒng)按預(yù)期工作且值得信賴。進(jìn)行嚴(yán)格的單元測試,單獨(dú)測試系統(tǒng)的每個(gè)組件。進(jìn)行集成測試了解各個(gè)機(jī)器學(xué)習(xí)組件如何與整個(gè)系統(tǒng)的其他部分交互。”
  • 使用黃金標(biāo)準(zhǔn)數(shù)據(jù)集來測試系統(tǒng)并確保其繼續(xù)按預(yù)期運(yùn)行:  “根據(jù)不斷變化的用戶和用例定期更新此測試集,并減少在測試集上進(jìn)行訓(xùn)練的可能性。進(jìn)行迭代用戶測試在開發(fā)周期中納入不同的用戶需求。”
  • 應(yīng)用防錯(cuò)的質(zhì)量工程原理:  “在系統(tǒng)中建立質(zhì)量檢查,以便意外故障不會(huì)發(fā)生或觸發(fā)立即響應(yīng) - 例如,如果意外丟失重要功能,人工智能系統(tǒng)將不會(huì)輸出預(yù)言。”

企業(yè)可能希望快速實(shí)施人工智能,但必須謹(jǐn)慎確保工具及其模型的準(zhǔn)確和公平。雖然企業(yè)正在尋求人工智能的進(jìn)步,但該技術(shù)每次都必須提供負(fù)責(zé)任的結(jié)果。

咨詢機(jī)構(gòu)
推薦課程