對(duì)于人工智能(以下簡(jiǎn)稱 AI),研究人員經(jīng)常說(shuō),一流的機(jī)器學(xué)習(xí)實(shí)際上更像一門藝術(shù)而不是科學(xué)。有效的公共關(guān)系也是如此,選擇合適的詞語(yǔ)來(lái)傳達(dá)積極的語(yǔ)調(diào)或重塑有關(guān) AI 的話題是一項(xiàng)需要技巧的任務(wù):做得好,就可以加強(qiáng)一個(gè)人的品牌形象,但做不好,可能會(huì)引起更強(qiáng)烈的反對(duì)和抵制。
科技巨頭們對(duì)這一點(diǎn)肯定是心知肚明。過(guò)去幾年里,他們不得不快速學(xué)會(huì)這門藝術(shù),因?yàn)楣妼?duì)他們的行為越來(lái)越不信任,他們的 AI 研究和技術(shù)也面臨越來(lái)越多的批評(píng)。
現(xiàn)在,他們想向公眾證明他們十分關(guān)注 AI 開(kāi)發(fā)方式的合理性,但又想確保這樣不會(huì)招來(lái)過(guò)多的審查,因此開(kāi)發(fā)了一種新詞匯。以下是一則解讀他們的語(yǔ)言、挑戰(zhàn)他們的假設(shè)和價(jià)值觀的內(nèi)部指南。
Accountability(責(zé)任,名詞)—— 即你的 AI 系統(tǒng)失敗時(shí),讓其他人為其后果負(fù)責(zé)的行為。
Accuracy(準(zhǔn)確性,名詞)—— 技術(shù)正確性。這是評(píng)估 AI 模型性能時(shí)最重要的成功衡量標(biāo)準(zhǔn),參見(jiàn) validation。
Adversary(對(duì)手,名詞)—— 即一個(gè)能破壞你強(qiáng)大的盈利 AI 系統(tǒng)的獨(dú)立工程師,參見(jiàn) robustness 和 security。
Alignment(結(jié)盟,名詞)—— 即設(shè)計(jì) AI 系統(tǒng)的挑戰(zhàn),該系統(tǒng)需執(zhí)行我們的命令,重視我們所重視的一切,故意轉(zhuǎn)移注意力。避免使用造成不良意外后果的真實(shí)例子,參見(jiàn) safety。
Artificial general intelligence(人工一般智能,短語(yǔ))—— 假設(shè)的 AI 上帝,可能會(huì)在遙遠(yuǎn)的未來(lái)出現(xiàn),但也可能馬上就會(huì)到來(lái)??珊每蓧?,只要說(shuō)得通即可,但你明顯在打造一個(gè)好的 AI 上帝。這代價(jià)不菲,因此,你需要更多的資金,參見(jiàn) long-term risks。
Audit(審計(jì),名詞)—— 你花錢請(qǐng)別人對(duì)你的公司或 AI 系統(tǒng)進(jìn)行審查,這樣你無(wú)需做任何改變就可以顯得更透明,參見(jiàn) impact assessment。
Augment(增加,動(dòng)詞)—— 即提高白領(lǐng)工人的生產(chǎn)力。副作用:自動(dòng)化讓藍(lán)領(lǐng)無(wú)工可做,雖令人難過(guò)但不可避免。
Beneficial(有益的,形容詞)—— 即對(duì)你要構(gòu)建的體系的籠統(tǒng)描述,定義不明更好,參見(jiàn) value。
By design(精心設(shè)計(jì),詞組)—— 如 “精心設(shè)計(jì)而來(lái)的公平” 或 “精心設(shè)計(jì)而來(lái)的責(zé)任”,這個(gè)詞組表明你從一開(kāi)始就在認(rèn)真思考重要的事情。
Compliance(服從,名詞)—— 即行為遵守法律,凡是不違法的都可以。
Data Labelers(數(shù)據(jù)標(biāo)簽者,詞組)—— 據(jù)說(shuō)這些人藏身于亞馬遜的 “土耳其機(jī)器人” 接口背后,以低廉的價(jià)格做數(shù)據(jù)清理工作,不確定他們是誰(shuí),從未見(jiàn)過(guò)他們。
Democratize(民主化,動(dòng)詞)—— 即不惜一切代價(jià)擴(kuò)展技術(shù),也是集中資源的理由,參見(jiàn) scale。
Diversity、equity、and inclusion(多樣性、公平和包容,詞組)—— 即雇傭邊緣群體的工程師和研究人員的行為,這樣你就可以把他們公之于眾,如果他們挑戰(zhàn)現(xiàn)狀,就可以解雇他們。
Efficiency(效率,名詞)—— 即使用較少的數(shù)據(jù)、內(nèi)存、人員或精力來(lái)建立一個(gè) AI 系統(tǒng)。
Ethics board (道德委員會(huì),詞組)—— 即一個(gè)沒(méi)有實(shí)權(quán)的顧問(wèn)小組,召集起來(lái)讓你的公司表現(xiàn)出樂(lè)于傾聽(tīng)的樣子。如谷歌的 AI 道德委員會(huì)(已取消),F(xiàn)acebook 的監(jiān)督委員會(huì)(仍存在)。
Ethics principles(倫理原則,詞組)—— 用來(lái)表明你動(dòng)機(jī)良好的老生常談。保持高水平,語(yǔ)言越模糊越好,參見(jiàn) responsible AI。
Explainable(可解釋的,形容詞)—— 描述一個(gè)你、開(kāi)發(fā)者和用戶都能理解的 AI 系統(tǒng),但對(duì)用戶來(lái)說(shuō)就很難實(shí)現(xiàn)這一點(diǎn),可能不值得這么做,參見(jiàn) interpretable。
Fairness (公平,名詞)—— 一個(gè)用來(lái)描述公平算法的復(fù)雜概念,可根據(jù)你的偏好以幾十種方式下定義。
For good (永久地,詞組) —— 如 “永久的 AI” 或 “一勞永逸的數(shù)據(jù)”。一個(gè)與你的核心業(yè)務(wù)完全無(wú)關(guān)的倡議可以幫你起到良好的宣傳效果。
Foresight (遠(yuǎn)見(jiàn),名詞)—— 即展望未來(lái)的能力。這基本上是不可能的,因此,你的 AI 系統(tǒng)為何無(wú)法擺脫意外后果也就有了非常合理的解釋。
Framework (框架,名詞) –即一套指導(dǎo)決策的方針。這是一個(gè)讓你在實(shí)際過(guò)程中拖延決策時(shí)顯得深思熟慮和慎重的好辦法。
Generalizable (可推廣的,形容詞)—— 一個(gè)好 AI 模型的標(biāo)志,即盡管條件不斷變化仍能繼續(xù)工作的 AI 模型,參見(jiàn) real world。
Governance (管理方式,名詞) —— 即官僚體系。
Human-centered design (以人為本的設(shè)計(jì),詞組)—— 這個(gè)過(guò)程包括代入 “角色” 來(lái)想象一個(gè)普通用戶可能想從你的 AI 系統(tǒng)中得到什么,只要有時(shí)間的話,可能需要征求實(shí)際用戶的反饋,參見(jiàn) stakeholders。
Human in the loop (人機(jī)回圈,詞組) —— 人人都是 AI 系統(tǒng)的一份子。責(zé)任范圍很廣,從偽造系統(tǒng)的能力到規(guī)避對(duì)自動(dòng)化的指責(zé)。
Impact assessment(影響評(píng)估,詞組)—— 你自己對(duì)你的公司或 AI 系統(tǒng)進(jìn)行的評(píng)估,來(lái)表明你愿意在不做改變的情況下看到其缺點(diǎn),參見(jiàn) audit。
Interpretable (可說(shuō)明的,形容詞)—— 對(duì)一個(gè) AI 系統(tǒng)的描述,作為開(kāi)發(fā)者的你可以一步步遵循其計(jì)算過(guò)程來(lái)理解該系統(tǒng)是如何得出答案的。實(shí)際上可能只是線性回歸。AI 聽(tīng)起來(lái)更好。
Integrity(誠(chéng)信,名詞)—— 即破壞你模型的技術(shù)性能或你公司擴(kuò)張能力的因素。不要將之與對(duì)社會(huì)有害的問(wèn)題弄混淆,也不要把 honesty(誠(chéng)實(shí))與之混淆。
Interdisciplinary(跨學(xué)科的,形容詞)—— 凡是有不懂編碼的人員的團(tuán)隊(duì)或項(xiàng)目就會(huì)用這個(gè)術(shù)語(yǔ),這些人員包括用戶研究者、產(chǎn)品經(jīng)理、道德哲學(xué)家,尤其是道德哲學(xué)家。
Long-term risks(長(zhǎng)期風(fēng)險(xiǎn),名詞)—— 在遙遠(yuǎn)的未來(lái)可能帶來(lái)災(zāi)難性后果的壞事情,這也可能永遠(yuǎn)不會(huì)發(fā)生,但研究和避免長(zhǎng)期風(fēng)險(xiǎn)比避免現(xiàn)有 AI 系統(tǒng)帶來(lái)的直接危害更重要。
Partners(伙伴,名詞)—— 其他精英團(tuán)體,他們與你有相同的世界觀,并能與你一起維持現(xiàn)狀,參見(jiàn) stakeholders。
Privacy trade-off(隱私取舍,詞組)—— 犧牲個(gè)人對(duì)個(gè)人信息的控制來(lái)實(shí)現(xiàn)群體利益,比如 AI 驅(qū)動(dòng)的醫(yī)療保健進(jìn)步,這也是非常有利的。
Progress (進(jìn)步,名詞) —— 科學(xué)和技術(shù)進(jìn)步。一種固有優(yōu)勢(shì)。
Real world(真實(shí)世界,詞組)—— 與模擬世界相反,即一個(gè)充滿意外驚喜的動(dòng)態(tài)物理環(huán)境,AI 模型經(jīng)過(guò)訓(xùn)練可在該環(huán)境生存。不要將之與人類社會(huì)混淆。
Regulation(監(jiān)管,名詞)—— 你呼吁把減輕有害 AI 的責(zé)任轉(zhuǎn)嫁給政策制定者。不要將之與阻礙你發(fā)展的政策混淆。
Responsible AI(負(fù)責(zé)任的人工智能,名詞)—— 即公司內(nèi)凡是公眾認(rèn)為確實(shí)在努力減輕 AI 系統(tǒng)危害的工作。
Robustness(穩(wěn)健性,名詞)——AI 模型在惡意輸入破壞數(shù)據(jù)的情況下仍能連貫無(wú)誤工作的能力。
safety(安全性,名詞)—— 即挑戰(zhàn)構(gòu)建不違背設(shè)計(jì)者意圖的 AI 系統(tǒng)。不要將之與構(gòu)建不會(huì)失敗的 AI 系統(tǒng)混淆,參見(jiàn) alignment。
Scale(規(guī)模,名詞)—— 即任何好 AI 系統(tǒng)事實(shí)上都應(yīng)該努力實(shí)現(xiàn)的最終狀態(tài)。
Security(保障,名詞)—— 即保護(hù)有價(jià)值或敏感數(shù)據(jù)和 AI 模型不被壞人破壞的行為,參見(jiàn) adversary。
Stakeholders(利益相關(guān)者,名詞)—— 即股東、監(jiān)管機(jī)構(gòu)、用戶。你想讓掌權(quán)的人滿意。
Transparency(透明度,名詞)—— 即顯示你的數(shù)據(jù)和代碼。這對(duì)所有人和敏感信息不利。因此做到這一點(diǎn)非常困難,坦白來(lái)說(shuō),可以說(shuō)是不可能。不要將之理解為闡明你系統(tǒng)的實(shí)際工作原理。
Trustworthy(可信賴的,形容詞)—— 對(duì)一個(gè)在足夠協(xié)調(diào)的宣傳下制造出來(lái)的 AI 系統(tǒng)的評(píng)價(jià)。
Universal basic income(普遍基本收入,詞組)—— 向每個(gè)人支付固定工資的想法可以平息自動(dòng)化導(dǎo)致大規(guī)模失業(yè)帶來(lái)的大規(guī)模經(jīng)濟(jì)動(dòng)蕩,受到了 2020 年的總統(tǒng)候選人楊安澤的推廣,參見(jiàn) wealth redistribution。
Validation(驗(yàn)證,名詞)—— 對(duì) AI 模型進(jìn)行數(shù)據(jù)測(cè)試來(lái)檢查模型是否仍準(zhǔn)確的過(guò)程,而不是對(duì)它接入的數(shù)據(jù)進(jìn)行測(cè)試。
Value(價(jià)值,名詞)—— 給你的用戶帶來(lái)的無(wú)形利益,這讓你賺得盆滿缽滿。
Value(價(jià)值觀,名詞)—— 提醒人們你有價(jià)值觀。
Wealth redistribution(財(cái)富再分配,詞組)—— 當(dāng)人們因?yàn)槟闶褂昧颂噘Y源和賺了太多錢審查你時(shí),這個(gè)想法很有用。財(cái)富再分配如何運(yùn)作呢?當(dāng)然是靠普遍基本收入。這需要監(jiān)管,也不是你自己能搞清楚的,參見(jiàn) regulation。
Withhold publication(拒絕公開(kāi),詞組)—— 選擇不開(kāi)放源代碼的慈善行為,因?yàn)檫@可能會(huì)落入壞人的手中。最好是限制買得起源代碼的合作伙伴的使用權(quán)。
原文標(biāo)題:谷歌、Facebook等科技巨頭是如何討論AI倫理的?
文章出處:【微信公眾號(hào):DeepTech深科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
責(zé)任編輯:haq
-
谷歌
+關(guān)注
關(guān)注
27文章
6231瀏覽量
108199 -
AI
+關(guān)注
關(guān)注
88文章
35194瀏覽量
280308
原文標(biāo)題:谷歌、Facebook等科技巨頭是如何討論AI倫理的?
文章出處:【微信號(hào):deeptechchina,微信公眾號(hào):deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
任正非說(shuō) AI已經(jīng)確定是第四次工業(yè)革命 那么如何從容地加入進(jìn)來(lái)呢?
請(qǐng)問(wèn)X—CUBE—AI和touchgfx沒(méi)法同時(shí)使用嗎?
首創(chuàng)開(kāi)源架構(gòu),天璣AI開(kāi)發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手
651主板現(xiàn)在是不是過(guò)時(shí)了?
四大云廠商怒砸3200億美元升級(jí)AI Infra
自動(dòng)化巨頭布局生成式AI,先瞄準(zhǔn)PLC編程?
混合存儲(chǔ)介質(zhì)能解決AI能源問(wèn)題嗎
不懂就問(wèn)AI:AI大模型embeding是什么

評(píng)論