我們需要的人工智能:助手還是替代者-全球熱門

2023-04-25 02:30:35 來源:齊魯壹點(diǎn)

科技進(jìn)步預(yù)示著人類生活的進(jìn)步與改善,但是當(dāng)科技進(jìn)步到來之時(shí),我們往往來不及思考它將如何影響我們的生活,于是出現(xiàn)了新的道德困境。從基于大數(shù)據(jù)的罪犯畫像到無人駕駛,從未來的性別認(rèn)同到人類在虛擬世界中的互動(dòng)關(guān)系,從基因編輯引發(fā)的倫理擔(dān)憂到人工子宮和人體冷凍法,《未來道德:來自新科技的挑戰(zhàn)》一書匯集了29位哲學(xué)家的文章,就現(xiàn)已出現(xiàn)以及即將面世的未來科技可能對(duì)人類社會(huì)帶來的倫理挑戰(zhàn)做出了深入的剖析與預(yù)測,從哲學(xué)的角度思考未來科技與人類的命運(yùn)如何相互作用。當(dāng)下,人工智能的發(fā)展正受到越來越多的關(guān)注,這就催生出了一個(gè)問題:我們能否通過利用這些技術(shù),改善我們?cè)谖磥淼闹匾獑栴}上做出的決策?本文為書中選摘,以饗讀者。


(相關(guān)資料圖)

《未來道德:來自新科技的挑戰(zhàn)》

[英]大衛(wèi)·埃德蒙茲 編著

蔣蘭 譯

中國科學(xué)技術(shù)出版社

文|杰斯·惠特斯通

在人類認(rèn)知領(lǐng)域,有許多我們司空見慣的事物被證明很難被機(jī)器復(fù)制。比如,我們能夠?qū)⑿螒B(tài)各異的椅子或者狗歸類,還能識(shí)別具有不同光影、背景、視角的圖像。這些對(duì)我們來說輕而易舉的事,在人工智能系統(tǒng)的設(shè)計(jì)中卻很難被實(shí)現(xiàn)。相反,我們認(rèn)為下國際象棋需要運(yùn)用更多智慧,但事實(shí)是人工智能只需要簡單粗暴的學(xué)習(xí)就能輕松掌握。

一般來說,和機(jī)器相比,人類的認(rèn)知能力已經(jīng)被證明是十分強(qiáng)大且靈活的。當(dāng)我們細(xì)想每天要處理多少復(fù)雜和模棱兩可的信息,要做多少個(gè)決定時(shí),像適應(yīng)我們所處的環(huán)境和通過別人的表情了解他們的情緒這種“小事”就更加容易受到關(guān)注。

因?yàn)槲覀兠媾R的世界有著極大的復(fù)雜性和不確定性,我們不可能將每一個(gè)決策做到盡善盡美。所以,我們選擇經(jīng)驗(yàn)主義的捷徑:不假思索地走上以前一直走過的路。我們總是模仿周圍人的行為。我們總是過濾掉大量非急需的信息。要想同時(shí)理解人類思想的優(yōu)勢和短板,我們就一定要明白我們接收和處理信息的能力是有限的,所以我們需要“經(jīng)驗(yàn)法則”幫助我們理解這個(gè)極其復(fù)雜和充滿不確定性的世界。這些基于經(jīng)驗(yàn)的捷徑思維在大部分情況下十分奏效,但是它們也系統(tǒng)性地限制了我們的思想。

我們?cè)跊Q策中簡單粗暴地基于經(jīng)驗(yàn)捷徑行事也意味著保持一致性并非我們的強(qiáng)項(xiàng)。在不同的日子問我同一個(gè)問題,我可能會(huì)根據(jù)你對(duì)問題的表達(dá)和我當(dāng)時(shí)的想法,給出不同的回答。事實(shí)上,因?yàn)槲覀儽仨氉咴S多捷徑,所以在面對(duì)復(fù)雜且模棱兩可的信息時(shí),我們?nèi)菀琢?xí)得“錯(cuò)覺相關(guān)”。換句話說,就是讓我們相信并不存在的模式或聯(lián)系。

這些局限性似乎會(huì)特別影響我們應(yīng)對(duì)全球性挑戰(zhàn)的能力。這些挑戰(zhàn)需要我們提前做好準(zhǔn)備,并在應(yīng)對(duì)時(shí)采取集體行動(dòng)。但正是這些挑戰(zhàn)的“全球性”讓我們很難對(duì)它們進(jìn)行理解和預(yù)測:當(dāng)面對(duì)哪些干預(yù)措施最能有效減輕氣候變化,核武器的威脅有多大,或者是新型傳染病的傳播速度有多快等復(fù)雜問題時(shí),我們的直覺變得不再可靠。在回答這些問題時(shí),我們很容易給出看似言之有理但是過于簡單的結(jié)論,并在這上面浪費(fèi)大量的時(shí)間和資源。

我們?cè)谌祟悰Q策中見識(shí)到的偏見和錯(cuò)誤,證明了我們大腦承載的信息量超出了我們能夠承受的范圍,即所謂的信息過載。在很多方面,這種信息過載的情況只增不減——我們?cè)诰W(wǎng)絡(luò)上接觸到越來越多信息,我們比以往任何時(shí)候都有更多選擇。這讓我們處理信息的局限性愈發(fā)凸顯。

對(duì)于利用人工智能改善決策,我們有兩種截然不同的認(rèn)知方式。

第一種是將人工智能系統(tǒng)視作人工決策的替代品:越來越多的決策被外包給能夠更快更高效地解決問題的自動(dòng)化系統(tǒng)。舉一個(gè)簡單的例子,谷歌地圖在獲悉一個(gè)城市的所有路徑,以及計(jì)算從A點(diǎn)到B點(diǎn)的最優(yōu)路徑等事上勝過我的大腦,所以很多時(shí)候我都會(huì)將制定路線的決策外包給它,不假思索地按照它的導(dǎo)航走。

第二種是將人工智能系統(tǒng)視作人類能力的補(bǔ)充:它們能幫助我們以全新且重要的方式理解這個(gè)世界。我們不能簡單地認(rèn)為這些方式優(yōu)于人類理解世界的方式,兩者應(yīng)是互補(bǔ)的。在有些事上,我更了解我的城市,比如哪些路線在晚上最安全,哪些路線在白天的風(fēng)景最好,這些信息都不容易被谷歌地圖的軟件收錄。谷歌地圖可以幫助我規(guī)劃耗時(shí)最短的路線,以節(jié)省我的體力和時(shí)間,但是在其他情況下,我會(huì)把谷歌地圖導(dǎo)航與我已知的其他知識(shí)相結(jié)合使用。

當(dāng)前許多有關(guān)人工智能在社會(huì)中的運(yùn)用的討論都含蓄地指向第一種觀點(diǎn):也就是用更高效、更優(yōu)秀的人工智能決策程序取代人類決策。這一觀點(diǎn)似乎也加強(qiáng)了許多有關(guān)人工智能對(duì)社會(huì)和人類產(chǎn)生的潛在影響的擔(dān)心:工作中自動(dòng)化的增長究竟對(duì)經(jīng)濟(jì)、不平等以及人存在的意義意味著什么;那些被設(shè)定在決策算法中的偏見令人困擾;人工智能開始在越來越多的領(lǐng)域中取代人類,而它的安全性和可靠性究竟幾何。鑒于這些擔(dān)憂,我們的社會(huì)應(yīng)該問一個(gè)重要的問題:我們是否真的希望,或者需要構(gòu)建一套人工智能系統(tǒng)以取代人工服務(wù)?我的建議是,我們應(yīng)該更明確地考慮將人類和機(jī)器各自的優(yōu)勢相結(jié)合,尤其是在我們的社會(huì)面臨最關(guān)鍵的問題時(shí)。

由于人類推理的局限性源于我們有限的認(rèn)知能力,我們有充分的理由認(rèn)為人工智能可以幫助我們克服這些具體的局限性,并與我們的思維優(yōu)勢互補(bǔ)。當(dāng)處理諸如說服他人或與他人交流等多數(shù)日常問題時(shí),人工智能系統(tǒng)往往不如人類靈活高效,但是它們可以幫助我們更加精確可靠地理解大量復(fù)雜信息。在聯(lián)合國最近的一份關(guān)于人工智能的報(bào)告中,聯(lián)合國糧食及農(nóng)業(yè)組織表示:“人工智能最重要的作用……是預(yù)測意外事件、威脅和危機(jī)。通過早期發(fā)現(xiàn)、預(yù)防和緩解等手段,我們就可以在饑荒、氣候變化、移民等挑戰(zhàn)成為危機(jī)前將其解決。”

人工智能與人類能力優(yōu)勢互補(bǔ)的另一種顯著方式是為我們提供工具,更嚴(yán)格地設(shè)計(jì)決策過程,從而幫我們做出更一致、更系統(tǒng)的決策。

實(shí)際上,最近在社會(huì)上,由人工智能的使用產(chǎn)生的諸多問題,都源于它們被用于自動(dòng)執(zhí)行那些包含著主觀因素的決策:有關(guān)某人是否應(yīng)該被假釋,是否應(yīng)得到這份工作,以及是否應(yīng)向其提供貸款等問題的決策。算法可以為我們推算來自某一特定群體的人再次犯罪、成功就業(yè)或償還貸款的概率等統(tǒng)計(jì)信息。但是基于這些統(tǒng)計(jì)信息,誰應(yīng)該得到怎樣的機(jī)會(huì)仍是一個(gè)沒有標(biāo)準(zhǔn)的問題。毫無疑問,遵循算法可能會(huì)最終加劇不公:如果少數(shù)族裔在招聘中一向受到歧視,那么數(shù)據(jù)將會(huì)顯示他們?cè)诠ぷ髦谐晒Φ母怕瘦^低,從而導(dǎo)致他們?cè)谖磥硎艿礁嗟钠缫暋?/p>

但是,如果我們將在這些背景中使用的算法視作范圍更廣的決策中的一項(xiàng)數(shù)據(jù)分析,那么我們更容易關(guān)注并減輕對(duì)于偏見的擔(dān)憂。我們不應(yīng)該期望人工智能系統(tǒng)能夠理解人類價(jià)值觀的復(fù)雜性和細(xì)微差別。鑒于人類和人工智能各自的相對(duì)優(yōu)勢,這顯然不是它們目前最能幫助到我們的地方。

盡管如此,當(dāng)涉及情況特殊、具有主觀性的決策時(shí),算法有時(shí)可以幫助我們更清晰地梳理問題,減少我們?cè)谡J(rèn)知過程中下的功夫:提取關(guān)鍵信息,確保我們不會(huì)忽略重要因素,并幫助我們更清晰地思考復(fù)雜系統(tǒng)中的因果關(guān)系。

如果我們把人工智能更多地視作對(duì)人類決策的支持與補(bǔ)充而不是后者的替代品,我們可能會(huì)發(fā)現(xiàn)我們最需要的絕不是如今被大肆宣傳和被研究人員高度關(guān)注的極其復(fù)雜的機(jī)器學(xué)習(xí)能力。對(duì)于許多重要的現(xiàn)實(shí)問題,最被我們需要的并不一定是最佳的計(jì)算機(jī)視覺和自然語言處理能力,因?yàn)槲覀兊囊曈X和語言能力已經(jīng)非常優(yōu)秀了。我們最需要的是較為簡單的大數(shù)據(jù)分析,以及架構(gòu)推理和決策的實(shí)用性工具。

(摘選自《未來道德:來自新科技的挑戰(zhàn)》,內(nèi)容有刪減,標(biāo)題為編者所加)

標(biāo)簽:

上一篇:【當(dāng)前獨(dú)家】興齊眼藥:硫酸阿托品滴眼液獲得境內(nèi)生產(chǎn)藥品注冊(cè)上市許可《受理通知書》
下一篇:最后一頁
業(yè)界
更多
手機(jī)
更多
測評(píng)
軟件
數(shù)碼