機(jī)器人不只有三定律,人工智能引發(fā)了九大問(wèn)題
隨著人工智能越來(lái)越強(qiáng)大,智能機(jī)械正改善我們的生活,然而不僅是技術(shù)的快速發(fā)展,人類(lèi)的想象早已延伸至更遠(yuǎn)之處,著名科幻小說(shuō)家艾薩克. 艾西莫夫(Isaac Asimov)早在 1942 年就針對(duì)機(jī)器人技術(shù)的發(fā)展提出了三大定律,以探討未來(lái)人類(lèi)對(duì)人工智能(AI,Artificial Intelligence)的應(yīng)用以及所面對(duì)的倫理道德問(wèn)題。 如今隨著想像越來(lái)越逼近現(xiàn)實(shí),人工智能所引發(fā)的問(wèn)題已不止如此而已。
失業(yè)與貧富差距
機(jī)器人技術(shù)的發(fā)展,首要面對(duì)的問(wèn)題其實(shí)早已被廣泛認(rèn)知,就算不是科學(xué)家或是哲學(xué)家,現(xiàn)代民眾也能清楚的理解此一問(wèn)題必然會(huì)發(fā)生,那就是—失業(yè)。 勞動(dòng)的層次與自動(dòng)化的程度有關(guān),在自動(dòng)化作業(yè)之下,人類(lèi)會(huì)逐漸轉(zhuǎn)往負(fù)責(zé)更復(fù)雜的戰(zhàn)略及認(rèn)知活動(dòng)。 例如卡車(chē)司機(jī),目前有數(shù)千萬(wàn)人在從事這樣的工作,但如果正如特斯拉(Tesla)所承諾,未來(lái)十年內(nèi)自動(dòng)駕駛車(chē)輛將會(huì)被廣泛使用,那么這些人將會(huì)如何? 但從另外一個(gè)角度來(lái)看,自駕車(chē)的普及將會(huì)大幅減少交通事故傷亡率,那么自駕技術(shù)的應(yīng)用就變成了一個(gè)道德的選擇,人命或者是失業(yè)?
或許有一天我們回頭看看現(xiàn)在的經(jīng)濟(jì)型態(tài)會(huì)認(rèn)為,讓人類(lèi)出售自己的時(shí)間僅為了活下去是一種很野蠻的行為。 目前人類(lèi)的工資大部分仰賴(lài)于時(shí)薪,然而通過(guò)使用人工智能將大幅減少所需的勞動(dòng)力,這也意味著失業(yè),但除了失業(yè)以外,還有另一個(gè)問(wèn)題,機(jī)器人的勞動(dòng)所得該由誰(shuí)分享? 在現(xiàn)今自動(dòng)化還沒(méi)有真的那么普及時(shí),貧富差距就已經(jīng)非常的大,當(dāng)機(jī)器人取代人類(lèi)勞工之后,相信貧富差距將會(huì)更加嚴(yán)重,該如何建立一個(gè)公平的經(jīng)濟(jì)社會(huì)就是第二個(gè)問(wèn)題。
互動(dòng)、錯(cuò)誤及偏見(jiàn)
人工智能引發(fā)的另一個(gè)層面問(wèn)題出自于人類(lèi)的社會(huì)性。 在 2015 年,一架機(jī)器人名為 Eugene Goostman 成功通過(guò)了圖靈測(cè)試(Turing Test)。 在這個(gè)測(cè)試中,測(cè)試人員必須分別跟真人與機(jī)器人對(duì)話,若機(jī)器人能成功瞞騙過(guò)測(cè)試人員,讓他們誤以為是真人便成功了,而 Eugene Goostman 成功的欺騙了一半以上的測(cè)試元。 這是一個(gè)時(shí)代的里程碑,機(jī)器人可以開(kāi)始與人類(lèi)互動(dòng)并建立關(guān)系,甚至比人類(lèi)更有效率去維持人際關(guān)系,因?yàn)槠渥⒁饬Σ](méi)有限制,人工智能未來(lái)將成為人際關(guān)系中不可或缺的一部分,該如何與機(jī)器互動(dòng)這是人類(lèi)必須面臨的問(wèn)題。
機(jī)器人在未來(lái)是如此重要,但實(shí)際上就算再怎么高效仍然會(huì)存在盲點(diǎn),有可能會(huì)被有心人士愚弄甚至是利用,如何讓機(jī)器能夠發(fā)揮其應(yīng)有的功能,而不是遭受或引發(fā)不必要的破壞便是重要的問(wèn)題。 例如機(jī)器其實(shí)并沒(méi)有想象中的那么中立,因?yàn)槿斯ぶ悄芤彩峭ㄟ^(guò)學(xué)習(xí)而建立起來(lái)的,所以人類(lèi)一樣能夠帶給機(jī)器偏見(jiàn)并使其產(chǎn)生錯(cuò)誤的判斷,例如 Google 曾發(fā)展一項(xiàng)技術(shù),將影像識(shí)別用于預(yù)測(cè)未來(lái)罪犯時(shí),卻發(fā)現(xiàn)其擁有對(duì)于黑人的偏見(jiàn),這就是一個(gè)嚴(yán)重的問(wèn)題。
安全、威脅與控制
人工智能產(chǎn)生了錯(cuò)誤與偏見(jiàn)時(shí),可能會(huì)對(duì)人類(lèi)造成安全上的威脅,如同電影一般。 所以接下來(lái)的三個(gè)問(wèn)題是有關(guān)于如何維持人工智能的信息安全,以及若人工智能得出具有威脅人類(lèi)安全的偏見(jiàn)時(shí),該如何應(yīng)對(duì)? 又如何能保證繼續(xù)控制這些機(jī)器人? 或許在技術(shù)上可以設(shè)計(jì)讓人工智能無(wú)法直接去威脅人類(lèi)安全,如同機(jī)器人三定律,但盡管如此,這些科幻情節(jié)發(fā)生的機(jī)率可能比想象中還高,例如當(dāng)人工智能在思考如何消滅癌癥時(shí),經(jīng)過(guò)大量的計(jì)算后它可能會(huì)得到這樣的結(jié)論—盡可能減少地球人口。 這可能真的是最有效的方法,但沒(méi)有人會(huì)期待,雖然聽(tīng)起來(lái)像是一個(gè)玩笑,但如果未來(lái)人類(lèi)真的必須仰賴(lài)機(jī)器人來(lái)維持社會(huì)的運(yùn)作,那么這個(gè)玩笑就一點(diǎn)也不好笑。 在《機(jī)械公敵》(I,Robot)電影中,盡管出于善意,但機(jī)器人的確還是殺人了。
機(jī)器人權(quán)
當(dāng)神經(jīng)科學(xué)家努力的工作后,令機(jī)器人也能擁有好惡的基本機(jī)制,就像人類(lèi)對(duì)動(dòng)物的訓(xùn)練一樣,雖然目前的技術(shù)還不夠成熟,但正變得更加復(fù)雜,也使機(jī)器人更加栩栩如生,使其成為感知和行為的實(shí)體。 當(dāng)這項(xiàng)技術(shù)更加的先進(jìn)以至于機(jī)器人也擁有情緒之后,人類(lèi)是否應(yīng)該要去考慮其感受,機(jī)器人是否也應(yīng)受到法律的保障,擁有機(jī)器人的基本人權(quán)。
無(wú)庸置疑的,發(fā)展高度先進(jìn)的人工智能將會(huì)有很大的風(fēng)險(xiǎn),但是也必須要記得這將會(huì)是使人類(lèi)能夠繼續(xù)前進(jìn)的動(dòng)力,讓生活更加美好的途徑。 人工智能的潛力與威脅,其實(shí)一直都取決于人類(lèi)自己。