一段百度掌門人李彥宏乘坐無人駕駛汽車上北京五環(huán)的視頻,引發(fā)社會各界的關注和熱議。在車流密集的環(huán)路上試驗是否危及公共安全?無人駕駛如何與現(xiàn)行法律對接?這些問題瞬間在輿論場討論開來。
無人駕駛汽車已不是新聞——國外有谷歌、Uber、福特、豐田,國內有百度、清華大學、國防科技大學,都在研發(fā)無人駕駛技術。但顯然,關于這項技術的社會學、倫理學討論才剛剛開啟。它所面臨的最大拷問其實是,人工智能如何在科技倫理中做出抉擇?這種預先設計的抉擇能夠保證都帶來“善”的結果嗎?這是個“元問題”,其他法治、管理和公共安全問題,只是這個問題的子命題。
曾有論者設想過這樣的場景:想象你的無人駕駛汽車停在路口等待前面的行人過馬路,這時候,你的車子發(fā)現(xiàn)后面有另一輛卡車沖過來,看起來無可避免地要發(fā)生追尾事故了,但是你坐在前排座位上,這樣的事故只會給你帶來一點小傷——至少不會致命。如果你的汽車具備規(guī)避程序,就可以立馬躲開,移到旁邊的車道去,而卡車就會沖進路口,碾壓行人。這種情況下,無人駕駛汽車事前設定的“規(guī)避”程序,是善還是惡的?
在由人駕駛的汽車里,是讓自己受一點小傷還是讓無辜行人送命,依賴于每個人的抉擇,結果也由每個人承擔。但無人駕駛汽車既然有預定程序,那么如果選擇規(guī)避追尾,則對無辜行人有“蓄意傷害”之嫌;如果選擇承擔追尾,則沒有對車主完成保護義務。
評論者所提出的這一情境,其實是倫理學領域知名思想實驗“電車難題”的翻版?!半娷囯y題”的內容大致是:一個瘋子將五名無辜的人綁在一條電車軌道上,而一輛失控的電車正向他們沖去。幸運的是,你可以拉動操縱桿將電車轉至另一軌道。然而,該名瘋子在那條軌道上也綁了一個人。此時此刻,這根操縱桿,你拉還是不拉?在“電車難題”被提出的20世紀60年代,手握操縱桿的是“人”,但現(xiàn)在,面臨拷問的是人工智能。
要作答其實更為艱難。因為人的道德選擇多樣,倫理學各個流派產生了各種各樣的回答,比如,功利主義者可能認為犧牲一個人比犧牲五個人更為道德;自由主義者可能認為每個生命的主體權利是平等的,為了五個人犧牲一個人同樣是“惡”;但問題是,在這種情境下設計無人駕駛汽車的程序該如何作答。這是包含無人駕駛、人工智能、克隆技術、試管嬰兒等等在內的新技術都遭遇的科技倫理困境。
人們對此次無人駕駛試驗的質疑,深層上說,很大程度上來自于對“人工智能將怎樣做出倫理選擇”的不安。而和每一種新技術一樣,無人駕駛的技術性“完成”只是第一步,嵌入人類整體的倫理社會生活,才是最艱難的考驗。(作者:劉文嘉)
《光明日報》( 2017年07月09日 06版)
相關新聞
更多>>