55e27183385a2.png

 

阿蘭·圖靈是英國著名數(shù)學家、邏輯學家,被稱為計算機之父、人工智能之父;他曾經(jīng)構(gòu)思了著名的人工智能測試方法——圖靈測試。阿達?洛夫萊斯是詩人拜倫的女兒,也是一個世界級的數(shù)學家和科學思想家。她熱衷于創(chuàng)造一臺能模擬大腦如何產(chǎn)生想法和感受的機器,這要早于人工智能。她認為自己的做法是“詩意的科學”,美國國防部曾將一種計算機語言命名為Ada語言,來紀念她。

不過現(xiàn)在,請先忘記圖靈和阿達?洛夫萊斯曾經(jīng)進行過的人工智能測試吧,因為筆者要提出一個全新的人工智能測試——弗蘭普頓測試(Frampton Test)?;蛟S你會感到好奇,什么是“弗蘭普頓測試”呢?

回望過去的幾個世紀,我們可以發(fā)現(xiàn)似乎人類一直在試圖證明自己不是“動物”,而現(xiàn)在,人類可能要再證明下自己和“機器”其實并不一樣。

阿蘭·圖靈曾經(jīng)發(fā)明了一種所謂的“模擬游戲”,(其實就是著名的圖靈測試),用來測試機器是否能和人類一樣思考。比如當人類和機器進行交流時,如果一個人無法區(qū)別和自己進行交流的是人還是機器,那么這臺機器就算是通過了圖靈測試。最初,圖靈提出判斷人工智能的概念是“機器是否能夠像人類一樣思考”。但是后來人類自己也意識到,對于“思考”這個概念,就連人類自己都無法給出一個明確的定義。

欺騙圖靈測試

人類有很多不同的人格品質(zhì),比如有些人就比較刁滑。事實上,圖靈測試一直鼓勵計算機程序員設(shè)計一些“刁滑”的機器來迷惑人類判斷,這在本質(zhì)上能掩蓋真實的對話,讓機器“通過”圖靈測試。

這種“欺騙”在去年七月七日真的就實現(xiàn)了,在英國皇家學會的圖靈測試大賽中,一個名為 Eugene Goostman的家伙讓三分之一的評委覺得“他”是一個13歲的烏克蘭男生。

事實上,Eugene不是“人”,而是一個人工智能聊天程序,一款專門設(shè)計與人類進行聊天的計算機程序或聊天機器人。當然啦,受到某些超現(xiàn)實主義的影響,這款機器人還能和其他聊天機器人進行對話交流。見以下視頻:

 

不過,有批評家很快就指出,類似這種“人工智能欺騙”其實也是人為設(shè)定的,因此根本算不上真正的人工智能。因為將人類智能設(shè)置為一個13歲的烏克蘭男生,而測試是使用的英語,那么測試的時候就算出現(xiàn)一些低級錯誤,人們也會諒解:還能怎么樣,他只是一個13歲的外國小男孩?這帶來了極大的迷惑性。

創(chuàng)造性思維

如今,類似Eugene這樣的聊天機器人基本上已經(jīng)算是非常成功了,但對于研究人員來說,他們希望迎接更具挑戰(zhàn)性的使命:讓機器具有創(chuàng)造力!

四年前,Selmet Bringsjord、Paul Bello以及David Ferrucci三位研究人員擬建了“洛夫萊斯測試”,它是以十九世紀著名的數(shù)學家、程序員阿達?洛夫萊斯伯爵夫人的名字命名的。你可以要求計算機去創(chuàng)造一些東西,比如編一個故事或?qū)懸皇自姟?/span>

實際上,計算機寫詩、編故事,這些功能早就已經(jīng)實現(xiàn)了。事實上,《三體》的作者劉慈欣就曾經(jīng)開發(fā)了一個簡單的寫詩小程序“電子詩人”。但是要通過所謂的“洛夫萊斯測試”,所有設(shè)計相關(guān)程序的人必須能夠解釋它是如何生成這些創(chuàng)意作品的。

Mark Riedl來自佐治亞理工大學交互計算學院,他提出對“洛夫萊斯測試”進行升級,也就是“洛夫萊斯測試2.0版本”,一臺計算機必須要完成一系列越來越苛刻的創(chuàng)意挑戰(zhàn),之后會獲得一個分數(shù),并以此評估創(chuàng)造性。


在我的測試中,我們有人類評委坐在計算機對面。他們知道自己在與人工智能進行交互。他們會讓這個人工智能分兩個層級去完成一項任務(wù)。第一個層級,他們會要求人工智能創(chuàng)作一個有創(chuàng)意的作品,比如編一個故事、寫一首詩或畫一幅圖。接著,他們會提供一個標準,比如,“給我講一個關(guān)于‘貓的一天’的故事”,或是“給我畫一個抱著一只企鵝的人物畫像”等等。
創(chuàng)造力的偉大之處又是什么呢?

洛夫萊斯測試2.0版本可能具有一定挑戰(zhàn)性,但同時,又有人提出異議,因為他們認為不應(yīng)該把創(chuàng)造力看做是人類最重要的品質(zhì)。

事實上,在本月初舉辦的Robotronica 2015機器人創(chuàng)力大會上,Jared Donovan和機器人學家Michael Milford,以及舞蹈家Kim Vincs教授對人工智能創(chuàng)造力進行了一次專題討論。最近,很多業(yè)界人士(包括史蒂芬·霍金、比爾·蓋茨、以及埃隆·馬斯克)都認為人工智能有一天會導(dǎo)致人類滅亡,而在本屆機器人創(chuàng)力大會上的這次專題討論更多地是去關(guān)注創(chuàng)造力和機器人的現(xiàn)狀,以及人類更希望智能機器去表達什么樣的情緒或情感。

在人類的精神層面上,共鳴可以算得上是最高層次的一種情緒表達了,人類具有理解彼此,分享彼此感受的能力{而且在絕大多數(shù)情況下,彼此之間根本不需要做太多識別判斷,僅僅是一個眼神、一個動作,就能做到心有靈犀。

因此,筆者提出了“弗蘭普頓測試”這一概念,之所以要用著名搖滾傳奇Peter Frampton的名字來命名,其實是因為他在1973年的一首歌曲中提出了一個重要的問題……“你能像我們一樣感覺彼此嗎?”

我們知道,人類會在某些特定狀態(tài)里產(chǎn)生共鳴,同感彼此的感覺。弗蘭普頓測試也希望能夠達到這一目標,它要求人工智能系統(tǒng)必須在類似的某些特定狀態(tài)里,給出一個令人信服、且適當?shù)那榫w或情感回應(yīng)。


值得一提的是,人們已經(jīng)開始在相關(guān)領(lǐng)域里進行探索了,這種所謂“情感計算”的人工智能,希望能夠給機器灌輸模擬人類共鳴的能力,如果真的能夠?qū)崿F(xiàn)的話,這種具備人類情感的人工智能機器所產(chǎn)生的影響,或許會引發(fā)人們更多有趣的思考。

今年七月,人工智能和機器人研究人員發(fā)布了一封公開信,其中明確指出,如果機器人可以自動控制武器,未來將會是非常危險的。不過,如果機器人能具有人類的同情心,我們還會擔心開發(fā)這種殺傷性機器人嗎?

如果機器人具備了人類情感,比如同情心,它可能不會去殺人。但同樣地,讓機器人具備人類情感就真的是件好事兒嗎?我們知道,人類情感并不都是積極正面的,比如憎恨、憤怒、忿怨等等?;蛟S我們真的應(yīng)該感到慶幸,自己生活在一個沒有情感機器人的世界里面。(如果你調(diào)戲Siri之后,得到的是惡語相向的回答,真不知道會是個什么樣的場景。)

當然,如果你看看生活中的大環(huán)境就會發(fā)現(xiàn),其實積極正面的情感情緒依然在人類生活中占據(jù)了主導(dǎo)地位。

事實上,所有和人工智能相關(guān)的問題都值得認真思考,機器人是否會在未來某一天具有創(chuàng)造力,我們?nèi)祟愂欠裣M麢C器人具有創(chuàng)造力呢?諸如此類。

至于機器情感,我認為弗蘭普頓測試可能會應(yīng)用很長一段時間。當然啦,現(xiàn)階段那些機器人身上所表現(xiàn)出的強烈的情緒、情感,其實都是繼承自它們的創(chuàng)造者而已。

 

智能界(www.ukrainianorthodoxchurchinexile.com)是中國首家專注于報道智能科技前沿的綜合垂直媒體,秉承“引領(lǐng)未來智能生活”的理念,持續(xù)關(guān)注智能家居、可穿戴設(shè)備、智能醫(yī)療、機器人、3D打印、智駕等諸多科技前沿領(lǐng)域,提供最前沿、最時尚、最實用、最專業(yè)的硬件產(chǎn)品介紹、硬件評測、服務(wù)定制、最新資訊、圈子交流等服務(wù),致力于成為最具價值的智能科技信息互動平臺。
智能界【微信公眾號ID:znjchina】【新浪/騰訊微博:@智能界】

 

人已收藏

相關(guān)文章

評論列表(已有條評論)

最新評論