機器人能讀懂你的情緒嗎?蘋果(Apple)、谷歌(Google)、Facebook等科技公司的答案似乎是肯定的。它們共斥資數十億美元用于研發能讀懂情緒的設備,讓設備利用人工智能與人類進行有意義(并可帶來利潤)的互動。
這些企業正寄望于一種流行了100多年的有關情緒的看法:微笑、憤怒和其他面部活動都是在表達某種情緒,這是與生俱來的,而且是全球相通的。但這種看法正確嗎?科學家在全球各地進行了實驗。他們利用面部動作的圖片(噘嘴、微笑),每張圖片的后面都列出一些描述情緒的詞匯(悲傷、驚訝、高興等等),然后要求實驗對象選擇與面部動作最匹配的詞匯。有時,他們會講述一個有關情緒的故事,然后讓實驗對象在不同的面部表情中做出選擇。
西方人大約有85%選擇了預期詞匯。東方人的得分較低,但總的來說,這足以說明眼睛睜大、皺鼻和其他面部動作都是全球通用的情緒表達方式。這些研究重復了多次,結果都一樣,通用的情緒似乎成了刀槍不入的科學事實,就像重力法則一樣,這對于機器人和他們的創造者來說是個好消息。
然而,如果你稍微調整一下這些情緒匹配實驗,表情具有普適性的證據就消失了。如果去掉情緒詞匯列表,讓實驗對象用他們知道的情緒詞匯來描述圖片或聲音。在這些實驗中,美國實驗對象的正確率不到50%,對于與西方接觸不多的遙遠文化的實驗對象而言,結果就更不同了。
總的來說,我們發現,這些實驗以及其他各種情緒匹配實驗(提供了情緒具有普適性的主要證據)以一種微妙的方式把預期的答案教給了實驗參與者,而這是幾十年來人們未曾注意到的——就像無意中的打小抄。在現實中,你并沒有在“閱讀”面部和聲音。提供細微提示的周圍環境以及你在類似情境下的經驗,讓你把面部活動和聲音視為是情緒的表達。
雙眉緊鎖可能意味著一個人生氣了,但在其他背景下,這可能意味著他們在思考問題或因為光照強烈而瞇著眼。你的大腦處理速度很快,以至于別人的面部和聲音似乎在表達一種情緒。假想中的能讀懂情緒的機器人需要大量知識和背景來猜測一個人的情緒體驗。
那么通用情緒的觀點從何而來?多數科學家舉出查爾斯.達爾文(Charles Darwin)1872年的著作《人與動物的情緒表達》(The Expression of the Emotions in Man and Animals)作為證據,證明面部表情是自然選擇的通用產物。實際上,達爾文從未這么說過。這種說法源于上世紀20年代的心理學家弗洛伊德.奧爾波特(Floyd Allport),他的進化論解釋工作被認為是出自達爾文,這致使錯誤的觀點延續了近一個世紀。
機器人會變得足夠復雜以至于奪走需要理解情緒的工作嗎?例如銷售人員或護士。我認為,這不太可能很快出現。你或許可以制造一臺能夠在特定環境下經過長期學習從而理解人類面部表情的機器人。但把所有文化中所有人的面部表情概括出來就困難多了,即便是簡單的頭部動作。在一些文化中,搖頭的意思是“是”,點頭的意思是“不”。把這些動作搞反的機器人會很可憐。那些依賴這些機器人的人類就更可憐了。
盡管如此,科技公司正尋求研發能讀懂情緒的設備,盡管其科學基礎可疑。任何情緒都沒有通用的表達方式來供機器人識別,多樣性才是常態。
本文作者著有《情緒如何產生:大腦的秘密生活》(How Emotions Are Made:The Secret Life of theB rain)一書