重蹈偽科學歷史覆轍?
AI測謊面世近百年的測謊機(polygraph),測試結果不可靠已是不爭的事實,然而,背後的思路從未消失,近年更有科學家希望結合人工智能(AI),製造新一代甚至未來的 AI測謊 機器,有些更已於歐美國家邊境關口測試。
但是,這些看似複雜的新測謊工具即使混入了AI熱潮,並不代表它們一定有效,甚至可能跟幾十年前的測謊機一樣,沒有足夠科學根據。
測謊機量脈搏呼吸 口裏說謊身體很誠實
當你隱瞞一些事情而說謊時,有否感到心跳加速、身體冒汗?最早出現的測謊機雛形,要追溯至1870年。意大利心理學家Angelo Mosso發現人們在撒謊時,心跳和脈搏跳動次數會增加,其學生於是做了脈搏測量儀。1906年,心理學家James Mackenzie發表了測謊儀的論文,把這個脈搏測量儀命名為Polygraph,也就是現代測謊機的名稱。直至後來,在有「測謊機之父」之稱的心理學家William Marston推動下,測謊機在法庭等領域應用,及後他亦出版了《測謊機測試》一書,解釋測謊機的原理和應用。
撒謊比說真話更「用腦」
傳統的測謊機,記錄和量度血壓、心跳、流汗、呼吸頻率等生理反應,測謊專家藉此判斷受測者有否說謊。
1990年代,美國研發的電腦化聲紋(聲音頻率圖譜)測謊儀,根據受測者聲紋變化,來判斷說話的真確性。2006年美國賓州天普大學發表的腦波測謊技術聲稱最準確,研究的Feroze B. Mohamed教授曾表示:「人在說謊時腦部有14個區塊會被啟動,說實話時腦部只啟動7個區塊。」因為說謊的人,須先回想以往說過的話,才知道怎樣繼續撒謊,比說真話的人更耗腦力。
歐洲經驗
拉脫維亞、匈牙利和希臘則測試過另一套名為iBorderCtrl的系統。該系統使用英國曼徹斯特都會大學(MMU)在千禧年代開發的Silent Talker技術,以AI分析超過40種微表情。旅客到達機場前,先要登錄一個網站上載護照相片,網站會有一個虛擬關員問一些常見的海關檢查問題,旅客需要口頭回答,系統之後會給旅客一個二維碼(QR Code)。入境時,關員會以平板電腦掃描二維碼,採集指紋和核實容貌是否脗合上載照片。最後,電腦顯示一個以100為滿分的分數,令關員參考旅客的資料是否可信。
曾協助英國警察提升盤問技巧、專門研究騙案的英國德比大學(University of Derby)刑事偵查教授Ray Bull直言iBorderCtrl「不可靠」,因為根本沒有證據顯示監控人面的微表情是準確的測謊方法:「他們在欺騙自己相信這系統會極之有效,但其實只是浪費大量金錢。這技術從根本上誤解了人類在真誠和欺騙時的所作所為。」
AI測謊 準確性成疑
事實上,美國新聞網站The Intercept記者在7月報道了其率先測試iBorderCtrl的結果,記者如實回答了16條問題,卻被機器指有4條說謊,最終只有48分。難怪倫敦大學學院神經科學家Chris Frith質疑:「現有的測謊機極不可靠,但無人清楚為什麼AI會好過它們。所以我不相信它可以準確閱讀個人情感和偵測謊言。好的騙子是不會情緒化的。」
一些研究本身的設計也有漏洞。 佛羅里達州立大學訊息學教授Shuyuan Ho希望,測謊不限於執法用途。在今年2月的《人類行為中的計算機》(Computers in Human Behavior)期刊中,她與史丹福大學的科學家提出了所謂的「線上測謊機系統」,聲稱只要觀察二人的打字交談內容和速度就可測謊。他們找來40人參與研究,2人1組用Google Hangout互相問答。參與者被隱藏了真實身份,在每個回合對話開始前才知道自己要扮演的是每句都是真話的「聖人」,還是每句都說謊的「罪人」。這些交談記錄包括了每句回應花了多少時間,研究人員把部份數據用來訓練一個機器學習模型,再用其餘數據測試它可否分辨誰是聖人、誰是罪人。
Mircea Zloteanu指出,人有很多種講大話的方式。根本沒有木偶皮諾丘(Pinocchio)的鼻子,沒有一種我們知道的東西可以每次都可靠地預測大話。
紐約大學AI Now研究院創辦人Kate Crawford認為,線上對話測謊只是「偵測表現」而非謊言:「研究只是在看人們玩遊戲時的語言規律,這與他們現實生活中的說話方式很不同。」 Ho建議的未來應用,Crawford也只視為延續那段不光彩的測謊歷史:「銀行可能想要一個很便宜的方法來決定要不要批貸款,但我們到底想不想再次喚起這段方法備受質疑的實驗的歷史?」
專家的質疑
就如十六世紀法國哲學家蒙田(Michel de Montaigne)說,真相只有一面,但謊言「有十萬種形狀而無固定界限」。也正如英國提賽德大學(Teeside University)心理學講師Mircea Zloteanu對Avatar的批評:「人有很多種講大話的方式。根本沒有木偶皮諾丘(Pinocchio)的鼻子,沒有一種我們知道的東西可以每次都可靠地預測大話。」他又指,演算法不能量度或理解某個人行為的意圖或原因。
更甚的是,在實際使用上,被測試的人對這些理據和效果存疑的新測謊技術不明就裏。一方面,AI模型存有「黑箱」問題,即我們沒有辦法完全知道它的理性。就連Silent Talker創辨人James O’Shea也坦承:「我們不知道它如何運作,AI系統自己學習如何做到。」
另一方面,程序上亦同樣有欠透明。被iBorderCtrl列為危險的人可被禁止入境,但測試結果不會向旅客透露,故旅客無法知道是否因為這項測試而被拒入境。The Intercept的記者也只能按照歐洲私隱法例入紙申請,才能取得自己的數據複本。位於意大利米蘭的赫耳墨斯透明與數碼人權中心(Hermes Center for Transparency and Digital Human Rights)也曾按資訊自由法例取得這系統一些內部文件,但所得的數百頁紙內容早已大量被刪,有很多頁更被完全遮蔽。中心研究員Riccardo Coluccini批評:「以拒絕提供有關這些議題的文件來嘗試壓制爭論,實在令人恐懼。絕對有必要理解資助過程背後的理由。到底這些文件寫了什麼?那個聯盟有否充分理據使用這樣的偽科學技術?」
全新 Digital Marketing 體驗,請聯絡 Web 仔。