1. 創(chuàng)業(yè)頭條
  2. 前沿領域
  3. AI智能
  4. 正文

從人工智能變成“人工智障” 聊天機器人殤在哪?

 2018-03-21 17:14  來源:A5專欄  我來投稿 撤稿糾錯

  一鍵部署OpenClaw

來源|智能相對論

【摘要:2018年,F(xiàn)acebook關閉虛擬助手「M」,亞馬遜Alexa產品發(fā)出怪笑,聊天機器人市場“事故頻發(fā)”,究竟是誰扼殺了聊天機器人?】

試想一下,一個靜謐的午夜,你和家人正在熟睡,家中突然響起毛骨悚然的笑聲,時遠時近,這困擾了大人,驚嚇了孩子。而這一切的怪笑,都是由Alexa發(fā)出的。作為Amazon的主推產品,Alexa這一動作讓許多用戶陷入恐慌之中。

目前,亞馬遜方面并沒有對此次Alexa出現(xiàn)故障的原因進行詳盡解釋,并且它強調這是在“極少數(shù)情況”下才會發(fā)生的,盡管網上反映的問題代表不了Echo的數(shù)千萬用戶,但可以看出亞馬遜對此事的態(tài)度其實不以為意。

類似的情況,在聊天機器人身上已經不是第一次發(fā)生。兩年前,微軟Twitter平臺的聊天機器人Tay變成了“種族主義者”,不到一年,它的后續(xù)產品Zo又再次出現(xiàn)問題。Zo將*稱作“非常暴力”,并且它認為抓住本·拉登“不止一個政府多年情報收集”的結果。

 

從人工智能變成“人工智障”,聊天機器人殤在哪?2.jpg

 

Zo發(fā)表的不宜言論

之前,F(xiàn)acebook關閉了虛擬助理「M」,團隊相關成員分散到其他部門任職。聊天機器人的發(fā)展,道阻且長。

智能機器人變成“人工智障”?

「我們可能都希望能生活在這樣的世界里:和機器人有著最自然的對話,它將一切任務都執(zhí)行得完美無瑕。這一路走來確實不容易,而且說實話我們已經發(fā)展得很快了?!筆olitibot的Suárez認為:「但不幸的是,我們還沒有到那個理想的生活狀態(tài),還要好幾年,機器人才能好到普羅大眾都能接受?!?/p>

然而,現(xiàn)實卻遠不及Suárez的預期,聊天機器人依然存在著眾多問題。2016年,F(xiàn)acebook Messenger開放其程序接口后,收到的用戶反饋卻遠不及預期。眾多機構確實可以在短時間內擁有自己的智能聊天機器人,但當此類機器人無人類干預時,這些機器人的應答失敗率高達70%,用戶體驗更是相當糟糕。

從“圖靈測試”到Eliza的精神治療,聊天機器人發(fā)展至今已經走過了近70年,在漫長的發(fā)展歷程中,聊天機器人并未得到真正的普及,現(xiàn)今依然存在著諸多弊病。

是誰讓聊天機器人變成了這樣?智能相對論認為,是人類,更是機器本身。部分核心技術及適配性問題,依然是聊天機器人的阿喀琉斯之踵:

1.復雜語言識別困難

現(xiàn)代化聊天機器人的對話界面主要依賴于語音識別,從而根據(jù)用戶命令做出便捷迅速的反應,比如“下午三點去參加會議”、“今天的天氣怎樣”等。

語言作為一種主觀性較強的表達方式,人們說話的規(guī)則具有一定的變化性。這和電腦程序不同,人們表達不會完全受制于規(guī)則,能夠自由的遣詞造句,并以此來傳遞信息。除了地方方言外,每個人也會有自己的表達方式,例如心照不宣的“暗語”,或者某些特定的“梗”。這就需要聊天機器人“去陌生化”,僅僅完美keyword/keyword地理keyword/keyword解結構化語言的系統(tǒng)將難以滿足大量用戶的需求,這對聊天機器人的系統(tǒng)提出了更高的要求。

以Richard S.Wallac設計的Alice聊天機器人為例,其在中文處理問題上,就存在一些問題。這是因為漢語不像英語等語言,用空格或其他標記分詞,這就加大了ALICE對中文支持的難度。此外,其對于漢語分詞采用的一般匹配法、詞頻統(tǒng)計法、同義句的處理等方面也存在著許多技術難題。

 

從人工智能變成“人工智障”,聊天機器人殤在哪?3.jpg

 

“人工智障”般的聊天機器人

2.個性化適配之痛

個性化適配的問題體現(xiàn)在兩個方面,一方面人機信任是聊天機器人個性化發(fā)展的一個重點攻堅點。調查顯示,許多公司領導對于聊天機器人處理待辦事項是并不看好的,聊天機器人程式化的語言會讓許多人覺得“乏味”、“沒有人氣”,這也是公司助理一職并未被取代的原因。

另一方面,聊天機器人很容易對人的需求產生誤讀。比如對Siri發(fā)出“區(qū)塊鏈”的指示,Siri提供的是關于區(qū)塊鏈的百度百科,這與用戶想要了解區(qū)塊鏈的最新發(fā)展動態(tài)的初衷大相徑庭。

目前聊天機器人語音識別主要基于語音識別的基本架構、聲學模型、語言模型并進行解碼,而真正通過用戶畫像來實現(xiàn)個性化適配的聊天機器人少之又少。其實,不同用戶的性格、特點、知識層次都不相同,如果有預設的用戶畫像,那出現(xiàn)適配失誤的可能性也會大大減小。

 

從人工智能變成“人工智障”,聊天機器人殤在哪?4.jpg

 

當前語音識別的通常模式

縱觀歷史上機器學習能夠做到的事情,都是一些字符識別(OCR),語音識別,人臉識別一類的,這些稱之為“識別系統(tǒng)”。這些系統(tǒng)存在的問題在于難以變通,簡單的語音識別難以真正為用戶較為復雜的工作助力,線性的識別方式也難以適用于更開放式的應用場景。

3.隱私安全終成隱憂

Facebook爆史上最大數(shù)據(jù)泄露案,特朗普被指利用AI競選成功,這也讓更多的聊天機器人用戶對自身的隱私感到隱憂。“Alexa發(fā)笑”事件中亞馬遜公司對于事件原因的閃爍其詞,似乎用戶數(shù)據(jù)已經進入了一個“圍墻花園”的模式。語音分析和人工智能軟件存在于一個黑匣子中,而這些軟件只有硅谷的開發(fā)人員才能真正理解。很難想象,如果你將一切的智能家居與聊天機器人連接起來時,這一切都在一個你無法擁有也無法控制的計算機上控制著你的生活以及你的家。

作為語音識別領域的領軍人物,微軟于2016年也僅僅將錯誤率控制在5.8%左右??墒请S著人工智能進一步拓展到金融、醫(yī)療等領域,1%的錯誤率導致的可能是財產的損失和生命的安全。

 

從人工智能變成“人工智障”,聊天機器人殤在哪?5.jpg

 

微軟語音識別錯誤率(2016年)

此外,配套設施的不完善難以讓聊天機器人發(fā)展成了一個嚴密的體系,這使得初次試水的用戶對此頗有微詞。聊天機器人何時能夠完善到能夠大范圍普及,這也是產品長足發(fā)展需要認真思考的問題。

死地而后生,聊天機器人或許需要“洗心革面”

曾經火遍全球的索菲婭機器人最近攤上大事了。Yan LeCun(機器人專家)指責索菲婭與人類堪稱完美的聊天是一場徹頭徹尾的騙局,以目前人工智能的技術來看,此種對話是不可能達到的。然而能像人那樣自然地聊天的機器人一直以來都是機器人學者所追求的目標之一,這是一個漫長的過程。

而在2018年年初,F(xiàn)acebook關閉了虛擬助理「M」,這像是壓死駱駝的最后一根稻草,許多品牌對聊天機器人已經不再感興趣,聊天機器人的發(fā)展走進了一個死胡同。曾經熱極一時的聊天機器人似乎遭遇了滑鐵盧,死地而后生,智能相對論(ID:aixdlun)認為,可以從三個方面“洗心革面”。

1. 塑造聊天機器人的“獨立三觀”

能夠獨立表達喜歡、不喜歡和偏好怎樣的人類性格,在聊天的過程中展示出誠實和值得信任等可貴品質是塑造聊天機器人“獨立三觀”的重要體現(xiàn)。正如聊天機器人被引入日常生活,我們還能訓練機器人去識別我們的語言,挖掘我們的喜好,甚至還能分析我們的口音,推測我們的情緒。

通過自然語言和情感分析,Quartz公司嘗試著讓Quartzy來指導特定用戶做面包。Quartzy會以一種友好且有趣的方式和用戶聊聊「怎么做一個免揉面包」,這項體驗會持續(xù)兩天,一旦用戶完成了第一個步驟,Quartzy會在大概12小時后,用Facebook Messenger給你「?!挂粋€通知,提醒你完成后續(xù)的步驟。這是機器人獨立三觀的一個體現(xiàn),當然希望以后這樣的嘗試會更加普及。

2.從“鸚鵡學舌”到“烏鴉喝水”

“鸚鵡學舌”是借由人類語言的模仿行為,其類似于當前由數(shù)據(jù)驅動的機器人。“烏鴉喝水”則是一個完全的自主行為,其含括了感知、認知、推理、學習、和執(zhí)行,這是聊天機器人朝想象力、創(chuàng)造力更高層次的進階。目前,要真正實現(xiàn)聊天機器人的“烏鴉喝水”模式主要從兩個方面努力:

一方面,讓人工智能在自動學習中“更聰明”。 伊恩·古德費洛用兩個神經網絡,進行數(shù)字版的“貓鼠游戲”——一個負責“造假”,一個負責“驗真”,從而在對抗中不斷提高。首先,依據(jù)“見過”的圖片生成新圖片,需要機器人總結規(guī)律、發(fā)揮想象力和創(chuàng)造力;其次,判別某張圖片是否是真實事物,這需要它憑訓練積累的“經驗”。

另一方面,建立更加廣博的知識圖譜。知識圖譜的建立需要從靜態(tài)和動態(tài)兩個方面出發(fā),真正將目前聊天機器人聊天對話場景從垂直領域拓展到開放領域。同時,構建知識圖譜的重點在于語義理解、知識表示、QA、智能對話和用戶建模。

3.學會更快更多元的賺錢

聊天機器人作為一個虛擬助理,其最終目的是為了簡便工作方式或者直接盈利。目前的聊天機器人主要分為兩種:單純聊天的機器人以及垂直領域的定制機器人,如小i機器人就衍生出了全渠道跨領域智能客服機器人、智能呼叫中心解決方案、智能營銷解決方案、智能語音交互解決方案等多個發(fā)展方向。就當下來看,聊天機器人主要利用于內置商業(yè)場景中,如用機器客服代替人工客服。

事實上,聊天機器人盈利方式的開發(fā)還遠遠不夠。作為人工智能類產品的重要代表,其在聊天機器人+原生內容、利用聊天機器人做聯(lián)盟網絡營銷、用聊天機器人做用戶調研等方面是大有可為的。

這顯然不是聊天機器人自己的任務,也是整個行業(yè)的工作。

智能相對論:深挖人工智能這口井,評出咸淡,講出黑白,道出深淺。重點關注領域:AI+醫(yī)療、機器人、智能駕駛、AI+硬件、物聯(lián)網、AI+金融、AI+安全、AR/VR、開發(fā)者以及背后的芯片、算法、人機交互等。

申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!

相關文章

  • 一秒當導演:小云雀上線短劇Agent,10萬字劇本一鍵生成60集

    凌晨兩點,小王合上筆記本,揉了揉酸脹的眼睛?;艘粋€月寫出來的10萬字短劇劇本躺在硬盤里,要真正把它拍成劇,得找演員、租場地、請攝像、做后期……粗算下來少說要幾十萬,他只能把劇本繼續(xù)鎖在抽屜里。不過,現(xiàn)在小王的劇本可以“見光”了。2026年3月19日,字節(jié)跳動旗下的小云雀AI正式上線了短劇Agent

    標簽:
    大模型
  • 騰訊云推出“龍蝦”記憶服務,準確率飆升近六成

    你一定遇到過這樣的場景:明明剛和AI助手聊了半個小時的項目細節(jié),退出會話后重新打開,它卻像個失憶患者一樣,連你上一輪說過什么背景信息都忘得一干二凈,你又得從頭把需求講一遍。這種“聊完就忘”的體驗,讓無數(shù)使用AI智能體的用戶深感頭疼。為了解決這一普遍困擾,騰訊云在4月3日正式推出了名為“龍蝦”的記憶服

  • 谷歌 Gemma 4 正式開源,開源賽道迎來變局!

    4月3日凌晨,谷歌DeepMind悄然甩出一枚重磅炸彈——全新一代開源大模型Gemma4正式發(fā)布,以極其寬松的Apache2.0協(xié)議向全球開發(fā)者免費開放。這是自2025年3月發(fā)布Gemma3以來,谷歌時隔整整一年的重大迭代。本次發(fā)布的Gemma4包含四個不同規(guī)格的版本:E2B(有效20億參數(shù))、E4

    標簽:
    大模型
  • OpenClaw常見的五種“病”,到底該怎么“治”?

    AI龍蝦也會生病。別怕,大部分病不是什么絕癥,自己在家就能治。我養(yǎng)OpenClaw一年多,總結出五種最常見的毛病,附上我的“土方子”,希望對你有用。病一:不吃食(完全不執(zhí)行任何任務)癥狀:你給了指令,它沒反應,日志里一片空白。就像龍蝦趴在塘底不動彈,碰它也不理。病因:通常是進程卡死了,或者依賴服務沒

熱門排行

編輯推薦