AI不夠智能,就用人類代替吧互聯網+
人工智能越來越聰明了,我們根本不清楚面對的到底是人還是AI。
一鳴網前沿觀察:(謝東霞|關注人工智能、物聯網)最近華爾街日報刊登了一篇文章,詳細介紹了提供電子郵件服務的公司是如何掃描數百萬用戶收件箱的。當他們的的人工智能算法提供的“智能回復”功能沒有正確回復對話內容時,公司的工作人員將會對人工智能進行更正,所以當我們以為是機器在提供服務,毫無保留時,卻沒想到有人可以隨便進入我們的電子郵箱賬戶,閱讀我們的郵件內容。
人工智能十分受限
我們總是嘗試創建完全模仿人類行為和功能的AI應用程序,總傾向于夸大深度學習的能力,產生錯位的期望,最終會創建了越來越多地人類機器人,充當人類的AI。美國創業公司X.ai就曾被曝,在使用AI閱讀用戶電子郵件,自動幫助用戶安排任務、會議、電話等來管理他們的工作時,有一群人類工程師在密切監視和糾正AI的表現。
有科學工作者表示,在接下來的幾十年里,我們將創建可以像人類一樣處理信息并進行決策的人工智能。但目前我們所擁有的只是弱人工智能,只適合于單一場景的應用。例如在騰訊優圖中進行圖像識別、分類、處理等或在bilibili之類的視頻網站中推薦電影。
雖然深度學習算法的表現十分出色,但它們仍然是狹窄的AI,深度學習和深度神經網絡具有非常明顯的限制,雖然它們在經受訓練的特定任務中可以超過人類,AlphaGo打敗人類圍棋冠軍,Open AI在Dota2的游戲中完虐人類,但是在他們領域之外的場景中它們都失敗了。我們現在擁有的AI只是用于解決特定的具體類的任務問題,并不能夠像人類一樣得心應手地進行思考、計劃、解決問題、抽象思維、理解復雜理念、快速學習和從經驗中學習等操作。
人工智能的使用要保持透明
而且對AI的架構、算法和應用場景做針對性的測試,需要不斷的嘗試不同的閾值,找一個通過率和誤報率的平衡點。要針對算法的優劣進行針對性的測試,因為有的算法過于嚴苛,有的算法不夠精準。比如手機QQ瀏覽器探索X的識別準確率訓練,針對場景分類、場景比例、數據生成、數據標注等四個部分要進行多輪的分析和實踐。只是場景分類就要分為幾個維度,考慮用戶實際可能會遇到的場景,每個維度設置兩端極限值,在兩個極限值之間均勻選取。
同時AI的開發和測試需要大量高質量的數據庫,并非是所有公司都能訪問的商品。所以有些公司就不得不求助于人工來彌補AI的缺點,也可以避免開發深度學習的大量投入。
但公司需要對人工智能的使用保持透明,公司應明確告知用戶應用程序背后是否有人,如果用戶希望與AI代理進行交互,當人們認為他們是與機器而不是人類進行交互時,他們更傾向于披露信息,包括一些關于自己的日常信息和私密細節,公司不得濫用這種信任。當然如果用戶希望人工操作員交互,而對面卻是不夠靈活的AI代理,也會給用戶帶來挫敗感。
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。