AlphaGo又進化了: 現在還學會國際象棋智能
年初時,曾有消息說DeepMind取得重大技術突破。DeepMind引入一種名叫“強化學習”(reinforcement learning)的AI技術,增強AlphaGo,不需要人類數據,它就可以自己獲得超人一般的圍棋技法。只…
AlphaGo
年初時,曾有消息說DeepMind取得重大技術突破。DeepMind引入一種名叫“強化學習”(reinforcement learning)的AI技術,增強AlphaGo,不需要人類數據,它就可以自己獲得超人一般的圍棋技法。只需要劃定下棋規則,AI就會隨機對弈,制定出色的戰略。谷歌將增強后的AlphaGo取名叫作AlphaGo Zero,因為它不需要人類輸入信息。
現在DeepMind在arXiv發表論文,說AlphaGo Zero已經具備很強的通用性,可以學著完成其它任務。團隊舉了兩個例子,說它可以學習國際象棋和將棋,將棋是日本的一種游戲,與國際象棋類似。在兩個案例中,AlphaGo Zero 24小時內就能獲得超人一般的棋藝,達到擊敗世界冠軍的水平。
為什么在兩個游戲中AI可以獲得卓越的技能呢?因為國際象棋與將棋沒有圍棋復雜。DeepMind有能力讓AlphaGo Zero具備通用性,這樣它就可以掌管不同的游戲,這說明機器學習的能力越來越強。
當然,還有一些游戲是AI目前無法掌握的。最大的挑戰可能是復雜的線上策略游戲,比如《星際爭霸》,在這款中人類仍然占據上風。如果機器想打敗人類,必須學會新技能,比如記憶、規劃。還要多久才能戰勝人類呢?可能不用等太久。
來源:新浪科技 作者:德克
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。