下棋一直是人類智能的挑戰,因此當我們在衡量機器智能的時候下棋自然成了人工智能的标志之一。下棋程序最早可以追溯到二戰時圖靈對于計算機下棋的研究,圖靈甚至在1947年編了第一個下棋程序,但收到當時計算機的能力限制隻有比較低的水平。
所有下棋程序有一個重要的理論基礎,那就是香農發表的《計算機下棋程序》這篇文章。香農把棋盤定義為二維數組,每個棋子都有一個對應的子程序計算機器所有可能性,最後再加上一個評估程序作出最後的決策。香農的論文引用了馮諾伊曼和經濟學家摩根斯頓合作的《博弈論與經濟行為》以及維納的《控制論》兩篇論文。
機器下棋的研究從最簡單的跳棋開始,後來發展到國際象棋,再到最近的圍棋。最早連定理證明的開山鼻祖紐厄爾和司馬賀都寫過下棋程序。國際象棋最著名的下棋程序肯定是IBM的深藍了,在1997的時候擊敗了國際象棋大師卡斯帕羅夫。卡斯帕羅夫從最初完全看不上下棋程序到後來聲稱深藍有幾步棋表現出了拟人的放棄短期利益的行為。
相比國際象棋,圍棋的棋子更多,對下棋程序的要求更加複雜。谷歌首次利用強化學習是機器和自己對弈進行學習。強化學習由薩頓在1980年被發明,但是一直不被重視,但是谷歌的AlphaGo使其成為顯學。AlphaGo在2016年和2017年分别戰勝了世界冠軍李世石和柯潔。并在當年實現了從0開始,無任何人類經驗輸入,隻告知圍棋基本規則,它隻用了3天就自己和自己下了490萬盤,之後就可以戰勝第一代AlphaGo Lee。
計算機下棋
,更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!