機械社區(qū)

標題: 突發(fā)奇想,如果使用2臺alphaGO主機,使用同樣的算法和策略,互奕一局,結(jié)局如何? [打印本頁]

作者: crazypeanut    時間: 2016-3-10 18:31
標題: 突發(fā)奇想,如果使用2臺alphaGO主機,使用同樣的算法和策略,互奕一局,結(jié)局如何?
這個是不是有點自相矛盾的味道?? 但是我對結(jié)果很感興趣
作者: 愛貓人士薛定諤    時間: 2016-3-10 18:42
這算是“迭代”嗎,昨天也想到這個了2 n" @2 g8 m0 ~2 d" [. o# T
以后辦圍棋賽,可以分設(shè)AI組與人類組,
作者: 滅嘎嘎    時間: 2016-3-10 18:42
勝負五五開吧
作者: yestwp    時間: 2016-3-10 18:46
早已經(jīng)自我進化3000多萬局啦" ~6 Y2 x* p  Q5 Z

2 B/ c' b! ]( `& U$ F) K, ~$ @" m靠人來比試獲取電腦算法經(jīng)驗值的速度太慢
2 o! r5 N- D3 _7 |/ @: i
作者: 2266998    時間: 2016-3-10 18:47
不會的,依然是一方贏,并且肯定是一方贏,毫無疑問,0 p& _% z& n$ @

* l) N: c( C- K4 l  B  X; ]因為每個系統(tǒng)是一個小組,其‘策略’是完全不同的,就是那個‘總策略’的算法與智商水平,決定了誰是贏家,這家伙假如到賭場,肯定被‘勸阻’的,跟山本一個級別,山本就進不了賭場,8 S1 b  X8 m( x- S/ p$ ^% U

# e; D  `- n& y  d這個,就跟我玩自動裝配是一個道理,你裝配車的路徑每個人算法是不同的,最終效率是不同的,
, E3 a, n' v4 w2 f# a- K. j; _" E5 p8 R/ E2 o$ E$ c7 u5 V# c2 s
古狗其實就是向全世界宣布,阿拉是‘老大’,以前是IBM是老大,再后來是洛馬,
8 c0 ?4 ^: G. J$ n# F3 F' v2 E. E
  ~& @, i- L' x: ~" |洛馬被熊給戲了一次,丟了大面子,但迅速就找回來了,依然用170飛,就是‘挑戰(zhàn)與賭氣’,哈哈,- P: D% n/ \0 O! m' g" x
" f* h7 W$ ?4 C# E  r  G  y* n7 K
跑速度與航程,跑不過諾格,有點‘丟分兒’哈哈,, R  C, O7 w& A; j4 ]
3 {" Q0 ~7 F. ~. Q& m
總體說水平,可能現(xiàn)在還是洛馬第一,古狗大概排第二,因為洛馬玩這些東西的人,是古狗的好多倍,但也不排除古狗里面有一個‘絕世天才’,跟布勞恩一樣的家伙,+ O" u% U. j( O- I. c
: c- `/ b4 }2 S; ]( c; \' W6 ?  c
就像中國專家希望在‘神農(nóng)架’里面找的‘非凡者’,哈哈,他們跟俺說這些,俺哈哈大笑,* \) X; O# Z7 O8 j  o0 Z

% ~% R6 T2 w; n0 {中米社會條件不同,論侃,米國肯定不是對手,哈哈,
作者: crazypeanut    時間: 2016-3-10 18:48
滅嘎嘎 發(fā)表于 2016-3-10 18:42 + ^" V0 D/ E; u% E
勝負五五開吧

, v! l, }+ y4 Z) {2 [+ ^' x. _我曾經(jīng)在一臺雙路E5 2680 v2的主機上,使用軟件對軟件下象棋,總計25盤,本來我以為,這個應(yīng)該遵循p=0.5的0-1分布,但是,結(jié)果讓人意想不到,紅對藍,紅勝22盤: ]# [; V' j' K5 X

作者: crazypeanut    時間: 2016-3-10 18:49
2266998 發(fā)表于 2016-3-10 18:47
2 k; }# c7 A3 x# n) ?不會的,依然是一方贏,并且肯定是一方贏,毫無疑問,
' F2 b1 a* g* p5 o8 B/ j1 W4 R% Q, A& l0 Q1 v0 L
因為每個系統(tǒng)是一個小組,其‘策略’是完全不同的 ...

# x! P0 X% n6 m$ R我曾經(jīng)在一臺雙路E5 2680 v2的主機上,使用軟件對軟件下象棋,總計25盤,本來我以為,這個應(yīng)該遵循p=0.5的0-1分布,但是,結(jié)果讓人意想不到,紅對藍,紅勝22盤;看來就像8爺所說的那樣,還是一方贏
; y9 B/ [5 }  o, z; D' y
作者: negtive    時間: 2016-3-10 19:30
馬上fps,rts游戲也要沒意思了,阿爾法狗下一個目標就是星際爭霸。
) {3 h  e$ [5 t- Z9 i& o% r
8 d4 G4 _! j& B幸好我已經(jīng)是劇情黨了。
作者: 劉景亞    時間: 2016-3-10 19:34
看了下DeepMind團隊發(fā)表在Nature上的文章,AlphaGO深度學(xué)習(xí)、蒙特卡羅樹狀搜索、自我進化三大招齊出。換句話說,最開始的時候AlphaGO并不會下棋,怎么走完全靠隨機蒙,那些蒙對的走法會記憶下來,那些蒙錯的走法會淘汰,這就是訓(xùn)練。等下次再對弈時,就會使用上次蒙對的走法。經(jīng)過上萬次甚至甚至上億次的訓(xùn)練淘汰,水平會不斷上升,也就實現(xiàn)了自我進化。
+ ~( O& k% s6 {2 A8 S: C- G/ P根據(jù)這個原理,兩個AlphaGO對弈,總會有一個獲勝,獲勝的新的走法會保留,失敗的會淘汰,實現(xiàn)進化。這很像人類的自然進化法則,這也正是AkphaGO厲害的地方。
$ L7 W) o) |7 g/ F6 J事實上目前AlphaGO的技能很大程度上都是通過自己左右互搏學(xué)習(xí)到的。
作者: icegoods    時間: 2016-3-11 09:43
外太空這要這家伙去開疆拓土,進化吧
作者: 機械huhuang    時間: 2016-3-11 21:21
結(jié)局最多19*19種
作者: 雨傾城    時間: 2016-3-12 20:10
走出地球,征服星際需要他們




歡迎光臨 機械社區(qū) (http://e-learninguniversity.com/) Powered by Discuz! X3.4