Na zprávy o dalších průlomech ve strojovém učení od Googlu a věhlasných amerických univerzit jsme si už zvykli, to však neznamená, že se snad technikám A.I. jinde nevěnují. Právě naopak. Ostatně je to mezinárodní tým výzkumníků z Albertské univerzity, Karlovy univerzity a ČVUT, kteří se pochlubili novým algoritmem DeepStack (PDF).
Neuronová síť se učí hrát poker
DeepStack svým způsobem navazuje na neuronovou síť AlphaGo, která loni pokořila špičkové lidské hráče v náročné strategické hře go. Ta se přitom vyznačuje astronomickým počtem herních kombinací, a tak se doposud nedařilo sestrojit program, který by ji dostatečně dobře simuloval na základě natvrdo naprogramovaných pravidel. Podařil ose to až strojovému učení, které se hru naučilo hrát podobně jako člověk.
Ale zpět k DeepStacku. I v tomto případě se jedná o hráče, namísto go si ale oblíbil poker, ve kterém dokáže rozdrtit i profesionální hráče. Mohlo by se zdát, že se prostě jedná jen o další strojové učení a další hru, ale jde o něco většího.
Zatímco v případě hry go mají oba hráči přístup ke stejným informacím (jedná se o tzv. informační symetrii), v případě pokeru tomu tak není, protože je velmi těžké určit, co má protihráč za karty (informační asymetrie).
DeepStack se tedy musel učit trošku jinak a během sledování hromady pokerových her bral na zřetel i jakousi formu herní intuice. Výsledkem je systém, který porazí profesionálního hráče pokeru a to ve variantě Texas hold 'em.