В игре "крестики-нолики" на поле размером 8x8 клеток после первого хода игрока, играющего крестиками, второй игрок получает определённое количество информации о состоянии игры. Для анализа и расчета количества информации можно воспользоваться теорией информации, в частности, понятием энтропии.
Энтропия в теории информации измеряет неопределенность или количество информации в системе. В данном контексте, после первого хода "крестиков", второй игрок получает информацию о том, какую из 64-х клеток занял первый игрок.
До начала игры все клетки 8x8 поля свободны, и второй игрок не знает, какую клетку выберет первый игрок. Это создает полную неопределенность по поводу первого хода. Количество информации, получаемое вторым игроком после первого хода, можно рассчитать как двоичную энтропию системы, где каждый ход представляет собой выбор одной из 64 возможных клеток.
Энтропия системы в этом случае рассчитывается по формуле Шеннона для равновероятных событий:
[ H = \log_2(N) ]
где ( N ) — количество возможных состояний, в нашем случае это количество клеток, то есть 64.
[ H = \log_2(64) = 6 ]
Таким образом, после первого хода игрока, играющего крестиками, второй игрок получает 6 бит информации. Это количество информации характеризует уменьшение неопределенности относительно состояния игры после того, как первый игрок сделал свой ход.