Для того чтобы найти количество информации, которое содержит данное событие, нужно определить энтропию системы, которая измеряется в битах.
Энтропия для дискретной случайной величины определяется как:
где ) — вероятность события .
В нашем случае, событие состоит в том, что из урны извлекается один шар. В урне находятся 16 шаров: 4 черных, 8 синих, 2 красных и 2 зеленых. Соответственно, вероятности вытаскивания шара определенного цвета будут следующими:
- Вероятность вытаскивания черного шара = \frac{4}{16} = \frac{1}{4} )
- Вероятность вытаскивания синего шара = \frac{8}{16} = \frac{1}{2} )
- Вероятность вытаскивания красного шара = \frac{2}{16} = \frac{1}{8} )
- Вероятность вытаскивания зеленого шара = \frac{2}{16} = \frac{1}{8} )
Теперь подставим данные вероятности в формулу энтропии:
Подставим численные значения:
Вычислим логарифмы:
Подставим обратно:
Выполним умножение:
Сложим дроби:
Таким образом, количество информации, которое содержит событие вытаскивания одного шара из урны, составляет бит, что равно бит.