Для ответа на вопрос воспользуемся концепцией количества информации, которое определяется с помощью энтропии по формуле Шеннона:
[ I = -\log_2(p) ]
где ( p ) – вероятность события, а ( I ) – количество информации в битах, которое несёт сообщение о наступлении этого события.
Из условия задачи известно, что сообщение о том, что к остановке подошел автобус с номером N1 несёт 4 бита информации. По формуле Шеннона:
[ 4 = -\log_2(p_1) ]
где ( p_1 ) – вероятность прибытия автобуса с номером N1. Отсюда можно найти ( p_1 ):
[ p_1 = 2^{-4} = \frac{1}{16} ]
Далее, по условию, вероятность появления на остановке автобуса с номером N2 в два раза меньше, чем вероятность появления автобуса с номером N1. Таким образом:
[ p_2 = \frac{p_1}{2} = \frac{1}{32} ]
Теперь рассчитаем количество информации, которое несёт сообщение о появлении автобуса с номером N2:
[ I_2 = -\log_2(p_2) = -\log_2\left(\frac{1}{32}\right) = 5 ]
Таким образом, сообщение о том, что к остановке подошел автобус с номером N2, несёт 5 бит информации. Это объясняется тем, что меньшая вероятность события соответствует большему количеству информации, поскольку событие более неожиданно.