Есть ответ 👍

Расскажите об объеме и единицах измерения информации

161
314
Посмотреть ответы 2

Ответы на вопрос:


Объяснение:

Информацио́нная энтропи́я — мера неопределённости некоторой системы (в статистической физике или теории информации), в частности непредсказуемость появления какого-либо символа первичного алфавита. В последнем случае при отсутствии информационных потерь энтропия численно равна количеству информации на символ передаваемого сообщения.

Например, в последовательности букв, составляющих какое-либо предложение на русском языке, разные буквы появляются с разной частотой, поэтому неопределённость появления для некоторых букв меньше, чем для других. Если же учесть, что некоторые сочетания букв (в этом случае говорят об энтропии {\displaystyle n}n-го порядка, см. ниже) встречаются очень редко, то неопределённость уменьшается еще сильнее.


// pascalabc.net 3.1, сборка 1192 от 07.03.2016 begin   var a: =readlnstring('введите строку: ');   a: =regex.replace(a,'\.{2,}',''); writeln(a); end. тестовое решение: введите строку: .23423.. .

Популярно: Информатика