Ответы на вопрос:
Объяснение:
Информацио́нная энтропи́я — мера неопределённости некоторой системы (в статистической физике или теории информации), в частности непредсказуемость появления какого-либо символа первичного алфавита. В последнем случае при отсутствии информационных потерь энтропия численно равна количеству информации на символ передаваемого сообщения.
Например, в последовательности букв, составляющих какое-либо предложение на русском языке, разные буквы появляются с разной частотой, поэтому неопределённость появления для некоторых букв меньше, чем для других. Если же учесть, что некоторые сочетания букв (в этом случае говорят об энтропии {\displaystyle n}n-го порядка, см. ниже) встречаются очень редко, то неопределённость уменьшается еще сильнее.
// pascalabc.net 3.1, сборка 1192 от 07.03.2016 begin var a: =readlnstring('введите строку: '); a: =regex.replace(a,'\.{2,}',''); writeln(a); end. тестовое решение: введите строку: .23423.. .
Популярно: Информатика
-
Доминатр20.03.2023 16:02
-
Fakla15.03.2021 22:35
-
lordikEgorka03.02.2021 01:45
-
kirill87719.02.2023 19:20
-
SolekProAwp23.04.2020 06:32
-
bilpi16.06.2023 05:32
-
Макс0079608.04.2020 22:22
-
sha1455853813.06.2020 11:24
-
lizamankova9411.03.2021 09:00
-
Nellity21.10.2021 11:28