Теория информационных процессов и систем
Зарегистрируйся в два клика и получи неограниченный доступ к материалам,а также промокод на новый заказ в Автор24. Это бесплатно.
Введение
Попытки количественного измерения информации предпринимались неоднократно. Первые отчетливые предложения об общих способах измерения количества информации были сделаны Рональдом Фишером (1890—1962) в процессе решения вопросов математической статистики в 1921 г. Джордж Буль (1815—1864) в 1847 г. опубликовал работу с характерным названием «Математический анализ логики, являющийся опытом исчисления дедуктивного рассуждения». Он нашел глубокую аналогию между символическим методом алгебры и методом представления логических выводов. Спустя почти сто лет, в 1948 г., Клод Шеннон (1916—2001), общепризнанный отец математической теории информации, защитил диссертацию, в которой доказал, что работу обычных выключателей и реле в электрических схемах можно представить посредством булевой алгебры логики. В труде «Математическая теория связи» он представил убедительное математическое доказательство вероятностного подхода к количественной оценке информации, передаваемой по каналам связи. Проблемами хранения информации, передачи ее по каналам связи и задачами определения количества информации занимался американский инженер-телеграфист Ральф Хартли (1888—1970). Он связал количество информации с числом состояний физической системы. Поскольку Хартли работал инженером в телеграфной компании, он рассуждал о количестве информации, содержащемся в телеграфном тексте. Р. Хартли заложил основы теории информации, предложив в 1928 г. логарифмическую меру количества информации. Французский и американский физик Леон Николя Бриллюэн (1889—1969), основатель современной физики твердого тела, в 1964 г. опубликовал труд «Научная неопределенность и информация». В 1933 г. российский ученый Владимир Александрович Котельников (1908—2005) в статье «Пропускная способность эфира и проволоки» доказал фундаментальную теорему. Хотя в западной литературе ее часто называют теоремой отсчетов Найквиста, в 1999 г. Международный научный фонд Эдуарда Рейна признал приоритет Котельникова, впервые доказавшего эту теорему, и наградил его премией «За фундаментальные исследования». В 1947 г. вышла книга Норберта Винера (1894—1964) «Кибернетика», послужившая отправной точкой для модельного мышления в науке и инженерных дисциплинах. Отныне при рассмотрении любой системы необходимо описывать не только ее состав, но и множество состояний, в которых она может находиться, что позволяет во многих случаях иметь дело лишь с ее математической или физической моделью. Это открыло путь к созданию математической теории автоматов. Н. Винер первым отметил принципиальное значение информации в управлении различными системами. Существенный вклад в развитие теории информации внес американский математик Ричард Уэсли Хэмминг (1915—1998). Он разработал помехоустойчивый код (код Хэмминга). К середине 1950-х годов Андреи Николаевич Колмогоров (1903— 1987) обобщил вероятностный подход к определению количества информации, развив так называемую алгоритмическую теорию информации, в которой под энтропией понимается сложность объекта, равная сложности алгоритма, описывающего объект. Понятие «колмогоровская сложность» алгоритма используется при вычислении количества семантической информации.
Самоорганизация в сложных системах
Если обратить внимание, нас во множестве окружают сложно организованные объекты, от объектов космологического масштаба — спиралей туманностей или планетных систем, до нас самих. Откуда берётся сложность? Если исключить разумный замысел, остаётся тол...
Диссипативные системы
О сложности диссипативных систем следует сказать отдельно. В частных реакциях хаотическое поведение непредсказуемое, а на общем уровне хаос прост — это просто беспорядок. Тогда как появление в хаосе порядка усложняет описание — какой конкретно порядо...
Открыть главуЗаключение
Подводя итог, массовое наличие в природе сложности означает, что процессы эволюции, усложнения, стремления балансировать на грани должны быть в ней закономерными. Это закономерности самоорганизации: на одном уровне природа стремится к простоте, равновесию и покою — на другом в результате возникает сложность, неустойчивость и активность, на одном уровне остаётся хаос и рост энтропии — на другом происходит упорядочение, эволюция. Теория информации — математическая дисциплина, предмет которой — характеристики и передача информации. В теории информации главным образом рассматриваются такие аспекты коммуникации, как объем данных, скорость передачи, пропускная способность канала и точность передачи, начиная от передачи информации по кабелям до рассмотрения потока информации в обществе в целом. Теория информации, созданная математиком Клодом Элвудом Шенноном в 1948 г., первоначально применялась в области связи, ныне и в других областях, включая вычислительную технику. По существу предметом синергетики служат те же явления, что и в самоорганизации и кибернетике. Главное отличие в том, что в синергетике владение математическим аппаратом (теорией динамических систем, математическим моделированием) считается необходимым условием. Слово — «синергетика» в переводе с греческого означает «совместное действие». Предложил этот термин профессор Штудгартского университета Герман Хакен в 1978г. По существу синергетика состоит из математических моделей явлений самоорганизации. В данном случае интеграция произошла на более высоком профессиональном уровне, поскольку человек, не владеющий математикой, синергетиком считаться не может. Сейчас слова «синергетика» и «самоорганизация» часто выступают как синонимы.
Список литературы
1. Артюхов, В.В. Общая теория систем. Самоорганизация, устойчивость, разнообразие, кризисы / В.В. Артюхов. - Москва: Мир, 2014. - 560 c. 2. Трубецков, Д. И. Введение в теорию самоорганизации открытых систем / Д.И. Трубецков, Е.С. Мчедлова, Л.В. Красичков. - М.: ФИЗМАТЛИТ, 2005. - 212 c. 3. Колесников, А. А. Гравитация и самоорганизация / А.А. Колесников. - М.: Либроком, 2013. - 110 c. 4. Полканов Юрий Алексеевич. Выявление процессов самоорганизации неоднородностей непрерывной среды / Юрий Алексеевич Полканов. - М.: LAP Lambert Academic Publishing, 2012. - 192 c. 5. Хакен, Г. Информация и самоорганизация. Макроскопический подход к сложным системам: моногр. / Г. Хакен. - М.: Ленанд, Едиториал УРСС, 2014. - 320 c. 6. Чернавский Д. С. Синергетика и информация: Динамическая теория информации. Изд. 2-е, испр., доп. М.: УРСС, 2004 7. Эйген, М. Гиперцикл. Принципы самоорганизации макромолекул / М. Эйген, П. Шустер. - Москва: Машиностроение, 1982. - 270 c. 8. http://spkurdyumov.ru/economy/sinergetika-i-informaciya/5/ 9. https://cyberleninka.ru/article/n/sinergetika-v-informatsionnom-pole 10. http://www.tstu.ru/book/elib/pdf/2014/didrih.pdf