Логотип Автор24реферат
Задать вопрос
Курсовая работа на тему: Теория информационных процессов и систем
39%
Уникальность
Аа
37048 символов
Категория
Информационные технологии
Курсовая работа

Теория информационных процессов и систем

Теория информационных процессов и систем .doc

Зарегистрируйся в два клика и получи неограниченный доступ к материалам,а также промокод Эмоджи на новый заказ в Автор24. Это бесплатно.

Введение

Попытки количественного измерения информации предпринимались неоднократно. Первые отчетливые предложения об общих способах измерения количества информации были сделаны Рональдом Фишером (1890—1962) в процессе решения вопросов математической статистики в 1921 г. Джордж Буль (1815—1864) в 1847 г. опубликовал работу с характерным названием «Математический анализ логики, являющийся опытом исчисления дедуктивного рассуждения». Он нашел глубокую аналогию между символическим методом алгебры и методом представления логических выводов.  Спустя почти сто лет, в 1948 г., Клод Шеннон (1916—2001), общепризнанный отец математической теории информации, защитил диссертацию, в которой доказал, что работу обычных выключателей и реле в электрических схемах можно представить посредством булевой алгебры логики. В труде «Математическая теория связи» он представил убедительное математическое доказательство вероятностного подхода к количественной оценке информации, передаваемой по каналам связи. Проблемами хранения информации, передачи ее по каналам связи и задачами определения количества информации занимался американский инженер-телеграфист Ральф Хартли (1888—1970). Он связал количество информации с числом состояний физической системы. Поскольку Хартли работал инженером в телеграфной компании, он рассуждал о количестве информации, содержащемся в телеграфном тексте. Р. Хартли заложил основы теории информации, предложив в 1928 г. логарифмическую меру количества информации. Французский и американский физик Леон Николя Бриллюэн (1889—1969), основатель современной физики твердого тела, в 1964 г. опубликовал труд «Научная неопределенность и информация». В 1933 г. российский ученый Владимир Александрович Котельников (1908—2005) в статье «Пропускная способность эфира и проволоки» доказал фундаментальную теорему. Хотя в западной литературе ее часто называют теоремой отсчетов Найквиста, в 1999 г. Международный научный фонд Эдуарда Рейна признал приоритет Котельникова, впервые доказавшего эту теорему, и наградил его премией «За фундаментальные исследования». В 1947 г. вышла книга Норберта Винера (1894—1964) «Кибернетика», послужившая отправной точкой для модельного мышления в науке и инженерных дисциплинах. Отныне при рассмотрении любой системы необходимо описывать не только ее состав, но и множество состояний, в которых она может находиться, что позволяет во многих случаях иметь дело лишь с ее математической или физической моделью. Это открыло путь к созданию математической теории автоматов. Н. Винер первым отметил принципиальное значение информации в управлении различными системами. Существенный вклад в развитие теории информации внес американский математик Ричард Уэсли Хэмминг (1915—1998). Он разработал помехоустойчивый код (код Хэмминга). К середине 1950-х годов Андреи Николаевич Колмогоров (1903— 1987) обобщил вероятностный подход к определению количества информации, развив так называемую алгоритмическую теорию информации, в которой под энтропией понимается сложность объекта, равная сложности алгоритма, описывающего объект. Понятие «колмогоровская сложность» алгоритма используется при вычислении количества семантической информации.

Самоорганизация в сложных системах

Уникальность текста 2.14%
14290 символов

Если обратить внимание, нас во множестве окружают сложно организованные объекты, от объектов космологического масштаба — спиралей туманностей или планетных систем, до нас самих. Откуда берётся сложность? Если исключить разумный замысел, остаётся тол...

Эта глава неуникальная. Нужна работа на эту тему?
Уникальность текста 2.14%
14290 символов

Диссипативные системы

Уникальность текста 100%
5774 символов

О сложности диссипативных систем следует сказать отдельно. В частных реакциях хаотическое поведение непредсказуемое, а на общем уровне хаос прост — это просто беспорядок. Тогда как появление в хаосе порядка усложняет описание — какой конкретно порядо...

Открыть главу
Уникальность текста 100%
5774 символов

Заключение

Подводя итог, массовое наличие в природе сложности означает, что процессы эволюции, усложнения, стремления балансировать на грани должны быть в ней закономерными. Это закономерности самоорганизации: на одном уровне природа стремится к простоте, равновесию и покою — на другом в результате возникает сложность, неустойчивость и активность, на одном уровне остаётся хаос и рост энтропии — на другом происходит упорядочение, эволюция. Теория информации — математическая дисциплина, предмет которой — характеристики и передача информации. В теории информации главным образом рассматриваются такие аспекты коммуникации, как объем данных, скорость передачи, пропускная способность канала и точность передачи, начиная от передачи информации по кабелям до рассмотрения потока информации в обществе в целом. Теория информации, созданная математиком Клодом Элвудом Шенноном в 1948 г., первоначально применялась в области связи, ныне и в других областях, включая вычислительную технику. По существу предметом синергетики служат те же явления, что и в самоорганизации и кибернетике. Главное отличие в том, что в синергетике владение математическим аппаратом (теорией динамических систем, математическим моделированием) считается необходимым условием. Слово — «синергетика» в переводе с греческого означает «совместное действие». Предложил этот термин профессор Штудгартского университета Герман Хакен в 1978г. По существу синергетика состоит из математических моделей явлений самоорганизации. В данном случае интеграция произошла на более высоком профессиональном уровне, поскольку человек, не владеющий математикой, синергетиком считаться не может. Сейчас слова «синергетика» и «самоорганизация» часто выступают как синонимы.

Список литературы

1. Артюхов, В.В. Общая теория систем. Самоорганизация, устойчивость, разнообразие, кризисы / В.В. Артюхов. - Москва: Мир, 2014. - 560 c. 2. Трубецков, Д. И. Введение в теорию самоорганизации открытых систем / Д.И. Трубецков, Е.С. Мчедлова, Л.В. Красичков. - М.: ФИЗМАТЛИТ, 2005. - 212 c. 3. Колесников, А. А. Гравитация и самоорганизация / А.А. Колесников. - М.: Либроком, 2013. - 110 c. 4. Полканов Юрий Алексеевич. Выявление процессов самоорганизации неоднородностей непрерывной среды / Юрий Алексеевич Полканов. - М.: LAP Lambert Academic Publishing, 2012. - 192 c. 5. Хакен, Г. Информация и самоорганизация. Макроскопический подход к сложным системам: моногр. / Г. Хакен. - М.: Ленанд, Едиториал УРСС, 2014. - 320 c. 6. Чернавский Д. С. Синергетика и информация: Динамическая теория информации. Изд. 2-е, испр., доп. М.: УРСС, 2004 7. Эйген, М. Гиперцикл. Принципы самоорганизации макромолекул / М. Эйген, П. Шустер. - Москва: Машиностроение, 1982. - 270 c. 8. http://spkurdyumov.ru/economy/sinergetika-i-informaciya/5/ 9. https://cyberleninka.ru/article/n/sinergetika-v-informatsionnom-pole 10. http://www.tstu.ru/book/elib/pdf/2014/didrih.pdf

Магазин работ

Посмотреть все
Посмотреть все
Больше курсовых работ по информационным технологиям:

Искусственный интеллект

55281 символов
Информационные технологии
Курсовая работа
Уникальность

Проектирование информационной системы аренды игровых серверов

43913 символов
Информационные технологии
Курсовая работа
Уникальность

Инфокоммуникационная сеть магазина бытовой техники

55407 символов
Информационные технологии
Курсовая работа
Уникальность
Все Курсовые работы по информационным технологиям
Найди решение своей задачи среди 1 000 000 ответов
Крупнейшая русскоязычная библиотека студенческих решенных задач