У нас уже 176405 рефератов, курсовых и дипломных работ
Заказать диплом, курсовую, диссертацию


Быстрый переход к готовым работам

Мнение посетителей:

Понравилось
Не понравилось





Книга жалоб
и предложений


 


Этапы развития информационной теории

Наиболее распространенной относительно возникновения теории информации является позиция, согласно которой ее родоначальниками являются Норберт Винер и Клод Шеннон. Однако необходимо уточнить тот факт, что исследования Шеннона и Винера имели совершенно различные цели и, таким образом, являются теоретическими установками двух различных ветвей теории информации. Так работы Н. Винера послужили основанию кибернетики как науки о саморегулирующихся системах, в которых информация обуславливает процесс управления. В 1936 году А.Тьюринг и Э.Пост независимо друг от друга разработали концепцию "абстрактной вычислительной машины". В 1941 году Н. Винер опубликовал свой первый труд об аналогиях между работой математической машины и нервной системы живого организма, а в 1948 году - фундаментальное исследование "Кибернетика, или Управление и связь в животном и машине" [23]. Работа К. Шеннона «Математическая теория связи» [107], опубликованная в 1948 году является обобщением представлений об информации в физике, а конкретно - термодинамике того времени. При этом сам Шеннон был против распространения своего подхода на другие научные

 

19 направления, отмечая специфику задач связи, а также трудности и ограничения своей теории. Но, несмотря на это, теоретико-информационные разработки получили широкое распространение как в развитии собственно теории информации, так и ее разнообразнейших приложений. Таким образом, практически одновременно возникают два самостоятельных подхода к теории информации. Дж. фон Нейман считал, что вероятностно-статистический и кибернетический подходы необходимы для информационного описания двух различных процессов - статистических и динамических. В результате сформировалась настоящая общенаучная -философская - информационная парадигма.

1.2.1. Основные уровни информации

Проникновение термодинамических представлений в теоретико-информационные исследования привело к переосмыслению классических работ в области термодинамики и статистической физики, с целью их обобщения до уровня универсальных системных моделей. На основании разработок в этом русле складывается так называемый структурно-синтаксический подход к феномену информации, главной целью которого было определение количественной меры информации.

Первым, кто приступил к разработке проблемы информации в ее количественном аспекте, был Р. Хартли [102]. Математическое выражение количества информации, введенное Р.Хартли в 1928 году и обобщенное К.Шенноном, тождественно знаменитой формуле Л. Больцмана для физической энтропии системы. Причина этой аналогии не случайна, она свидетельствует о глубинных связях в структуре мироздания. Так в 1929 году Л Сциллардом была установлена связь информации с термодинамическими системами через понятие энтропии. Видимо, на определенном этапе развития науки возникла потребность в универсальной мере гетерогенности систем, которая помогла бы сравнивать их сложность и многообразие.    И    в    дальнейшем    эта    мера    использовалась    как    в

 

20 термодинамике (в моделях идеального газа), так и в биологии (при анализе смысла генетических текстов, развития организма, работы нервной системы и     эволюции),     кибернетике,     разнообразных     ответвлениях     теории информации.

 

Вся работа доступна по ссылке https://mydisser.com/ru/catalog/view/303223.html

Найти готовую работу


ЗАКАЗАТЬ

Обратная связь:


Связаться

Доставка любой диссертации из России и Украины



Ссылки:

Выполнение и продажа диссертаций, бесплатный каталог статей и авторефератов

Счетчики:


© 2006-2022. Все права защищены.
Выполнение уникальных качественных работ - от эссе и реферата до диссертации. Заказ готовых, сдававшихся ранее работ.