Информатика по Шеннону

Тип статьи:
Авторская
Источник:
Текст статьи:

Термин «информатика»

Теперь в Википедии можно прочесть, что термин «informatik» впервые был введен Карлом Штейнбухом в немецкий язык в 1957 году, а Ф. Дрейфусом в 1962 году – во французский язык как «informatique». (В английский язык он не введен до сих пор). Но В.Э. в 1969 году ничего не знал об этих немецких и французских терминах, и для него слово было «свободно». В русский язык термин «информатика» был введен А.И. Михайловым, А.И. Черным и Р.С. Гиляревским в 1968 году – за год до принятия этого термина Валдисом Эгле, – но до В.Э. он не успел дойти; В.Э. впервые услышал этот термин (в его современном смысле) лишь около 1973 или 1974 года, поэтому в работах В.Э. 1969–1972 годов слово «информатика» везде обозначает специфическую теорию информации – т.е. употребляется в смысле, присвоенном в 1969 году. В настоящей статье термин «информатика» используется в смысле 1969 года, а в Веданопедии за пределами этой статьи – в его современном смысле, если не оговорено иное.

Шенноновская теория информации

Теория информации как научная дисциплина родилась в 1948 году публикацией работы 32- летнего Клода Шеннона. В этой работе вводилось понятие количества информации, в котором (говоря словами самого Шеннона) «главную роль играет величина типа Н = – Σ рi ∙ log рi». Информация в этой теории определялась как уменьшение беспорядка – энтропии, а формулы Шеннона давали способ вычислить ее количество. Теория Шеннона в целом предназначалась для систем связи и позволяла решать такие задачи как, например: «Если при передаче информации теряется x процентов сигналов, то в какой мере надо дублировать сигналы, чтобы приемник мог расшифровать сообщение с вероятностью p?». В современной Википедии «теория информации» (т.е. шенноновская) определяется как «раздел прикладной математики». Теория Шеннона в общем-то и не предназначалась для более широких целей, чем упомянутые проблемы связи. Она не пыталась объяснить вообще природу информации, не учитывала ее смысл. Сообщение об одной и той же вещи, написанное на разных языках, по Шеннону содержало разное количество информации (потому что состояло из разного количества знаков разных алфавитов, в свою очередь, содержащих разное количество букв). По Шеннону информация (и притом огромная!) содержалась в любом материале (например, в кристалле) с уменьшенной энтропией, и это была информация «ни о чем» – просто информация сама по себе. После работы Шеннона за следующие два десятилетия (до времени, когда теорией информации занялся В.Э.) появилось огромное количество работ разных авторов, которые каждый по-своему трактовали понятие информации. У одних информация была не информацией, если нет приемника – если ее никто не читает; у других появлялась «отрицательная информация», уменьшающая, а не увеличивающая знания субъекта, и т.д.

Задачи информатики

В таких условиях В.Э. начал разрабатывать свою информатику. Целью этой разработки было построение такой системы понятий (определения понятия информации и связанных с нею), чтобы:

1) информацией называлась некоторая объективная вещь (не зависящая от субъекта – передатчика и субъекта – приемника);

2) чтобы информация была не просто разнообразием – любым уменьшением энтропии, а информацией о чем-то, несла какие-то сведения о каких-то вещах;

3) чтобы количество информации измерялось не количеством букв, зависящим от системы кодировки (от языка и алфавита), а по ее смыслу – оставалось одинаковым при любом способе кодировки; 4) при этом чтобы мерой количества информации оставалась шенноновская величина Н = – Σ рi ∙ log рi.

Основные черты информатики

Информатика базировалась на теории изоморфизмов: в объективном мире существуют изоморфизмы – сходство (в определенном аспекте) между системами А и В. Эти изоморфизмы могут быть естественными (возникшими, например, в результате единого происхождения); тогда система В не содержит информацию о системе А (несмотря на их сходство – изоморфизм). И изоморфизм может быть искусственным – возникшим в результате воздействия системы А на систему В. В этом случае система В содержит информацию о системе А – несет след ее воздействия, ее отпечаток. Если система В, в свою очередь, воздействует на систему С и передаст этот отпечаток ей, то уже и система С будет содержать информацию (по процессу воздействия – о системе В, а в силу транзитивности изоморфизма – одновременно также и о системе А). Так возникает передача информации. Количество информации, содержащейся в системах В и С о системе А измеряется по формуле Шеннона, но при этом для расчета берутся не какие-то случайные, внешние элементы кодировки (типа букв или импульсов сигнала), а позиции аспекта изоморфизма, существующего между системами А, В, С и определяющего информацию. Поэтому количество информации сохраняется неизменным, пока сохраняется неизменным аспект изоморфизма, как бы информация в системах В и С ни кодировалась. Такая информация не зависит ни от субъекта, ее передающего, ни от субъекта, ее принимающего; это могут быть как люди или машины, так и просто природные объекты. Например, звезда излучает электромагнитное поле, несущее информацию о ее химическом составе, температуре и т.д., но эта информация не предназначена ни для кого и никем сознательно не кодирована; она возникла просто в результате воздействия системы А (атомов) на систему В (фотоны). Она может никем не использоваться, но может быть кем-то прочитана (например, астрофизиком на Земле при помощи спектроскопа).

Дальнейшее

В теории информатики определялось множество понятий, связанных с информаций, такие, как ее передача, обработка, накопление и т.д., а также такие, как модель, символ, денотат, значение и т.п. – и более «экзотические»: информон, изоморфа, опоморфа и др. Разрабатывалась специальная символика для рассуждений об изоморфизмах и их аспектах. Термин «информатика» позволял отгородить эту теорию от всех остальных теорий информации, существующих к тому времени. Но когда термин «информатика» (в современном его смысле) в 1970-х годах стремительно вошел в лексикон окружающего общества, В.Э. перестал его использовать для обозначения своей теории информации, а новый термин для этого учения так и не был придуман (что часто затрудняет рассказ об этой теории). Теперь основные положения информатики включены в состав ВТ (см. статьи «Теория информации», «Информация»).

Нет комментариев. Ваш будет первым!
Загрузка...

Подготовка к ГИА


Подпишись