Шрифт:
Интервал:
Закладка:
Другой вид сигналов — аналоговые. Типичный пример — напряжение, развиваемое микрофоном при разговоре перед ним, пении или игре на музыкальных инструментах. Давление воздуха при звучании источника изменяется в небольших пределах относительно нормального атмосферного. Мембрана микрофона, прогибаясь под действием звукового давления, создаст некоторое напряжение на выводах звуковой катушки микрофона. Это напряжение прямо пропорционально звуковому давлению, т. е. изменяется аналогично ему, откуда и происходит название «аналоговый сигнал».
Дискретные сигналы.
Аналоговые сигналы до сих пор используют в телефонной связи, радиовещании и телевидении. Это проще технически, да и история развития радиотехники сложилась так, что первыми стали применяться аналоговые сигналы. Это никоим образом не относится к телеграфу, где всегда господствовала цифра. При передаче аналоговых сигналов требуется значительно большее отношение сигнал-шум, чем при передаче двоичных цифровых сигналов. Пробовали разговаривать в метро? Шум поезда, отражаясь от стенок туннеля, приобретает большую интенсивность. Шум поезда — это помеха. Приходится напрягать голос, чтобы речь была разборчивой.
Мощность громких звуков человеческого голоса в 10000 раз превосходит интенсивность слабых звуков. И это при обычном разговоре. Но слабые звуки не должны маскироваться шумом, чтобы их тоже можно было разобрать. Вот почему приходится напрягать голос в метро, вот почему приходится на аэродроме кричать в ухо собеседнику, когда реактивный лайнер, ревя двигателями, подруливает к аэровокзалу. Для хорошего качества речи, передаваемой по телефону, необходимо обеспечить отношение сигнал-шум по напряжению примерно 100, или 40 децибел (дБ). (Разница уровней в децибелах есть двадцать десятичных логарифмов отношения напряжений.) Опытные радисты могут разобрать речь при отношении сигнал-шум около десяти, но при условии, что передаваемый текст знаком и привычен.
Большим недостатком аналоговых сигналов является и то, что их нельзя регенерировать, поскольку нам не известна их форма (известный сигнал и передавать незачем!). Когда еще лет десять назад вы разговаривали по междугородному телефону, замечали ли, насколько плохим было качество связи? Объяснялось это тем, что слабый речевой сигнал при передаче по проводной телефонной линии необходимо периодически усиливать, скажем через каждые 100 или 200 км. Гудят провода, шумят усилители, и каждый из этих источников помех все больше и больше искажает передаваемый сигнал.
Аналоговые сигналы.
Нельзя ли как-нибудь использовать двоичный канал для передачи речи, спросит читатель? Конечно, можно! И такой способ передачи широко используется в настоящее время. Первое, что в этом случае необходимо сделать, — это преобразовать аналоговый речевой сигнал в цифровой код. Затем цифровой сигнал передается по линии связи и регенерируется на каждом из промежуточных усилительных пунктов. Помехи при этом устраняются. А перед подачей в телефонную трубку цифровой сигнал снова превращают в аналоговый. Подобные системы уже внедрены на некоторых междугородных линиях связи. Не обошлось и без курьезов. При первых испытаниях цифровой линии стоило одному из корреспондентов замолчать, как другой принимался кричать: «Алло, алло!», думая, что связь оборвалась. На самом деле он просто не слышал привычного шума линии в паузах речи — столь чистой оказалась передача. Пришлось нарочно добавить немного шума к сигналу на каждом из оконечных пунктов!
Так что же переносят сигналы?Надеюсь, что читатель сам сможет ответить на этот вопрос. Любой сигнал, будь то свет костра, телеграмма, код Морзе написанный текст и т. д., несет какое-либо сведение, или сообщение! Одним словом — информацию. Таким образом, сигнал есть средство передачи информации.
Любой переданный сигнал переносится либо энергией, либо веществом. Иначе и быть не может, ведь наш мир материален. Это либо акустическая волна (звук), либо электромагнитное излучение (свет, радиоволна), либо лист бумаги (написанный текст), либо каменная скрижаль с выбитыми на ней магическими знаками. Но ни переданная энергия, ни посланное вещество сами по себе никакого значения не имеют, они служат лишь носителями информации. По мере удаления от передатчика поток энергии становится все слабее и слабее. Это тоже не имеет значения до тех пор, пока превышение сигнала над шумом достаточно для приема информации. Когда Москва передает по радио последние известия, одну и ту же информацию получает и подмосковный радиослушатель в г. Долгопрудном и уральский радиослушатель из Нижнего Тагила. Но поток энергии радиоволн в Нижнем Тагиле в тысячи раз меньше, чем под Москвой. Истрепанная книжка, если в ней нет вырванных страниц, несет ровно столько же информации, сколько такай же новая.
Каменная скрижаль весом в три тонны несет столько же информации, сколько ее хороший фотоснимок в археологическом журнале. Следовательно, мощность сигнала, так же как и вес носителя, никак не могут служить оценкой количества информации, переносимой сигналом. Как же оценить это количество?
Во время второй мировой войны подобные вопросы не на шутку заинтересовали шифровальщика при одном из штабов американских войск в Европе К. Шеннона. Упорство в достижении поставленной цели часто приносит успех, и после войны К. Шеннон защитил докторскую диссертацию, став основоположником новой науки — теории информации. В 1948–1949 годах увидели свет его статьи «Математическая теория связи» и «Связь в присутствии шума».
Любое сообщение можно свести к передаче чисел. Пылкий влюбленный, находясь в разлуке с объектом своей любви, посылает телеграмму: «Любишь?». В ответ приходит не менее лаконичная телеграмма: «Да!». Сколько информации несет ответная телеграмма? Альтернатив здесь две — либо Да, либо Нет. Их можно обозначить символами двоичного кода 1 и 0. Таким образом, ответную телеграмму можно было бы закодировать единственным символом «1». Выбор одного нз двух сообщений («Да» или «Нет», «1» или «0») принимают за единицу информации. Она названа «бит» — сокращение от английских слов binary digit, что означает двоичная цифра. Таким образом, ответная телеграмма несла всего 1 бит информации. А вопрос ценности этой информации для получателя-это уже из иной области.
Однако только что данное определение единицы информации слишком упрощено. Если влюбленный уверен в положительном ответе, то ответ «Да» не даст ему почти никакой новой информации.
Информация измеряется в битах.
То же самое относится и к безнадежно влюбленному, уже привыкшему получать отказы. Ответ «Нет» также принесет ему очень мало информации. Но внезапный отказ уверенному влюбленному (неожиданное огорчение) или ответ «Да» безнадежно влюбленному (нечаянная радость) несут сравнительно много информации, настолько много, что радикально изменяется все дальнейшее поведение влюбленного, а может быть, и его судьба! Таким образом, количество информации зависит от вероятности получения данного ответа.
Лишь при равновероятных ответах ответ «Да» или «Нет» несет 1 бит информации. Общая формула для подсчета количества информации, содержащегося в сообщении а, выглядит гак
где Р(а) — вероятность появления данного (дискретного) сообщения а.
Обратите внимание, что для абсолютно достоверного события P(а) = 1 (событие обязательно произойдет, поэтому его вероятность равна единице), при этом количество информации в сообщении о таком событии i(а) = 0. Чем невероятнее событие, тем большую информацию о нем несет сообщение.
Но зачем в приведенной формуле использована логарифмическая функция? Нельзя ли проще? Нет, проще не получается. Информация, содержащаяся в двух независимых сообщениях a1, и а2, должна быть равна сумме информации, содержащихся в каждом из сообщений: i(a1,a2) = i(a1) + i(a2). Логичное требование, не правда ли? Но вероятность того, что источник пошлет оба эти сообщения, одно за другим, равна произведению вероятностей появления каждого из сообщений: P(a1,a2) = Р(а1)·Р(а2). Как известно, при умножении двух величин их логарифмы складываются. Поэтому и количество информации должно выражаться логарифмической функцией.
Ввиду широкого использования двоичных сигналов в вычислительной технике и связи, чаще всего используют логарифм по основанию два. При этом количество информации оказывается выраженным в битах. Если в примере с влюбленными вероятность ответов «Да» и «Нет» одинакова и, следовательно, составляет 0,5, то количество информации в одном ответе составляет 1 бит.
- Битва за звезды-2. Космическое противостояние (часть II) - Антон Первушин - Техническая литература
- Психологическая системная профессиография - Е. Иванова - Техническая литература
- Антенны - Е. Фурсова - Техническая литература
- Светлые века. Путешествие в мир средневековой науки - Себ Фальк - Исторические приключения / Техническая литература
- Творчество как точная наука. Теория решения изобретательских задач - Генрих Альтов - Техническая литература
- Русские электротехники - Михаил Шателен - Техническая литература
- Соколиная охота (Малые противолодочные корабли проектов 1141 и 11451) - Г. Дмитриев - Техническая литература
- Анри де Тулуз-Лотрек - Властимил Фиала - Техническая литература
- Американские самолеты вертикального взлета - Евгений Ружицкий - Техническая литература
- Линкоры британской империи. Часть VII. Эпоха дредноутов - Оскар Паркс - Техническая литература