Лекция: Меры информации (синтаксическая, семантическая, прагматическая). Синтаксическая, семантическая и прагматическая меры информации

Информационное взаимодействие. Способы передачи информации. Классификация информации.

Понятие информации. Свойства информации. Формы представления информации.

Информация (от лат. informatio - «разъяснение, изложение, осведомлённость») - сведения о чём-либо, независимо от формы их представления.

Информацию можно разделить на виды по различным критериям:

по способу восприятия:

Визуальная - воспринимаемая органами зрения.

Аудиальная - воспринимаемая органами слуха.

Тактильная - воспринимаемая тактильными рецепторами.

Обонятельная - воспринимаемая обонятельными рецепторами.

Вкусовая - воспринимаемая вкусовыми рецепторами.

по форме представления:

Текстовая - передаваемая в виде символов, предназначенных обозначать лексемы языка.

Числовая - в виде цифр и знаков, обозначающих математические действия.

Графическая - в виде изображений, предметов, графиков.

Звуковая - устная или в виде записи и передачи лексем языка аудиальным путём.

по назначению:

Массовая - содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.

Специальная - содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.

Секретная - передаваемая узкому кругу лиц и по закрытым (защищённым) каналам.

Личная (приватная) - набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.

по значению:

Актуальная - информация, ценная в данный момент времени.

Достоверная - информация, полученная без искажений.

Понятная - информация, выраженная на языке, понятном тому, кому она предназначена.

Полная - информация, достаточная для принятия правильного решения или понимания.

Полезная - полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

по истинности:

истинная

В информатике предметом изучения информации являются именно данные: методы их создания, хранения, обработки и передачи.

Передачей информации называется процесс её пространственного переноса от источника к получателю (адресату). Передавать и получать информацию человек научился даже раньше, чем хранить её. Речь является способом передачи, который использовали наши далекие предки в непосредственном контакте (разговоре) - ею мы пользуемся и сейчас. Для передачи информации на большие расстояния необходимо использовать значительно более сложные информационные процессы.



Для осуществления такого процесса информация должна быть некоторым образом оформлена (представлена). Для представления информации используются различные знаковые системы - наборы заранее оговоренных смысловых символов: предметов, картинок, написанных или напечатанных слов естественного языка. Представленная с их помощью семантическая информация о каком-либо объекте, явлении или процессе называется сообщением.

Очевидно, что для передачи сообщения на расстояние информация должна быть перенесена на какой-либо мобильный носитель. Носители могут перемещаться в пространстве с помощью транспортных средств, как это происходит с письмами, посылаемыми по почте. Такой способ обеспечивает полную достоверность передачи информации, поскольку адресат получает оригинал сообщения, однако требует значительного времени для передачи. С середины XIX века получили распространение способы передачи информации, использующие естественно распространяющийся носитель информации - электромагнитные колебания (электрические колебания, радиоволны, свет). Устройства, реализующие процесс передачи данных, образуют системы связи. В зависимости от способа представления информации системы связи можно подразделять на знаковые (телеграф, телефакс), звуковые (телефон), видео и комбинированные системы (телевидение). Наиболее развитой системой связи в наше время является Интернет.

Единицы измерения информации служат для измерения различных характеристик, связанных с информацией.

Чаще всего измерение информации касается измерения ёмкости компьютерной памяти (запоминающих устройств) и измерения объёма данных, передаваемых по цифровым каналам связи. Реже измеряется количество информации.

Бит (англ. binary digit - двоичное число; также игра слов: англ. bit - кусочек, частица) - единица измерения количества информации, равная одному разряду в двоичной системе счисления. Обозначается по ГОСТ 8.417-2002

Клод Шэннон в 1948 г предложил использовать слово bit для обозначения наименьшей единицы информации:

Бит - это двоичный логарифм вероятности равновероятных событий или сумма произведений вероятности на двоичный логарифм вероятности при равновероятных событиях; см. информационная энтропия.

Бит - базовая единица измерения количества информации, равная количеству информации, содержащемуся в опыте, имеющем два равновероятных исхода; см. информационная энтропия. Это тождественно количеству информации в ответе на вопрос, допускающий ответы «да» либо «нет» и никакого другого (то есть такое количество информации, которое позволяет однозначно ответить на поставленный вопрос).

Синтаксическая мера информации

Возникновение информологии как науки можно отнести к концу 50-х годов нашего столетия, когда американским инженером Р. Хартли была сделана попытка ввести количественную меру информации, передаваемой по каналам связи. Рассмотрим простую игровую ситуацию. До получения сообщения о результате подбрасывания монеты человек находится в состоянии неопределенности относительно исхода очередного броска. Сообщение партнера дает информацию, снимающее эту неопределенность. Заметим, что число возможных исходов в описанной ситуации равно 2, они равноправны (равновероятны) и каждый раз передаваемая информация полностью снимала возникавшую неопределенность. Хартли принял «количество информации», передаваемое по каналу связи относительно двух равноправных исходов и снимающее неопределенность путем оказания на один из них, за единицу информации, получившую название «бит».

Семантическая мера информации

Новый этап теоретического расширения понятия информации связан с кибернетикой - наукой об управлении и связи в живых организмах, обществе и машинах. Оставаясь на позициях шенноновского подхода, кибернетика формулирует принцип единства информации и управления, который особенно важен для анализа сути процессов, протекающих в самоуправляющихся, самоорганизующихся биологических и социальных системах. Развитая в работах Н. Винера концепция предполагает, что процесс управления в упомянутых системах является процессом переработки (преобразования) некоторым центральным устройством информации, получаемой от источников первичной информации (сенсорных рецепторов) и передачи ее в те участки системы, где она воспринимается ее элементами как приказ для выполнения того или иного действия. По совершении самого действия сенсорные рецепторы готовы к передаче информации об изменившейся ситуации для выполнения нового цикла управления. Так организуется циклический алгоритм (последовательность действий) управления и циркуляции информации в системе. При этом важно, что главную роль играет здесь содержание информации, передаваемой рецепторами и центральным устройством. Информация, по Винеру - это «обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств».

Прагматическая мера информации

В прагматических концепциях информации этот аспект является центральным, что приводит к необходимости учитывать ценность, полезность, эффективность, экономичность информации, т.е. те ее качества, которые определяющим образом влияют на поведение самоорганизующихся, самоуправляющихся, целенаправленных кибернетических систем (биологических, социальных, человеко-машинных).

Одним из ярких представителей прагматических теорий информации является поведенческая модель коммуникации - бихевиористская модель Акоффа-Майлса. Исходным в этой модели является целевая устремленность получателя информации на решение конкретной проблемы. Получатель находится в «целеустремленном состоянии», если он стремится к чему-нибудь и имеет альтернативные пути неодинаковой эффективности для достижения цели. Сообщение, переданное получателю иформативно, если оно изменяет его «целеустремленное состояние».

Так как «целеустремленное состояние» характеризуется последовательностью возможных действий (альтернатив), эффективностью действия и значимостью результата, то передаваемое получателю сообщение может оказывать воздействие на все три компонента в различной степени. В соответствии с этим передаваемая информация различается по типам на «информирующую», «инструктирующую» и «мотивирующую». Таким образом, для получателя прагматическая ценность сообщения состоит в том, что оно позволяет ему наметить стратегию поведения при достижении цели построением ответов на вопросы: что, как и почему делать на каждом очередном шаге? Для каждого типа информации бихевиористская модель предлагает свою меру, а общая прагматическая ценность информации определяется как функция разности этих количеств в «целеустремленном состоянии» до и после его изменения на новое «целеустремленное состояние».

Тема 2. Основы представления и обработки информации в компьютере

Литература

1. Информатика в экономике: Учебное пособие/Под ред. Б.Е. Одинцова, А.Н. Романова. – М.: Вузовский учебник, 2008.

2. Информатика: Базовый курс: Учебное пособие/Под ред. С.В. Симоновича. – СПб.: Питер, 2009.

3. Информатика. Общий курс: Учебник/Соавт.:А.Н. Гуда, М.А. Бутакова, Н.М. Нечитайло, А.В. Чернов; Под общ. ред. В.И. Колесникова. – М.: Дашков и К, 2009.

4. Информатика для экономистов: Учебник/Под ред. Матюшка В.М. - М.: Инфра-М, 2006.

5. Экономическая информатика: Введение в экономический анализ информационных систем.- М.: ИНФРА-М, 2005.

Меры информации (синтаксическая, семантическая, прагматическая)

Для измерения информации могут применяться различные подходы, но наибольшее распространение получили статистический (вероятностный), семантический и прагматический методы.

Статистический (вероятностный) метод измерения информации был разработан К. Шенноном в 1948 году, который предложил количество информации рассматривать как меру неопределенности состояния системы, снимаемой в результате получения информации. Количественно выраженная неопределенность получила название энтропии. Если после получения некоторого сообщения наблюдатель приобрел дополнительную информацию о системе Х, то неопределенность уменьшилась. Дополнительно полученное количество информации определяется как:

где - дополнительное количество информации о системе Х , поступившее в форме сообщения;

Начальная неопределенность (энтропия) системы X ;

Конечная неопределенность (энтропия) системы X, наступившая после получения сообщения.

Если система X может находиться в одном из дискретных состояний, количество которых n , а вероятность нахождения системы в каждом из них равна и сумма вероятностей всех состояний равна единице , то энтропия вычисляется по формуле Шеннона:

где - энтропия системы Х;

а - основание логарифма, определяющее единицу измерения информации;

n – количество состояний (значений), в котором может находится система.

Энтропия величина положительная, а так как вероятности всегда меньше единицы, а их логарифм отрицательный, поэтому знак минус в формуле К.Шеннона делает энтропию положительной. Таким образом, за меру количества информации принимается та же энтропия, но с обратным знаком.

Взаимосвязь информации и энтропии можно понимать следующим образом: получение информации (ее увеличение) одновременно означает уменьшение незнания или информационной неопределенности (энтропии)

Таким образом, статистический подход учитывает вероятность появления сообщений: более информативным считается то сообщение, которое менее вероятно, т.е. менее всего ожидалось. Количество информации достигает максимального значения, если события равновероятны.

Р. Хартли предложил следующую формулу для измерения информации:

I=log 2 n ,

где n - количество равновероятных событий;

I – мера информации в сообщении о наступлении одного из n событий

Измерение информации выражается в ее объёме. Чаще всего это касается объёма компьютерной памяти и объёма данных, передаваемых по каналам связи. За единицу принято такое количество информации, при котором неопределённость уменьшается в два раза, такая единица информации получила название бит .

Если в качестве основания логарифма в формуле Хартли используется натуральный логарифм (), то единицей измерения информации является нат (1 бит = ln2 ≈ 0,693 нат). Если в качестве основания логарифма используется число 3, то - трит , если 10, то - дит (хартли).

На практике чаще применяется более крупная единица - байт (byte ), равный восьми битам. Такая единица выбрана потому, что с ее помощью можно закодировать любой из 256 символов алфавита клавиатуры компьютера (256=2 8).

Кроме байтов информация измеряется полусловами (2 байта), словами (4 байта) и двойными словами (8 байт). Широко используются также еще более крупные единицы измерения информации:

1 Килобайт (Кбайт - kilobyte ) = 1024 байт = 2 10 байт,

1 Мегабайт (Мбайт - megabyte ) = 1024 Кбайт = 2 20 байт,

1 Гигабайт (Гбайт - gigabyte ) = 1024 Мбайт = 2 30 байт.

1 Терабайт (Тбайт - terabyte ) = 1024 Гбайт = 2 40 байт,

1 Петабайт (Пбайт - petabyte ) = 1024 Тбайт = 2 50 байт.

В 1980 году российский математик Ю. Манин предложил идею построения квантового компьютера, в связи с чем появилась такая единица информации как кубит (quantum bit, qubit) – «квантовый бит» – мера измерения объема памяти в теоретически возможном виде компьютера, использующем квантовые носители, например - спины электронов. Кубит может принимать не два различных значения ("0" и "1"), а несколько, соответствующих нормированным комбинациям двух основных состояний спина, что дает большее число возможных сочетаний. Так, 32 кубита могут закодировать около 4 млрд состояний.

Семантический подход. Синтаксической меры не достаточно, если требуется определить не объем данных, а количество нужной в сообщении информации. В этом случае рассматривается семантический аспект, позволяющий определить содержательную сторону сведений.

Для измерения смыслового содержания информации можно воспользоваться тезаурусом ее получателя (потребителя). Идея тезаурусного метода была предложена Н. Винером и развита нашим отечественным ученым А.Ю. Шрейдером.

Тезаурусом называется совокупность сведений , которыми располагает получатель информации. Соотнесение тезауруса с содержанием поступившего сообщения позволяет выяснить, насколько оно снижает неопределенность..

Зависимость объема смысловой информации сообщения от тезауруса получателя

Согласно зависимости, представленной на графике, при отсутствии у пользователя какого-либо тезауруса (знаний о существе поступившего сообщении, то есть =0), или наличия такого тезауруса, который не изменился в результате поступления сообщения (), то объем семантической информации в нем равен нулю. Оптимальным будет такой тезаурус (), при котором объем семантической информации будет максимальным (). Например, семантической информации в поступившем сообщении на незнакомом иностранном языке будет ноль , но и такая же ситуация будет в том случае, если сообщение уже не является новостью, так как пользователю уже все известно.

Прагматическая мера информации определяет ее полезность в достижении потребителем своих целей. Для этого достаточно определить вероятность достижения цели до, и после получения сообщения и сравнить их. Ценность информации (по А.А. Харкевичу) рассчитывается по формуле:

где - вероятность достижения цели до получения сообщения;

Вероятность достижения цели поле получения сообщения;

В базе данных информация записывается и воспроизводится с помощью специально созданных лексических средств и на основе принятых синтаксических правил и ограничений.

Синтаксический анализ устанавливает важнейшие параметры информационных потоков, включая необходимые количественные характеристики, для выбора комплекса технических средств сбора, регистрации, передачи, обработки, накопления, хранения и защиты информации.

Синтаксический анализ обслуживаемых информационных потоков обязательно предшествует всем этапам проектирования информационных систем.

Семантический анализ позволяет изучить информацию с точки зрения смыслового содержания отдельных элементов, находить способы языкового соответствия (язык человека, язык ЭВМ) при однозначном распознавании вводимых в систему сообщений.

Прагматический анализ проводится с целью определения полезности информации, используемой для управления, выявления практической значимости сообщений, применяемых для выработки управляющих воздействий.

Постоянная информация остается без изменений или же подвергается незначительным корректировкам в течение более или менее длительного периода времени. Это различные справочные сведения, нормативы, расценки и т.п.

Переменная информация отражает результаты выполнения производственно-хозяйственных операций, соответствует их динамизму и, как правило, участвует в одном технологическом цикле машинной обработки.

При вводе и обработке информации используются пакетный и интерактивные режимы.

Пакетный режим был наиболее распространен в практике централизованного решения экономических задач, когда большой удельный вес занимали задачи отчетности о производственнохозяйственной деятельности экономических объектов разного уровня управления. Организация вычислительного процесса при пакетном режиме строилась без доступа пользователя к ЭВМ.

Его функции ограничивались подготовкой исходных данных по комплексу информационно-взаимосвязанных задач и передачей их в центр обработки, где формировался пакет, включающий задание для ЭВМ на обработку, программы, исходные, нормативнорасценочные и справочные данные. Пакет вводился в ЭВМ и реализовывался в автоматическом режиме без участия пользователя и оператора, что позволяло минимизировать время выполнения заданного набора задач. В настоящее время пакетный режим реализуется в электронной почте или при массированных обновлениях баз данных.

Интерактивный режим предусматривает непосредственное взаимодействие пользователя с информационно-вычислительной системой, может носить характер запроса или диалога с системой.

Запросный режим необходим пользователям для взаимодействия с системой через значительное число абонентских терминальных устройств, в том числе удаленных на значительное расстояние от центра обработки.

Пример: Задача резервирования билетов на транспорте.

Информационная система реализует массовое обслуживание, работает в режиме разделения времени, при котором несколько независимых пользователей с помощью терминалов имеют в процессе решения своих задач непосредственный и практически

одновременный доступ к информационной системе. Этот режим позволяет дифференцированно в строго установленном порядке предоставлять каждому пользователю время для общения с системой, а после окончания сеанса выходить из нее.

Диалоговый режим открывает пользователю возможность непосредственно взаимодействовать с информационно-вычислительной системой в допустимом для него темпе работы, реализуя повторяющийся цикл выдачи задания, получения и анализа ответа.

Еще по теме Синтаксический, семантический, прагматический аспекты информационного процесса:

  1. Структура массово-информационной деятельности: сбор, обработка, компоновка, передача, восприятие, трансформация, хранение и использование массовой информации. Потенциальная, принятая и реальная информация. Семантический, синтаксический и прагматический аспекты массово-информационных текстов.
  2. Единицы и способы концептуализации в семантическом, синтаксическом и прагматическом аспектах
  3. 7.ЖУРНАЛИСТСКИЙ ТЕКСТ КРИТЕРИИ АДЕКВАТНОСТИ ЖУРНАЛИСТСКОГО ТЕКСТА СЕМАНТИЧЕСКИЙ, СИНТАКСИЧЕСКИЙ, ПРАГМАТИЧЕСКИЙ АСПЕКТЫ ЖУРНАЛИСТСКОГО ТЕКСТАСПЕЦИФИКА ЭФФЕКТИВНОСТИ ЖУРНАЛИСТСКОГО ТЕКСТА

Термин "информация " происходит от латинского "informatio ", что означает разъяснение, осведомление, изложение. С позиции материалистической философии информация есть отражение реального мира с помощью сведений (сообщений). Сообщение - это форма представления информации в виде речи, текста, изображения, цифровых данных, графиков, таблиц и т.п. В широком смысле информация - это общенаучное понятие, включающее в себя обмен сведениями между людьми, обмен сигналами между живой и неживой природой, людьми и устройствами.

Информатика рассматривает информацию как концептуально связанные между собой сведения, данные, понятия, изменяющие наши представления о явлении или объекте окружающего мира. Наряду с информацией в информатике часто употребляется понятие “данные ”. Покажем в чем их отличие.

Данные могут рассматриваться как признаки или записанные наблюдения, которые по каким-то причинам не используются, а только хранятся. В том случае, если их используют для уменьшения неопределенности (получения сведений) о каком-либо объекте, данные превращаются в информацию. Данные существуют объективно и не зависят от человека и объема его знаний. Одни и те же данные для одного человека могут превратиться в информацию, т.к. они способствовали уменьшению неопределенности знаний человека, а для другого человека так и останутся данными.

Пример 1

Напишите на листе 10 номеров телефонов в виде последовательности 10-ти чисел и покажите их вашему сокурснику. Он воспримет эти цифры как данные, т.к. они не предоставляют ему никаких сведений.

Затем напротив каждого номера укажите название фирмы и род деятельности. Непонятные ранее цифры для вашего сокурсника обретут определенность и превратятся из данных в информацию, которую он в дальнейшем мог бы использовать.

Данные можно разделить на факты, правила и текущие сведения. Факты отвечают на вопрос "я знаю, что…". Примеры фактов:

  • Москва - столица России;
  • Дважды два равно четыре;
  • Квадрат гипотенузы равен сумме квадратов катетов.

Правила отвечают на вопрос "я знаю, как…". Примеры правил:

  • Правила вычисления корней квадратного уравнения;
  • Инструкция пользования банкоматом;
  • Правила дорожного движения.

Факты и правила представляют достаточно данные длительного использования. Они достаточно статичны, т.е. не изменчивы во времени.

Текущие сведения представляют данные, употребляемые в относительно короткий промежуток времени - курс доллара, цена товара, новости.

Одной из важнейших разновидностей информации является информация экономическая. Ее отличительная черта - связь с процессами управления коллективами людей, организацией. Экономическая информация сопровождает процессы производства, распределения, обмена и потребления материальных благ и услуг. Значительная часть ее связана с общественным производством и может быть названа производственной информацией.

При работе с информацией всегда имеется ее источник и потребитель (получатель). Пути и процессы, обеспечивающие передачу сообщений от источника информации к ее потребителю называются информационными коммуникациями.

1.2.2. Формы адекватности информации

Для потребителя информации очень важной характеристикой является ее адекватность .

В реальной жизни вряд ли возможна ситуация, когда вы сможете ориентироваться на полную адекватность информации. Всегда присутствует некоторая степень неопределенности. От степени адекватности информации реальному состоянию объекта или процесса зависит правильность принятия решений потребителем.

Пример 2

Вы успешно окончили школу и хотите продолжить образование по экономическому направлению. Поговорив с друзьями, вы узнаете, что подобную подготовку можно получить в разных вузах. В результате таких бесед вы получаете весьма разноречивые сведения, которые не позволяют вам принять решение в пользу того или иного варианта, т.е. полученная информация неадекватна реальному состоянию дел.

Для того чтобы получить более достоверные сведения, вы покупаете справочник для поступающих в вузы, из которого получаете исчерпывающую информацию. В этом случае можно говорить, что информация, полученная вами из справочника, адекватно отражает направления обучения в вузах и помогает вам определиться в окончательном выборе.

Адекватность информации может выражаться в трех формах: семантической, синтаксической, прагматической.

Синтаксическая адекватность

Синтаксическая адекватность отображает формально-структурные характеристики информации и не затрагивает смыслового содержания. На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления информации, надежность и точность преобразования этих кодов и т.п. Информацию, рассматриваемую только с синтаксических позиций, обычно называют данными, т.к. при этом не имеет значения смысловая сторона. Эта форма способствует восприятию внешних структурных характеристик, т.е. синтаксической стороны информации.

Семантическая (смысловая) адекватность

Семантическая адекватность определяет степень соответствия образа объекта и самого объекта. Семантический аспект имеет в виду учет смыслового содержания информации. На этом уровне анализируются те сведения, которые отражает информация, рассматриваются смысловые связи. В информатике устанавливаются смысловые связи между кодами представления информации. Эта форма служит для формирования понятий и представлений, выявления смысла, содержания информации и ее обобщения.

Прагматическая (потребительская) адекватность

Прагматическая адекватность отражает отношение информации и ее потребителя, соответствие информации цели управления, которое на ее основе реализуется. Проявляются прагматические свойства информации только при наличии единства информации (объекта), пользователя и цели управления. Прагматический аспект рассмотрения связан с ценностью, полезностью использования информации для выработки потребителем решения для достижения своей цели. С этой точки зрения анализируются потребительские свойства информации. Эта форма адекватности непосредственно связана с практическим использованием информации, с соответствием ее целевой функции деятельности системы.

1.2.3. Измерение информации

Для измерения информации вводятся два параметра:

Эти параметры имеют разные выражения и интерпретацию в зависимости от рассматриваемой формы адекватности. Каждой форме адекватности соответствует своя мера количества информации и объема данных (рис. 1).

Рис. 1. Меры информации

Синтаксические меры информации

Синтаксические меры количества информации имеют дело с обезличенной информацией, не выражающей смыслового отношения к объекту.

Объем данных в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес, и соответственно меняется единица измерения данных:

  • в двоичной системе счисления единица измерения - бит (binary digit - двоичный разряд). Наряду с этой единицей измерения широко используется укрупненная единица измерения “байт”, равная 8 бит.
  • в десятичной системе счисления единица измерения - дит (десятичный разряд).

Пример 3

Сообщение в двоичной системе в виде восьмиразрядного двоичного кода 10111011 имеет объем данных Сообщение в десятичной системе в виде шестиразрядного числа 275903имеетобъемданных

Определение количества информации I на синтаксическом уровне невозможно без рассмотрения понятия неопределенности состояния системы (энтропии системы). Действительно, получение информации о какой-либо системе всегда связано с изменением степени неосведомленности получателя о состоянии этой системы. Рассмотрим это понятие.

Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе a . Мерой его неосведомленности о системе является функция Н(a), которая в тоже время служит и мерой неопределенности состояния системы. Эта мера получила название энтропия . Если потребитель имеет полную информацию о системе, то энтропия равна 0. Если потребитель имеет полную неопределенность о какой-то системе, то энтропия является положительным числом. По мере получения новой информации энтропия уменьшается.

После получения некоторого сообщения b получатель приобрел некоторую дополнительную информацию , уменьшившую его априорную неосведомленность так, что апостериорная (после получения сообщения b ) неопределенность состояния системы стала .

Тогда количество информации о системе, полученное в сообщении b , определится как , т. е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы.

Если конечная неопределенность обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации . Иными словами, энтропия системы Н(a) может рассматриваться как мера недостающей информации.

Энтропия системы Н(a) , имеющая N возможных состояний, согласно формуле Шеннона, равна

(1)

где - вероятность того, что система находится в i -м состоянии.

Для случая, когда все состояния системы равновероятны, т.е. их вероятности равны , ее энтропия определяется соотношением

(2)

Энтропия системы в двоичной системе счисления измеряется в битах. Исходя из формулы (2) можно сказать, что в системе в равновероятными состояниями 1 бит равен количеству информации, которая уменьшает неопределенность знаний в два раза.

Пример 4

Система, которая описывает процесс бросания монеты, имеет два равновероятных состояния. Если вам нужно угадать, какая сторона выпала сверху, то вы сначала имеете полную неопределенность о состоянии системы. Что бы получить информацию о состоянии системы, вы задаете вопрос: "Это орел?". Этим вопросом вы пытаетесь отбросить половину неизвестных состояний, т.е. уменьшить неопределенность в 2 раза. Какой бы ответ ни последовал "Да" или "Нет", вы получите полную ясность о состоянии системы. Таким образом, ответ на вопрос содержит 1 бит информации. Поскольку после 1-го вопроса наступила полня ясность, то энтропия системы равна 1. Этот же ответ дает формула (2), т.к. log2 2=1.

Пример 5.

Игра "Отгадай число". Вам надо угадать задуманное число от 1 до 100. В начале отгадывания вы имеете полную неопределенность о состоянии системы. При отгадывании надо задавать вопросы не хаотично, а так, чтобы ответ уменьшал неопреденность знаний в 2 раза, получая таким образом примерно 1 бит информации после каждого вопроса. Например, сначала надо задать вопрос: "Число больше 50?". "Правильный" подход к отгадыванию дает возможность угадать число за 6-7 вопросов. Если применить формулу (2), то получится, что энтропия системы равна log2 100=6,64.

Пример 6.

Алфавит племени "тумбо-юмбо" содержит 32 различных символа. Какова энтропия системы? Другими словами надо определить, какое количество информации несет в себе каждый символ.
Если считать, что каждый символ встречается в словах с равной вероятностью, то энтропия log2 32=5.

Наиболее часто используются двоичные и десятичные логарифмы. Единицами измерения в этих случаях будут соответственно бит и дит.

Коэффициент (степень) информативности (лаконичность) сообщения определяется отношением количества информации к объему данных, т.е.

Чем больше коэффициент информативности Y, тем меньше объем работы по преобразованию информации (данных) в системе. Поэтому стремятся к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации.

Семантическая мера информации

Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне наибольшее признание получила тезаурусная мера, предложенная Ю.И.Шнейдером. Он связывает семантические свойства информации прежде всего со способностью пользователя принимать поступившее сообщение. Для этого используется понятие "тезаурус пользователя ".

В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя Sp изменяется количество семантической информации , воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. Характер такой зависимости показан на рис. 2. Рассмотрим два предельных случая, когда количество семантической информации равно 0:

Максимальное количество семантической информации потребитель приобретает при согласовании ее смыслового содержания S со своим тезаурусом, когда поступающая информация понятна пользователю и несет ему ранее не известные (отсутствующие в его тезаурусе) сведения.

Следовательно, количество семантической информации в сообщении, количество новых знаний, получаемых пользователем, является величиной относительной. Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным (семантический шум) для пользователя некомпетентного.

о.

Рис. 2. Зависимость количества семантической информации, воспринимаемой потребителем, от его тезауруса

При оценке семантического (содержательного) аспекта информации надо стремиться к согласованию величин S и Sp.

Относительной мерой количества семантической информации может служить коэффициент содержательности С , который определяется как отношение количества семантической информации к ее объему

Прагматическая мера информации

Прагматическая мера информации служит для определения ее полезности (ценности) для достижения пользователем поставленной цели. Эта мера также величина относительная, обусловленная особенностями использования этой информации в той или иной системе. Ценность информации целесообразно измерять в тех же самых единицах (или близких к ним), в которых измеряется целевая функция.

Пример 7

В экономической системе прагматические свойства (ценность) информации можно определить приростом экономического эффекта функционирования, достигнутым благодаря использованию этой информации для управления системой:

где - ценность информационного сообщения для системы управления ;

- априорный ожидаемый экономический эффект функционирования системы управления ;

Ожидаемый эффект функционирования системы при условии, что для управления будет использована информация, содержащаяся в сообщении .

Для сопоставления введенные меры информации представим в табл. 1.

Таблица 1. Единицы измерения информации и примеры

Меры информации

Единицы измерения

Примеры
(для компьютерной области)

Синтаксическая:

а)Шенноновский подход

б)компьютерный подход

а)степень уменьшения неопределенности

б)единицы представления информации

а) вероятность события

б) бит, байт, Кбайт и т.д.

Семантическая

а) тезаурус

б) экономические показатели

а)пакет прикладных программ, персональный компьютер, компьютерные сети и т.д.

б)рентабельность, производительность, коэффициент амортизации и т.д.

Прагматическая

Ценность использования

Емкость памяти, производительность компьютера, скорость передачи данных и т.д.

Денежное выражение

Время обработки информации и принятия решений

1.2.4. Свойства информации

Возможность и эффективность использования информации обуславливаются такими основными ее свойствами, как: репрезентативность, содержательность, достаточность, доступность, актуальность, своевременность, точность, достоверность, устойчивость.
Репрезентативность информации связана с правильностью ее отбора и формирования с целью адекватного отражения свойств объекта.

Важнейшее значение здесь имеют:

  • правильность концепции, на базе которой сформулировано исходное понятие;
  • обоснованность отбора существенных признаков и связей отображаемого явления.

Нарушение репрезентативности информации приводит нередко к существенным ее погрешностям.

Содержательность информации отражает семантическую емкость, равную отношению количества семантической информации в сообщении к объему обрабатываемых данных, т. е. . С увеличением содержательности информации растет семантическая пропускная способность информационной системы, так как для получения одних и тех же сведений требуется преобразовать меньший объем данных.

Наряду с коэффициентом содержательности C , отражающим семантический аспект, можно использовать и коэффициент информативности, характеризующийся отношением количества синтаксической информации (по Шеннону) к объему данных .

Достаточность (полнота) информации означает, что она содержит минимальный, но достаточный для принятия правильного решения состав (набор показателей). Понятие полноты информации связано с ее смысловым содержанием (семантикой) и прагматикой. Как неполная, т.е. недостаточная для принятия правильного решения, так и избыточная информация снижают эффективность принимаемых пользователем решений.

Доступность информации восприятию пользователя обеспечивается выполнением соответствующих процедур ее получения и преобразования. Например, в информационной системе информация преобразовывается к доступной и удобной для восприятия пользователя форме. Это достигается, в частности, и путем согласования ее семантической формы с тезаурусом пользователя.

Актуальность информации определяется степенью сохранения ценности информации для управления в момент ее использования и зависит от динамики изменения ее характеристик и от интервала времени, прошедшего с момента возникновения данной информации.

Своевременность информации означает ее поступление не позже заранее назначенного момента времени, согласованного с временем решения поставленной задачи.

Точность информации определяется степенью близости получаемой информации к реальному состоянию объекта, процесса, явления и т.п. Для информации, отображаемой цифровым кодом, известны четыре классификационных понятия точности:

  • формальная точность, измеряемая значением единицы младшего разряда числа;
  • реальная точность, определяемая значением единицы последнего разряда числа, верность которого гарантируется;
  • максимальная точность, которую можно получить в конкретных условиях функционирования системы;
  • необходимая точность, определяемая функциональным назначением показателя.

Достоверность информации определяется ее свойством отражать реально существующие объекты с необходимой точностью. Измеряется достоверность информации доверительной вероятностью необходимой точности, т.е. вероятностью того, что отображаемое информацией значение параметра отличается от истинного значения этого параметра в пределах необходимой точности.

Устойчивость информации отражает ее способность реагировать на изменения исходных данных без нарушения необходимой точности. Устойчивость информации, как и репрезентативность, обусловлены выбранной методикой ее отбора и формирования.

В заключение следует отметить, что такие параметры качества информации, как репрезентативность, содержательность, достаточность, доступность, устойчивость целиком определяются на методическом уровне разработки информационных систем. Параметры актуальности, своевременности, точности и достоверности обусловливаются в большей степени также на методическом уровне, однако, на их величину существенно влияет и характер функционирования системы, в первую очередь, ее надежность. При этом параметры актуальности и точности жестко связаны, соответственно, с параметрами своевременности и достоверности.

1.2.5. Общая характеристика информационных процессов

В природе и в обществе постоянно происходит взаимодействие объектов, связанные с изменением информации. Изменение информации происходит в результате разнообразных воздействий. Совокупность действий с информацией называют информационным процессом . Информационная деятельность состоит из разнообразных действий, которые выполняются с информацией. Среди них можно выделить действия, связанные с поиском, приемом, обработкой, передачей, хранением и защитой информации.

Обмен информацией между людьми, реакция человеческого организма на природные явления, взаимодействия человека и автоматизированной системы, - все это примеры информационных процессов.

Процесс сбора включает в себя:

  • измерение параметров;
  • регистрацию параметров в виде данных для последующей обработки;
  • преобразование данных в форму, используемую в системе (кодирование, приведение к нужному виду и ввод в систему обработки).

Для того, чтобы данные были измерены и зарегистрированы, необходимо наличие аппаратных средств, преобразующих сигналы в форму, воспринимаемую системой получателя (совместимую). Например, для регистрации температуры больного или влажности почвы для последующей их обработки нужны специальные датчики. Для записи этих данных на носитель или их передачи также нужны аппаратные средства.

Хранение информации необходимо для того, чтобы можно было многократно воспользоваться одними и теми же данными. Для обеспечения хранения информации необходимы апапратные средства записи данных на материальный носитель и чтения с носителя.

Процесс обмена информацией подразумевает наличие источника и потребителя (приемника) информации. Процесс выхода информации от источника называется передачей , а процесс получения информации потребителей называется приемом . Таким образом, процесс обмена подразумевает наличие двух взаимосвязанных процессов передачи-приема.

Процессы передачи и приема могут быть односторонними, двусторонними, а также поочередно двусторонними.

Пути и процессы, обеспечивающие передачу сообщений от источника информации к ее потребителю, называются информационными коммуникациями .

Рис. 3. Информационный процесс обмена информацией

Источниками и потребителями информации могут быть люди, животные, растения, автоматические устройства. От источника к потребителю информация передается в форме сообщений. Прием и передача сообщений осуществляется в виде сигналов. Сигнал - это изменение физической среды, отображающее сообщение. Сигнал может быть звуковой, световой, обонятельный (запах), электрический, электромагнитный и т.д.

Кодирующее устройство преобразует сообщение из вида, понятного источнику, в сигналы физической среды, по которой передается сообщение. Декодирующее устройство выполняет обратную операцию и преобразует сигналы среды к виду, понятному потребителю.

Материальными носителями передаваемых сообщений могут быть природные химические соединения (ощущаемые на запах и на вкус), механические колебания воздуха или мембраны телефона (при передаче звука), колебания электрического тока в проводах (телеграф, телефон), электромагнитные волны оптического диапазона (воспринимаемые человеческим глазом), электромагнитные волны радиодиапазона (для передачи звука и телеизображения).

В организме человека и животных информация передается по нервной системе в виде слабых электрических токов или с помощью особых химических соединений (гормонов), переносимых кровью.

Каналы связи характеризуются пропускной способностью - количеством данных, переданных в единицу времени. Она зависит от скорости преобразования информации в приемо-передающих устройствах, и от физических свойств самих каналов. Пропускная способность определяется возможностями физической природы канала.

В вычислительной технике информационные процессы автоматизированы и используют аппаратные и программные методы, приводящие сигналы в совместимую форму.

На всех этапах обработки и передачи необходимо передающее и принимающее устройства, имеющие соответствующие совместимые аппаратные средства. Данные после получения могут быть зафиксированы на носителях информации для хранения до следующего процесса.

Следовательно, информационный процесс может состоять из серии преобразований данных и их сохранения в новой форме.
Информационные процессы в современном мире имеют тенденцию автоматизации на компьютере. Появляется все большее количество информационных систем, которые реализуют информационные процессы, и удовлетворяют запросы потребителей информации.

Хранение данных в компьютерных каталогах позволяет быстро копировать информацию, размещать на разных носителях, выдавать пользователям в разной форме. Претерпевают изменения и процессы передачи информации на большие расстояния. Человечество постепенно переходит на связь через глобальные сети.

Обработка - это процесс преобразования информации из одного вида в другой.

Чтобы осуществить обработку, необходимы следующие условия:

  • исходные данные - сырье для обработки;
  • среда и инструменты обработки;
  • технология, которая определяет правила (способы) преобразования данных

Процесс обработки завершается получением новой информации (по форме, по содержанию, по смыслу), которую называют результирующей информацией.

Процесс обработки информации напоминает процесс материального производства. При производстве товаров необходимо сырье (исходные материалы), среда и инструменты производства (цех и станки), технология изготовления товара.
Все описанные выше отдельные стороны информационного процесса тесно взаимосвязаны.

При выполнении информационного процесса на компьютере выделяют четыре группы действий с данными - ввод, хранение, обработку и вывод.

Обработка предполагает преобразование данные в некоторой программной среде. Каждая программная среда обладает набором инструментов, с помощью которых можно опреровать данныи. Чтобы осуществить обработку надо знать технологию работы в среде, т.е. технологию работы с инструментами среды.

Чтобы обработка стала возможной надо данные ввести, т.е. передать от пользователя в компьютер. Для этого предназначены разнообразные устройства ввода.

Чтобы данные не пропали, и их можно было многократно использовать, осуществляется запись данных на разнообразные устройства хранения информациию.

Чтобы увидеть результаты обработки информации, ее надо вывести, т.е. передать из компьютера пользователю, с помощью разнообразных устройств вывода.

1.2.6. Кодирование числовой информации

Общие понятия

Система кодирования применяется для замены названия объекта на условное обозначение (код) с целью обеспечения удобной и более эффективной обработки информации.

Система кодирования - совокупность правил кодового обозначения объектов.

Код строится на базе алфавита, состоящего из букв, цифр и других символов. Код характеризуется:

  • длиной - число позиций в коде;
  • структурой - порядок расположения в коде символов, используемых для обозначения классификационного признака.

Процедура присвоения объекту кодового обозначения называется кодированием.

Представление о системах счисления

Числа могут быть представлены в различных системах счисления.

Для записи чисел могут использоваться не только цифры, но и буквы (например, запись римских цифр - XXI, MCMXCIX). В зависимости от способа изображения чисел системы счисления делятся на позиционные и непозиционные .

В позиционной системе счисления количественное значение каждой цифры числа зависит от того, в каком месте (позиции или разряде) записана та или иная цифра этого числа. Позиции числа нумеруют от 0 справа налево. Например, меняя позицию цифры 2 в десятичной системе счисления, можно записать разные по величине десятичные числа, например, 2 (цифра 2 стоит на 0-й позиции и означает две единицы); 20 (цифра 2 стоит на 1-й позиции и означает два десятка); 2000 (цифра 2 стоит на 3-й позиции и означает две тысячи); 0,02 и т.д. Перемещение положения цифры в соседний разряд увеличивает (уменьшает) ее значение в 10 раз.

В непозиционной системе счисления цифры не изменяют своего количественного значения при изменении их расположения (позиции) в числе. Примером непозиционной системы может служить римская система, в которой независимо от местоположения, одинаковый символ имеет неизменное значение (например, символ X в числе XVX означает десять, где бы он ни стоял).

Количество (p) различных символов, используемых для изображения числа в позиционной системе счисления, называется основанием системы счисления. Значения цифр лежат в пределах от 0 до p-1.

В десятичной системе счисления p=10 и для записи любого числа используется 10 цифр: 0, 1, 2, ... 9.

Для компьютера наиболее подходящей и надежной оказалась двоичная система счисления (p=2), в которой для представления чисел используются последовательности цифр - 0 и 1. Кроме того, для работы компьютера оказалось удобным использовать представление информации с помощью еще двух систем счисления:

  • восьмеричной (p=8, т.е. любое число представляется с помощью 8 цифр - 0,1, 2,...7);
  • шестнадцатеричной (p=16, используемые символы - цифры - 0, 1, 2, ..., 9 и буквы - A, B, C, D, E, F, заменяющие числа 10,11, 12, 13, 14, 15 соответственно).

Соответствие кодов десятичной, двоичной и шестнадцатеричной систем счисления представлено в таблице 2.

Таблица 2. Соответствие кодов десятичной, двоичной и шестнадцатеричной систем счисления

Десятичная

Двоичная

Шестнадцатеричная

В общем случае любое число N в позиционной системе счисления можно представить в виде:

где k - количество разрядов в целой частности числа N;

- (k –1)-ая цифра целой части числа N, записанного в системе счисления с основанием p;

N-ая цифра дробной части числа N, записанного в системе счисления с основанием p;

n - количество разрядов в дробной части числа N;

Максимальное число, которое может быть представлено в к разрядах .

Минимальное число, которое может быть представлено в n разрядах .

Имея в целой части числа к разрядов, а в дробной n разрядов, можно записать всего разных чисел.

С учетом этих обозначений запись числа N в любой позиционной системе счисления с основанием p имеет вид:

Пример 8

При p = 10 запись числа в десятичной системе счисления – 2466,675 10 , где k = 4, n = 3.

При p = 2 запись числа в двоичной системе – 1011,112 , где k = 4, n = 2.

Двоичная и шестнадцатеричная системы счисления обладают такими же свойствами, что и десятичная, только для представления чисел используется не 10 цифр, а всего две в первом случае и 10 цифр и 6 букв во втором случае. Соответственно и разряд числа называют не десятичным, а двоичным или шестнадцатеричным. Основные законы выполнения арифметических действий в двоичной и шестнадцатеричной системах счисления соблюдаются точно также как и в десятичной.

Для сравнения рассмотрим представление чисел в разных системах счисления, как сумму слагаемых, в которых учтен вес каждого разряда.

Пример 9

В десятичной системе счисления

В двоичной системе счисления

В шестнадцатеричной системе счисления

Существуют правила перевода чисел из одной системы счисления в другую.

Формы представления чисел в компьютере

В компьютерах применяются две формы представления двоичных чисел:

  • естественная форма или форма с фиксированной запятой (точкой);
  • нормальная форма или форма с плавающей запятой (точкой).

В естественной форме (с фиксированной запятой) все числа изображаются в виде последовательности цифр с постоянным для всех чисел положением запятой, отделяющей целую часть от дробной.

Пример 10

В десятичной системе счисления имеются 5 разрядов в целой части числа и 5 разрядов в дробной части числа. Числа, записанные в такую разрядную сетку, например, имеют вид: +00564,24891; -10304,00674 и т.д. Максимальное число, которое можно представить в такой разрядной сетке будет 99999,99999.

Форма представления чисел с фиксированной запятой наиболее проста, но имеет ограниченный диапазон представления чисел. Если в результате операции получится число, выходящее за допустимый диапазон, происходит переполнение разрядной сетки, и дальнейшие вычисления теряют смысл. Поэтому в современных компьютерах такая форма представления используется обычно только для целых чисел .

Если используется система счисления с основанием p при наличии k разрядов в целой части и n разрядов в дробной части числа, то диапазон значащих чисел N при их представлении в форме с фиксированной запятой, определяется соотношением:

Пример 11

При p =2, k =10, n =6 диапазон значащих чисел будет определяться следующим соотношением:

В нормальной форме (с плавающей запятой) каждое число изображается в виде двух групп цифр. Первая группа цифр называется мантиссой , вторая – порядком , причем абсолютная величина мантиссы должна быть меньше 1, а порядок – целым числом. В общем виде число в форме с плавающей запятой может быть представлено в виде:

где M – мантисса числа (| M | < 1);

r – порядок числа (r - целое число);

p – основание системы счисления.

Пример 12

Приведенные в примере 3 числа +00564,24891; -10304,00674 будут представлены в форме с плавающей запятой следующими выражениями:

Нормальная форма представления имеет огромный диапазон отображения чисел и является основной в современных компьютерах. Знак числа кодируется двоичной цифрой. При этом код 0 означает знак «+», код 1 - знак «-».

Если используется система счисления с основанием p при наличии m разрядов у мантиссы и s разрядов у порядка (без учета знаковых разрядов порядка и мантиссы), то диапазон значащих чисел N при их представлении в нормальной форме, определяется соотношением:

Пример 13

При p =2, m =10, s =6 диапазон значащих чисел будет определяться примерно от до

Форматы представления чисел в компьютере

Последовательность нескольких битов или байтов часто называют полем данных. Биты в числе (в слове, в поле и т.п.) нумеруются справа налево, начиная с 0-го разряда.

В компьютере могут обрабатываться поля постоянной и переменной длины.

Поля постоянной длины:

слово – 2 байта

полуслово – 1 байт

двойное слово – 4 байта

расширенное слово – 8 байт.

Поля переменной длины могут иметь размер от 0 до 256 байт, но обязательно равный целому числу байтов.

Числа с фиксированной запятой чаще всего имеют формат слова и полуслова. Числа с плавающей запятой – формат двойного и расширенного слова.

Пример 14

Числу –193 в десятичной системе соответствует в двоичной системе число –11000001. Представим это число в двух форматах.

Для естественной формы представления этого числа (с фиксированной запятой) потребуется слово емкостью 2 байта. (таблица 3).

Таблица 3

Знак числа

Абсолютная величина числа

№ разряда

В нормальной форме число -19310 в десятичной записи имеет вид -0,193х103, а в двоичной записи это же число имеет вид -0,11000001х21000. Мантисса, обозначающая число 193, записанная в двоичной форме имеет 8 позиций. Таким образом, порядок числа равен 8, поэтому степень числа 2 равна 8 (10002). Число 8 также записано в двоичной форме. Для нормальной формы представления этого числа (с плавающей запятой) потребуется двойное слово, т.е. 4 байта (таблица 4).

Таблица 4

Знак числа

Порядок Мантисса

№ разряда

Знак числа записывается в крайнем левом 31-м бите. На запись порядка числа отводится 7 бит (с 24-го по 30-й). В этих позициях записано число 8 в двоичной форме. Для записи мантиссы отводится 24 бита (с 0-го по 23-й). Мантисса записывается слева направо.

Перевод из любой позиционной системы в десятичную систему счисления

Перевод из любой позиционной системы счисления, например используемой в компьютере с основанием p = 2; 8; 16, в десятичную систему счисления производится по формуле (1).

Пример 15

Перевести в десятичную систему счисления двоичное число . Подставляя в формулу перевода (1) соответствующие двоичные разряды исходного числа, найдем:

Пример 16

Пример 17

Перевести число в десятичную систему счисления.

При переводе учтено, что в 16-ой системе счисления буква А заменяет значение 10.

Перевод целого числа из десятичной в другую позиционную систему счисления

Рассмотрим обратный перевод - из десятичной системы в другую систему счисления. Для простоты ограничимся переводом только целых чисел.

Общее правило перевода следующее: необходимо разделить число N на p. Полученный при этом остаток даст цифру, стоящую в 1-ом разряде p-ричной записи числа N. Затем полученное частное снова разделить на p и снова запомнить полученный остаток - это будет цифра второго разряда и т.д. Такое последовательное деление продолжается до тех пор, пока частное не окажется меньше, чем основание системы счисления - p. Это последнее частное и будет цифрой старшего разряда.

Пример 18

Перевести десятичное число N = 20 (p = 10) в двоичную систему счисления (p = 2).

Действуем по указанному выше правилу (рис. 4). Первое деление дает частное 10 и остаток, равный 0. Это цифра младшего разряда. Второе деление дает частное – 5 и остаток – 1. Третье деление дает частное – 2 и остаток – 0. Деление продолжается, пока частное не равно нулю. Пятое частное – 0. Остаток – 1. Этот остаток – старшая цифра полученного двоичного числа. На этом деление заканчивается. Теперь записываем результат, начиная с последнего частного, затем переписываем все остатки. В итоге получим:

Рис. 4. Перевод десятичного числа в двоичное методом деления

1.2.7. Кодирование текстовой данных

Текстовые данные представляют собой совокупность алфавитных, цифровых и специальных символов, зафиксированных на некотором физическом носителе (бумага, магнитный диск, изображение на экране дисплея).

Нажатие клавиши на клавиатуре приводит к тому, что сигнал посылается в компьютер в виде двоичного числа, которое хранится в кодовой таблице. Кодовая таблица – это внутреннее представление символов в компьютере. Во всем мире в качестве стандарта принята таблица ASCII (American Standard Code for Informational Interchange – Американский стандартный код информационного обмена).

Для хранения двоичного кода одного символа выделен 1байт=8 бит. Учитывая, что каждый бит принимает значение 1 или 0, количество возможный сочетаний единиц и нулей равно . Значит, с помощью 1 байта можно получить 256 разных двоичных кодовых комбинаций и отобразить с их помощью 256 различных символа. Эти коды и составляют таблицу ASCII. Для сокращения записей и удобства пользования этими кодами символов в таблице используют шестнадцатеричную систему счисления, состоящую из 16 символов – 10-ти цифр и 6-ти латинских букв: A, B, C, D, E, F. При кодировании символов сначала записывается цифра столбца, а затем строки, на пересечении которых находится данный символ.

Кодирование каждого символа 1-м байтом связано с расчетом энтропии системы символов (см. пример 6). При разработке системы кодирования символов учли, что необходимо закодировать 26 строчных букв латинского (английского) алфавита и 26 прописных букв, цифры от 0 до 9, знаки препинания, специальные символы, арифметические знаки. Это так называемые, международные, символы. Получается около 128 символов. Еще 128 кодов отводится для кодирования символов национального алфавита и некоторых дополнительных знаков. В русском языке это 33 строчных и 33 прописных буквы. Общее число символов, подлежащих кодированию больше и меньше . В предположении, что все символы встречаются с равной вероятностью, то энтропия системы будет 7 < H < 8. Поскольку для кодирования используется целое число бит, то 7 бит будет мало. Поэтому для кодирования каждого символа используется по 8 бит. Как было сказано выше, 8 бит позволяют закодировать символов. Это число дало название единице измерения объема данный «байт».

Пример 19

Латинская буква S в таблице ASCII представлена шестнадцатеричным кодом – 53. При нажатии на клавиатуре буквы S, в память компьютера записывается его эквивалент – двоичный код 01010011, который получается путем замены каждой шестнадцатеричной цифры на ее двоичный эквивалент.

В данном случае цифра 5 заменена кодом 0101, а цифра 3 – кодом 0011. При выводе буквы S на экран в компьютере происходит декодирование – по этому двоичному коду строится его изображение.

Обратите внимание! Любой символ в таблице ASCII кодируется с помощью 8-ми двоичных разрядов или 2-х шестнадцатеричных разрядов (1 разряд представлен 4-мя битами).

Таблица (рис. 5) отображает кодировку символов в шестнадцатеричной системе счисления. Первые 32 символа являются управляющими и предназначены, в основном, для передачи команд управления. Они могут меняться в зависимости от программных и аппаратных средств. Вторая половина кодовой таблицы (от 128 до 255) не определена американским стандартом и предназначена для национальных символов, псевдографических и некоторых математических символов. В разных странах могут использоваться различные варианты второй половины кодовой таблицы для кодирования букв своего алфавита.

Обратите внимание! Цифры кодируются по стандарту ASCII в двух случаях – при вводе-выводе и, если они встречаются в тексте.

Для сравнения рассмотрим число 45 для двух вариантов кодирования.

При использовании в тексте это число потребует для своего представления 2 байта, т.к. каждая цифра будет представлена своим кодом в соответствии с таблицей ASCII (рис. 4). В шестнадцатеричной системе код будет 34 35, в двоичной системе – 00110100 00110101, что потребует 2 байта.

Рис. 5. Таблица кодов ASCII (фрагмент)

1.2.8. Кодирование графической информации

Представление о цвете в компьютере

Графические данные – это различного рода графики, диаграммы, схемы, рисунки и т.д. Любое графическое изображение можно представить как некоторую композицию цветовых областей. Цвет определяет свойство видимых предметов, непосредственно воспринимаемое глазом.

В компьютерной промышленности в основе отображения любого цвета лежат три так называемых первичных цвета: синий, зеленый, красный. Для их обозначения используется аббревиатура RGB (Red - Green - Blue).

Все цвета, встречающиеся в природе, можно создавать, смешивая и варьируя интенсивность (яркость) этих трех цветов. Смесь, состоящая из 100% каждого цвета, дает белый цвет. Смесь 0% от каждого цвета дает черный цвет.

Искусство воспроизведения цвета в компьютере путем сложения в различных пропорциях трех первичных RGB цветов называется аддитивным смешением.

Человеческий глаз может воспринимать огромное количество цветов. Монитор и принтер в состоянии воспроизводить лишь ограниченную часть этого диапазона.

В связи с необходимостью описания различных физических процессов воспроизведения цвета в компьютере, были разработаны различные цветовые модели. Диапазон воспроизводимых цветов и способ их отображения для монитора и принтера различны и зависит от используемых цветовых моделей.

Цветовые модели описываются с помощью математического аппарата и позволяют представить различные цветовые оттенки путем смешивания нескольких основных цветов.

Цвета на экране монитора могут выглядеть иначе, чем при их выводе на печать. Это отличие обусловлено тем, что для вывода на печать применяются иные, нежели для монитора цветовые модели.

Среди цветовых моделей наиболее известны модели RGB, CMYK, HSB, LAB.

Модель RGB

Модель RGB называют аддитивной, поскольку по мере увеличения яркости составляющих цветов увеличивается яркость результирующего цвета.

Цветовая модель RGB обычно используется для описания цветов, отображаемых мониторами, получаемых сканерами и цветовыми фильтрами. Для отображения цветовой гаммы на печатающем устройстве она не используется.

Цвет в модели RGВ представляется как сумма трех базовых цветов – красного (Red), зеленого (Green) и синего (Blue) (рис. 6). RGB хорошо воспроизводит цвета в диапазоне от синего до зеленого и несколько хуже – желтые и оранжевые оттенки.

В модели RGB каждый базовый цвет характеризуется яркостью (интенсивностью), которая может принимать 256 дискретных значений от 0 до 255. Поэтому можно смешивать цвета в различных пропорциях, варьируя яркость каждой составляющей. Таким образом, можно получить

256x256x256 = 16 777 216 цветов.

Каждому цвету можно сопоставить код, который содержит значения яркости трех составляющих. Используются десятичное и шестнадцатеричное представления кода.

Рис. 6. Комбинации базовых цветов модели RGB

Десятичное представление – это три группы из трех десятичных чисел, разделенных запятыми, например, 245,155,212. Первое число соответствует яркости красной составляющей, второе – зеленой, а третье – синей.

Код цвета в шестнадцатеричном представлении имеет вид 0хХХХХХХ. Префикс 0х указывает на то, что мы имеем дело с шестнадцатеричным числом. За префиксом следуют шесть шестнадцатеричных цифр (0, 1, 2,...,9, А, В, С, D, E, F). Первые две цифры – шестнадцатеричное число, представляющее яркость красной составляющей, вторая и третья пары соответствуют яркости зеленой и синей составляющих.

Пример 20

Максимальная яркость базовых цветов позволяет отобразить белый цвет. Этому соответствует в десятичном представлении код 255,255,255, а в шестнадцатеричном представлении – код 0xFFFFFF.

Минимальная яркость (или) соответствует черному цвету. Этому соответствует в десятичном представлении код 0,0,0, а в шестнадцатеричном представлении код 0x000000.

Смешение красного, зеленого и синего цветов с различными, но одинаковыми яркостями дает шкалу из 256 оттенков (градаций) серого цвета – от черного до белого. Изображения в оттенках серого еще называют полутоновыми изображениями.

Поскольку яркость каждой из базовых составляющих цвета может принимать только 256 целочисленных значений, каждое значение можно представить 8-разрядным двоичным числом (последовательностью из 8 нулей и единиц, () т.е. одним байтом. Таким образом, в модели RGB информация о каждом цвете требует 3 байта (по одному байту на каждый базовый цвет) или 24 бита памяти для хранения. Поскольку все оттенки серого цвета образуются смешением трех составляющих одинаковой яркости, то для представления любого из 256 оттенков серого требуется лишь 1 байт.

Модель CMYK

Модель CMYK описывает смешение красок на печатающем устройстве. В этой модели используются три базовых цвета: голубой (Cyan), пурпурный (Magenta) и желтый (Yellow). Кроме того, применяется черный цвет (blacK) (рис. 7). Прописные буквы, выделенные в словах, составляют аббревиатуру палитры.

Рис. 7. Комбинации базовых цветов модели CMYK

Каждый из трех базовых цветов модели CMYK получается в результате вычитания из белого цвета одного из базовых цветов модели RGB. Так, например, голубой (cyan) получается вычитанием красного из белого, а желтый (yellow) – вычитанием синего. Напомним, что в модели RGB белый цвет представляется как смесь красного, зеленого и синего максимальной яркости. Тогда базовые цвета модели CMYK можно представить с помощью формул вычитания базовых цветов модели RGB следующим образом:

Cyan = RGB - R = GB = (0,255,255)

Yellow = RGB - В = RG = (255,255,0)

Magenta = RGB - G = RB = (255,0,255)

В связи с тем, что базовые цвета CMYK получаются путем вычитания из белого базовых цветов RGB, их называют субтрактивными.

Базовые цвета модели CMYK являются яркими цветами и не вполне годятся для воспроизведения темных цветов. Так, при их смешивании на практике получается не чисто черный, а грязно-коричневый цвет. Поэтому в цветовую модель CMYK включен еще и чистый черный цвет, который используется для создания темных оттенков, а также для печати черных элементов изображения.

Краски субтрактивной модели CMYK не являются столь чистыми, как цвета аддитивной модели RGB.

Не все цвета модели CMYK могут быть представлены в модели RGB и наоборот. В количественном отношении цветовой диапазон CMYK меньше цветового диапазона RGB. Это обстоятельство имеет принципиальное значение, а не обусловлено только физическими особенностями монитора или печатающего устройства.

Модель HSB

Модель HSB основана на трех параметрах: Н – оттенок или тон (Hue), S – насыщенность (Saturation) и В – яркость (Brightness). Она является вариантом модели RGB и также основана на использовании базовых цветов.

Из всех используемых в настоящее время моделей эта модель наиболее точно соответствует способу восприятия цвета человеческим глазом. Она позволяет описывать цвета интуитивно ясным способом. Часто используются художниками.

В модели HSB насыщенность характеризует чистоту цвета. Нулевая насыщенность соответствует серому цвету, а максимальная насыщенность – наиболее яркому варианту данного цвета. Яркость понимается как степень освещенности.

Графически модель HSB можно представить в виде кольца, вдоль которого располагаются оттенки цветов (рис. 8).

Рис. 8. Графическое представление модели HSB

Модель Lab

Модель Lab используется для печатающего устройства. Она более совершенна, чем модель CMYK, где не хватает очень многих оттенков. Графическое представление модели Lab представлено на рис. 9.

Рис. 9. Графическое представление модели Lab

Модель Lab основана на трех параметрах: L - яркость (Luminosity) и два цветовых параметра - а и b. Параметр а содержит цвета от темно-зеленого через серый до ярко-розового. Параметр b содержит цвета от светло-синего через серый до ярко-желтого.

Кодирование графической информации

Графические изображения хранятся в файлах графических форматов.

Изображения представляют собой совокупность графических элементов (picture element) или, сокращенно, пикселов (pixel). Для того, чтобы описать изображение, необходимо определить способ описания одного пиксела.

Описание цвета пиксела является, по существу, кодом цвета в соответствии с той или иной цветовой моделью. Цвет пиксела описывается несколькими числами. Эти числа еще называют каналами. В случае моделей RGB, CMYK и Lab эти каналы называют также цветовыми каналами.

В компьютере количество бит, отводимое на каждый пиксел для представления цветовой информации, называют цветовой глубиной (color depth) или битовой глубиной цвета (bit depth). Цветовая глубина определяет, как много цветов может быть представлено пикселом. Чем больше цветовая глубина, тем больше объем файла, содержащего описание изображения.

Пример 21

Если цветовая глубина равна 1 бит, то пиксел может представлять только один из двух возможных цветов – белый или черный. Если цветовая глубина равна 8 бит, то количество возможных цветов равно 2. При глубине цвета 24 бит количество цветов превышает 16 млн.

Изображения в системах RGB, CMYK, Lab и оттенках серого (gray scale) обычно содержат 8 бит на один цветовой канал. Поскольку в RGB и Lab три цветовых канала, глубина цвета в этих режимах равна 8?3 = 24. В CMYK четыре канала и поэтому цветовая глубина равна 8?4 = 32. В полутоновых изображениях только один канал, следовательно, его цветовая глубина равна 8.

Форматы графических файлов

Формат графического файла связан с методом кодирования графического изображения.

В настоящее время существует более двух десятков форматов графических файлов, например, BMP, GIF, TIFF, JPEG, PCX, WMF и др. Есть файлы, которые кроме статических изображений, могут содержать анимационные клипы и/или звук, например, GIF, PNG, AVI, SWF, MPEG, MOV и др. Важной характеристикой этих файлов является способность представлять содержащиеся в них данные в сжатом виде.

Формат ВМР (Bit Map Picture – Windows Device Independent Bitmap) – формат Windows, он поддерживается всеми графическими редакторами, работающими под ее управлением. Применяется для хранения растровых изображений, предназначенных для использования в Windows. Способен хранить как индексированный (до 256 цветов), так и RGB-цвет (16 млн. оттенков).

Формат GIF (Graphics Interchange Format) – формат графического обмена использует алгоритм сжатия информации без потерь LZW и предназначен для сохранения растровых изображений с количеством цветов не более 256.

Формат PNG (Portable Network Graphics) – формат переносимой графики для сети был разработан с целью заменить формат GIF. Формат PNG позволяет сохранять изображения с глубиной цвета 24 и даже 48 бит, он также позволяет включать каналы масок для управления градиентной прозрачностью, но не поддерживает слои. PNG не сжимает изображения с потерей качества подобно JPEG.

Формат JPEG (Joint Photographic Experts Group) – формат объединенной группы экспертов по фотографии предназначен для компактного хранения многоцветных изображений с фотографическим качеством. Файлы этого формата имеют расширение jpg, jpe или jpeg.

В отличие от GIF, в формате JPEG используется алгоритм сжатия с потерями информации, благодаря чему достигается очень большая степень сжатия (от единиц до сотен раз).

1.2.9. Кодирование звуковой информации

Представление о звуке

С начала 90-х годов персональные компьютеры получили возможность работать со звуковой информацией. Каждый компьютер, имеющий звуковую плату, микрофон и колонки, может записывать, сохранять и воспроизводить звуковую информацию.

Звук представляет собой звуковую волну с непрерывно меняющейся амплитудой и частотой (рис. 10).

Рис. 10. Звуковая волна

Чем больше амплитуда сигнала, тем он громче для человека, чем больше частота (Т) сигнала, тем выше тон. Частота звуковой волны выражается в Герцах (Гц, Hz) или числом колебаний в секунду. Человеческое ухо воспринимает звуки в диапазоне (примерно) от 20 Гц до 20 кГц, который так и называется – звуковой диапазон частот.

Характеристики качества звука

"Глубина" кодирования звука - количество бит на один звуковой сигнал.

Современные звуковые карты обеспечивают 16, 32 или 64-битную "глубину" кодирования звука. Количество уровней (градаций амплитуды) можно рассчитать по формуле

Уровней сигнала (градаций амплитуды)

Частота дискретизации – это количество измерений уровней сигнала за 1 секунду

Одно измерение в 1 секунду соответствует частоте 1 Гц

1000 измерений в 1 секунду - 1 кГц

Количество измерений может лежать в диапазоне от 8000 до 48 000 (8 кГц – 48 кГц)

8 кГц соответствует частоте радиотрансляции,

48 кГц – качеству звучания аудио- CD.

Методы кодирования звуковой информации

Для того чтобы компьютер мог обрабатывать непрерывный звуковой сигнал, он должен быть превращен в последовательность электрических импульсов (двоичных нулей и единиц). Однако в отличие от числовых, текстовых и графических данных, у звукозаписей не было столь же длительной и проверенной истории кодирования. В итоге методы кодирования звуковой информации двоичным кодом далеки от стандартизации. Множество отдельных компаний разработали свои корпоративные стандарты, но если говорить обобщенно, то можно выделить два основных направления.

Метод FM (Frequency Modulation) основан на том, что теоретически любой сложный звук можно разложить на последовательность простейших гармонических сигналов разных частот, каждый из которых представляет собой правильную синусоиду, а, следовательно, может быть описан числовыми параметрами, то есть кодом. В природе звуковые сигналы имеют непрерывный спектр, то есть являются аналоговыми. Их разложение в гармонические ряды и представление в виде дискретных цифровых сигналов выполняют специальные устройства – аналогово-цифровые преобразователи (АЦП). Обратное преобразование для воспроизведения звука, закодированного числовым кодом, выполняют цифро-аналоговые преобразователи (ЦАП). Процесс преобразования звука представлен на рисунке 11.

Рис. 11. Процесс преобразования звука

При таких преобразованиях неизбежны потери информации, связанные с методом кодирования, поэтому качество звукозаписи обычно получается не вполне удовлетворительным. В то же время данный метод кодирования обеспечивает компактный код, и потому он нашел применение еще в те годы, когда ресурсы средств вычислительной техники были явно недостаточны.

Метод таблично-волнового (Wave-Table) синтеза лучше соответствует современному уровню развития техники. Если говорить упрощенно, то можно сказать, что где-то в заранее подготовленных таблицах хранятся образцы звуков для множества различных музыкальных инструментов (хотя не только для них). В технике такие образцы называют сэмплами. Числовые коды выражают тип инструмента, номер его модели, высоту тона, продолжительность и интенсивность звука, динамику его изменения, некоторые параметры среды, в которой происходит звучание, а также прочие параметры, характеризующие особенности звука. Поскольку в качестве образцов используются "реальные" звуки, то качество звука, полученного в результате синтеза, получается очень высоким и приближается к качеству звучания реальных музыкальных инструментов.

Основные форматы звуковых файлов

Формат MIDI (Musical Instrument Digital Interface) – цифровой интерфейс музыкальных инструментов. Создан в 1982 году ведущими производителями электронных музыкальных инструментов – Yamaha, Roland, Korg, E-mu и др. Изначально был предназначен для замены принятого в то время управления музыкальными инструментами при помощи аналоговых сигналов управлением при помощи информационных сообщений, передаваемых по цифровому интерфейсу. Впоследствии стал стандартом де-факто в области электронных музыкальных инструментов и компьютерных модулей синтеза.

Формат аудио-файла WAV, представляющий произвольный звук как он есть – в виде цифрового представления исходного звукового колебания или звуковой волны (wave), отчего в ряде случаев технология создания таких файлов, именуется wave-технологией. Позволяет работать со звуками любого вида, любой формы и длительности.

Графическое представление WAV-файла очень удобно и часто используется в звуковых редакторах и программах-секвенсорах для работы с ними и последующего преобразования (об этом речь пойдет в следующей главе). Данный формат был разработан компанией Microsoft, и все стандартные звуки Windows имеют расширение WAV.

Формат MP3. Это один из цифровых форматов хранения аудио, разработанный Fraunhofer IIS и THOMPSON (1992г.), позднее утвержденный как часть стандартов сжатого видео и аудио MPEG1 и MPEG2. Данная схема является самой сложной из семейства MPEG Layer 1/2/3. Она требует больших затрат машинного времени для кодирования по сравнению с остальными и обеспечивает более высокое качество кодирования. Используется главным образом для передачи аудио в реальном времени по сетевым каналам и для кодирования CD Audio.

1.2.10. Кодирование видео информации

Принципы кодирования видео информации

Video в переводе с латыни означает «смотрю, вижу». Когда говорят о видео, прежде всего, имеют ввиду движущееся изображение на экране телевизора или компьютерного монитора.

Видеокамера преобразует оптическое изображение передаваемой сцены в последовательность электрических сигналов. Эти сигналы несут информацию о яркости и цветности отдельных участков изображения. С целью сохранения для последующего воспроизведения они могут быть записаны на магнитную ленту в аналоговой или цифровой форме.

При аналоговой записи изменения намагниченности видеоленты аналогичны форме световой или звуковой волны. Аналоговые сигналы, в отличие от цифровых, являются непрерывными во времени.

Цифровой сигнал представляет собой последовательность кодовых комбинаций электрических импульсов.

Информация, представленная в цифровом виде, измеряется в битах. Процесс превращения непрерывного сигнала в набор кодовых слов называется аналого-цифровым преобразованием.

Аналогово-цифровое преобразование сигнала проходит в три этапа. На этапе дискретизации (рис. 12) происходит представление непрерывного сигнала последовательностью отсчётов его мгновенных значений. Эти отсчёты берутся через равные промежутки времени.

Рис. 12. Дискретизация

Следующий этап – квантование (рис. 13). Весь диапазон значений сигнала делится на уровни. Величина каждого отсчёта заменяется округлённым значением ближайшего уровня квантования, его порядковым номером

Рис. 13. Уровневое квантование

Кодирование завершает процесс оцифровки аналогового сигнала (рис. 14), который теперь имеет конечное число значений. Каждое значение соответствует порядковому номеру уровня квантования. Этот номер выражается в двоичных единицах. В пределах одного интервала дискретизации передаётся одно кодовое слово.

Рис. 14. Цифровое кодирование

Таким образом, информация об изображении, представленная в цифровом виде, может быть передана на жёсткий диск компьютера для последующей обработки и монтажа без каких-либо дополнительных преобразований.

Компьютерное видео характеризуется следующими параметрами:

• количество кадров в секунду (15, 24, 25...);

• поток данных (килобайт/с);

• формат файла (avi, mov...);

• способ сжатия (Microsoft Video for Windows, MPEG, MPEG-I, MPEG-2, Moution JPEG).

Форматы видео информации

• формат AVI – формат несжатого видео, создаваемый при оцифровке изображения. Это наиболее ресурсоемкий формат, но при этом при оцифровке в него потеря данных минимальна. Поэтому он предоставляет больше возможностей для редактирования, накладки эффектов и любой другой обработки файлов. Однако следует учитывать, что в среднем одна секунда цифруемого изображения занимает 1,5–2 Mбайт на жестком диске.

• формат MPEG – сокращение названия экспертной группы ISO (Moving Picture Expert Group), которая занимается разработкой стандартов кодирования и сжатия видео- и аудиоданных. На сегодняшний день известно несколько разновидностей форматов MPEG.

• MPEG-1 – для записи синхронизированных видеоизображения и звукового сопровождения на CD-ROM с учетом максимальной скорости считывания около 1,5 Мбит/с. Качественные параметры видеоданных, обработанных MPEG-1, во многом аналогичны обычному VHS-видео, поэтому такой формат применяется, в первую очередь, там, где неудобно или непрактично использовать стандартные аналоговые видеоносители;

• MPEG-2 – для обработки видеоизображения, соизмеримого по качеству с телевизионным, при пропускной способности системы передачи данных в пределах от 3 до 15 Мбит/с. На технологиях, основанных на MPEG-2, работают многие телеканалы; сигнал, сжатый в соответствии с этим стандартом, транслируется через телевизионные спутники и используется для архивации больших объемов видеоматериала;

• MPEG-3 – для использования в системах телевидения высокой четкости (high-defenition television, HDTV) со скоростью потока данных 20–40 Мбит/с; но позже он стал частью стандарта MPEG-2 и отдельно теперь не используется;

• MPEG-4 – для работы с цифровым представлением медиаданных для трех областей: интерактивного мультимедиа (включая продукты, распространяемые на оптических дисках и через Сеть), графических приложений (синтетического контента) и цифрового телевидения

Справочные сведения о представлении чисел в компьютере приведены в таблице (таблица 5).

1.2.11. Таблица 5. Представление числовой, текстовой, графической информации в компьютере

Выводы

В данной теме рассмотрено понятие информации и различные способы ее кодирования в компьютере.

Показаны различия информации и данных. Введено понятие адекватности информации и представлены основные ее формы: синтаксическая, семантическая и прагматическая. Для этих форм приведены меры количественной и качественной оценки. Рассмотрены основные свойства информации: репрезентативность, содержательность, достаточность, актуальность, своевременность, точность, достоверность, устойчивость. Информационный процесс представлен как совокупность основных этапов преобразования информации.

Большое внимание в теме уделено вопросам кодирования разного вида информации в компьютере. Приведены основные форматы представления в компьютере числовой, текстовой, графической, звуковой и видео информации. Указаны особенности рассматриваемых форматов в зависимости от вида информации.

Вопросы для самопроверки

  1. В чем различие информации и данных?
  2. Что такое адекватность и в каких формах она проявляется?
  3. Какие существуют меры информации и когда ими надо пользоваться?
  4. Расскажите о синтаксической мере информации.
  5. Расскажите о семантической мере информации.
  6. Расскажите о прагматической мере информации.
  7. Какие существуют показатели качества информации?
  8. Что такое система кодирования информации?
  9. Как можно представить информационный процесс?
  10. Что такое система кодирования и чем она характеризуется?
  11. Какие известны системы счисления и в чем их отличие?
  12. Какие системы счисления применяются в компьютере?
  13. Каким соотношением можно представить число в позиционной системе счисления?
  14. Какие формы представления чисел применяются в компьютере и в чем их отличие?
  15. Приведите на примерах форматы представления чисел для форм с фиксированной и плавающей запятой.
  16. Как осуществляется перевод из любой позиционной системы счисления в десятичную систему счисления? Приведите примеры.
  17. Как осуществляется перевод целого числа из десятичной в другую позиционную систему счисления? Приведите примеры.
  18. Как кодируется текстовая информация? Приведите примеры.
  19. В чем суть кодирования графической информации?
  20. Расскажите о модели RGB кодирования графической информации.
  21. Когда применяется модель кодирования CMYK графической информации? В чем ее отличие от модели RGB?
  22. Какие вы знаете форматы представления в компьютере графической информации и их особенности?
  23. Название практикума Аннотация

    Презентации

    Название презентации Аннотация
    Презентация

При реализации информационных процессов всегда происходит перенос информации в пространстве и времени от источника информации к приемнику (получателю). При этом для передачи информации используют различные знаки или символы, например естественного или искусственного (формального) языка, позволяющие выразить ее в некоторой форме, называемой сообщением.

Сообщение – форма представления информации в виде совокупности знаков (символов), используемая для передачи.

Сообщение как совокупность знаков с точки зрения семиотики (от греч. setneion - знак, признак ) – науки, занимающейся исследованием свойств знаков и знаковых систем, - может изучаться на трех уровнях:

1) синтаксическом , где рассматриваются внутренние свойства сообщений, т. е. отношения между знаками, отражающие структуру данной знаковой системы. Внешние свойства изучают на семантическом и прагматическом уровнях. На этом уровне рассматривают проблемы доставки получателю сообщений как совокупности знаков, учитывая при этом тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления информации, надежность и точность преобразования этих кодов и т. п., полностью абстрагируясь от смыслового содержания сообщений и их целевого предназначения. На этом уровне информацию, рассматриваемую только с синтаксических позиций, обычно называют данными, так как смысловая сторона при этом не имеет значения.

Современная теория информации исследует в основном проблемы именно этого уровня. Она опирается на понятие «количество информации», являющееся мерой частоты употребления знаков, которая никак не отражает ни смысла, ни важности передаваемых сообщений. В связи с этим иногда говорят, что современная теория информации находится на синтаксическом уровне.

2) семантическом , где анализируются отношения между знаками и обозначаемыми ими предметами, действиями, качествами, т. е. смысловое содержание сообщения, его отношение к источнику информации. Проблемы семантического уровня связаны с формализацией и учетом смысла передаваемой информации, определения степени соответствия образа объекта и самого объекта. На данном уровне анализируются те сведения, которые отражает информация, рассматриваются смысловые связи, формируются понятия и представления, выявляется смысл, содержание информации, осуществляется ее обобщение.

3) прагматическом , где рассматриваются отношения между сообщением и получателем, т. е. потребительское содержание сообщения, его отношение к получателю.

На этом уровне интересуют последствия от получения и использования данной информации потребителем. Проблемы этого уровня связаны с определением ценности и полезности использования информации при выработке потребителем решения для достижения своей цели. Основная сложность здесь состоит в том, что ценность, полезность информации может быть совершенно различной для различных получателей и, кроме того, она зависит от ряда факторов, таких, например, как своевременность ее доставки и использования.


Для каждого из рассмотренных выше уровней проблем передачи информации существуют свои подходы к измерению количества информации и свои меры информации. Различают соответственно меры информации синтаксического уровня, семантического уроня и прагматического уровня.

Меры информации синтаксического уровня. Количественная оценка информации этого уровня не связана с содержательной стороной информации, а оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. В связи с этим данная мера дает возможность оценки информационных потоков в таких разных по своей природе объектах, как системы связи, вычислительные машины, системы управления, нервная система живого организма и т. п.

Для измерения информации на синтаксическом уровне вводятся два параметра: объем информации (данных) – V д (объемный подход) и количество информации – I (энтропийный подход).

Объем информацииV д (объемный подход). При реализации информационных процессов информация передается в виде сообщения, представляющего собой совокупность символов какого-либо алфавита. При этом каждый новый символ в сообщении увеличивает количество информации, представленной последовательностью символов данного алфавита. Если теперь количество информации, содержащейся в сообщении из одного символа, принять за единицу, то объем информации (данных) V д в любом другом сообщении будет равен количеству символов (разрядов) в этом сообщении. Так как одна и та же информация может быть представлена многими разными способами (с использованием разных алфавитов), то и единица измерения информации (данных) соответственно будет меняться.

Так, в десятичной системе счисления один разряд имеет вес, равный 10, и соответственно единицей измерения информации будет дит (десятичный разряд п п дит. Например, четырехразрядное число 2009 имеет объем данных V д = 4 дит.

В двоичной системе счисления один разряд имеет вес, равный 2, и соответственно единицей измерения информации будет бит (bit (binary digit) – двоичный разряд ). В этом случае сообщение в виде n -разрядного числа имеет объем данных V д = п бит. Например, восьмиразрядный двоичный код 11001011 имеет объем данных V д = 8 бит.

В современной вычислительной технике наряду с минимальной единицей измерения данных бит широко используется укрупненная единица измерения байт , равная 8 бит. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=2 8).

При работе с большими объемами информации для подсчета ее количества применяют более крупные единицы измерения:

1 Килобайт (Кбайт) = 1024 байт = 2 10 байт,

1 Мегабайт (Мбайт) = 1024 Кбайт = 2 20 байт = 1 048 576 байт;

1 Гигабайт (Гбайт) = 1024 Мбайт = 2 30 байт = 1 073 741 824 байт;

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

1 Терабайт (Тбайт) = 1024 Гбайт = 2 40 байт = 1 099 511 627 776 байт;

1 Петабайт (Пбайт) = 1024 Тбайт = 2 50 байт = 1 125 899 906 842 624 байт.

Следует обратить внимание, что в системе измерения двоичной (компьютерной) информации, в отличие от метрической системы, единицы с приставками «кило», «мега» и т. д. получаются путем умножения основной единицы не на 10 3 = 1000, 10 6 = 1 000 000 и т. д., а на 2 10 = 1024, 2 20 = 1 048 576 и т. д.

Количество информации I (энтропийный подход). В теории информации и кодирования принят энтропийный подход к измерению информации. Этот подход основан на том, что факт получения информации всегда связан с уменьшением разнообразия или неопределенности (энтропии) системы. Исходя из этого, количество информации в сообщении определяется как мера уменьшения неопределенности состояния данной системы после получения сообщения. Неопределенность может быть интерпретирована в смысле того, насколько мало известно наблюдателю о данной системе. Как только наблюдатель выявил что-нибудь в физической системе, энтропия системы снизилась, так как для наблюдателя система стала более упорядоченной.

Таким образом, при энтропийном подходе под информацией понимается количественная величина исчезнувшей в ходе какого-либо процесса (испытания, измерения и т.д.) неопределенности. При этом в качестве меры неопределенности вводится энтропия Н , а количество информации равно:

I = H apr – H aps

где, H apr – априорная энтропия о состоянии исследуемой системы или процесса;

H aps – апостериорная энтропия.

Апостериори (от лат. a posteriori – из последующего ) – происходящее из опыта (испытания, измерения).

Априори (от лат. a priori – из предшествующего ) – понятие, характеризующее знание, предшествующее опыту (испытанию), и независимое от него.

В случае, когда в ходе испытания имевшаяся неопределенность снята (получен конкретный результат, т. е. Н = 0), количество полученной информации совпадает с первоначальной энтропией

Рассмотрим в качестве исследуемой системы дискретный источник информации (источник дискретных сообщений), под которым будем понимать физическую систему, имеющую конечное множество возможных состояний {а i }, i = .

Все множество А = {a 1 , a 2 , ..., а n } состояний системы в теории информации называют абстрактным алфавитом или алфавитом источника сообщений.

Отдельные состояния a 1 , а 2 ,..., а n называют буквами или символами алфавита.

Такая система может в каждый момент времени случайным образом принять одно из конечных множеств возможных состояний a i . При этом говорят, что различные состояния реализуются вследствие выбора их источником.

Получатель информации (сообщения) имеет определенное представление о возможных наступлениях некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределенности (энтропия) характеризуется некоторой математической зависимостью от этих вероятностей, количество информации в сообщении определяется тем, насколько уменьшается мера неопределенности после получения сообщения.

Поясним эту идею на примере.

Пусть у нас имеется 32 различные карты. Возможность выбора одной карты из колоды – 32. До произведения выбора, естественно предложить, что шансы выбрать некоторую определенную карту, одинаковы для всех карт. Произведя выбор, мы устраняем эту неопределенность. При этом неопределенность можно охарактеризовать количеством возможных равновероятностных выборов. Если теперь определить количество информации как меру устранения неопределенности, то полученную в результате выбора информацию можно охарактеризовать числом 32. Однако удобнее использовать не само это число, а логарифм от полученной выше оценки по основанию 2:

где m – число возможных равновероятных выборов (При m=2, получим информацию в один бит). То есть в нашем случае

H = log 2 32 = 5.

Изложенный подход принадлежит английскому математику Р. Хартли (1928 г.). Он имеет любопытную интерпретацию. Он характеризуется числом вопросов с ответами «да» или «нет», позволяющим определить, какую карту выбрал человек. Таких вопросов достаточно 5.

Если при выборе карты, возможность появления каждой карты не одинаковы (разновероятны), то получим статистический подход к измерению информации, предложенный К. Шенноном (1948 г.). В этом случае мера информации измеряется по формуле:

где p i – вероятность выбора i -го символа алфавита.

Легко заметить, что если вероятности p 1 , ..., p n равны, то каждая из них равна 1/N , и формула Шеннона превращается в формулу Хартли.

Меры информации семантического уровня. Для измерения смыслового содержания информации, т. е. ее количества на семантическом уровне, наибольшее распространение получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Действительно, для понимания и использования полученной информации получатель должен обладать определенным запасом знаний. Полное незнание предмета не позволяет извлечь полезную информацию из принятого сообщения об этом предмете. По мере роста знаний о предмете растет и количество полезной информации, извлекаемой из сообщения.

Если назвать имеющиеся у получателя знания о данном предмете тезаурусом (т. е. неким сводом слов, понятий, названий объектов, связанных смысловыми связями), то количество информации, содержащееся в некотором сообщении, можно оценить степенью изменения индивидуального тезауруса под воздействием данного сообщения.

Тезаурус - совокупность сведений, которыми располагает пользователь или система.

Иными словами, количество семантической информации, извлекаемой получателем из поступающих сообщений, зависит от степени подготовленности его тезауруса для восприятия такой информации.

В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя S p изменяется количество семантической информации I с , воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. Характер такой зависимости показан на рис. 2.1. Рассмотрим два предельных случая, когда количество семантической информации I с равно 0:

а) при S p = 0 пользователь не воспринимает (не понимает) поступающую информацию;

б) при S -> ∞ пользователь «все знает», и поступающая информация ему не нужна.

Рис. 1.2. Зависимость количества семантической информации,

воспринимаемой потребителем, от его тезауруса I c =f(S p)

Максимальное количество семантической информации потребитель приобретает при согласовании ее смыслового содержания S со своим тезаурусом S p (S = S p opt), когда поступающая информация понятна пользователю и несет ему ранее неизвестные (отсутствующие в его тезаурусе) сведения.

Следовательно, количество семантической информации в сообщении, количество новых знаний, получаемых пользователем, является величиной относительной. Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным для пользователя некомпетентного.

При оценке семантического (содержательного) аспекта информации необходимо стремиться к согласованию величин S и Sp.

Относительной мерой количества семантической информации может служить коэффициент содержательности С, который определяется как отношение количества семантической информации к ее объему:

С = I с / V д

Меры информации прагматического уровня. Эта мера определяет полезность информации для достижения пользователем поставленной цели. Эта мера также величина относительная, обусловленная особенностями использования этой информации в той или иной системе.

Одним из первых российских ученых к проблеме оценки информации прагматического уровня обратился А.А. Харкевич, который предложил принять за меру ценности информации количество информации, необходимое для достижения поставленной цели, т. е. рассчитывать приращение вероятности достижения цели. Так, если до получения информации вероятность достижения цели равнялась р 0 , а после ее получения – p 1 то ценность информации определяется как логарифм отношения p 1 /p 0:

I = log 2 p 1 – log 2 р 0 = log 2 (p 1 /p 0)

Таким образом, ценность информации при этом измеряется в единицах информации, в данном случае в битах.