Реферат Информация. Ее виды и свойства
Работа добавлена на сайт bukvasha.net: 2015-10-28Поможем написать учебную работу
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
от 25%
договор
Федеральное агентство по образованию
ФГОУ ВПО «Сибирский федеральный университет»
Конспект-реферат на тему:
«Информация. Ее виды и свойства.»
Выполнила: ,
Проверила:
Красноярск
2010
Оглавление:
Введение
1. Определение информации…………………………………….3
2.Что такое сообщение…………………………………………...4
3. Формы представления информации………………………….5
4. Дискретизация по времени и квантование по уровню……...5
5.АЦП (аналого-цифровой преобразователь)…………….…….6
6.ЦАП (цифро-аналоговой преобразователь)…………………..8
7.Информация, ее виды и свойства……………………………...9
8.Вероятностный подход к измерению количества
информации……………………………………………………..10
9. Объемный подход к измерению количества
информации……………………………………………………..11
10.Список литературы ………………………………………….12
Введение
Происхождение слова “информация” латинское. За долгие годы значение этого слова претерпевало эволюции, то расширяя, то предельно сужая свои границы. Вначале под словом “информация” подразумевали: “представление”, “понятие”, затем-“сведения”, “передача сообщений”.
Сейчас решили, что обычное (всеми принятое) значение слова “информация” слишком эластично, расплывчато, и дали ему такое значение: “мера определенности в сообщении”.
Теорию информации вызвали к жизни потребности практики. Ее возникновение связывают с работой Клода Шеннона “Математическая теория связи”, изданной в 1946г. Основы теории информации опираются на результаты, полученные многими учеными. Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. Позже появились электронные вычислительные машины - переработчики информации. А для того времени основной задачей теории информации являлось, прежде всего, повышение эффективности функционирования систем связи.
1. Определение информации
Информация (от лат. informatio — осведомление, разъяснение, изложение) — в широком смысле абстрактное понятие, имеющее множество значений, в зависимости от контекста. В узком смысле этого слова — сведения (сообщения, данные) независимо от формы их представления.
В настоящее время не существует единого определения термина информация. С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков.
Информация — совокупность данных, зафиксированных на материальном носителе, сохранённых и распространённых во времени и пространстве
В литературе можно найти достаточно много определений термина «информация», отражающих различные подходы к толкованию этого понятия. В «Федеральный закон Российской Федерации от 27 июля 2006 г. N 149-ФЗ Об информации, информационных технологиях и о защите информации» дается следующее определение этого термина: «информация — сведения (сообщения, данные) независимо от формы их представления». Толковый словарь русского языка Ожегова приводит 2 определения слова «информация»:
· Сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством.
· Сообщения, осведомляющие о положении дел, о состоянии чего-нибудь. (Научно-техническая и газетная информации, средства массовой информации — печать, радио, телевидение, кино).
Информация и ее свойства являются объектом исследования целого ряда научных дисциплин, таких как теория информации (математическая теория систем передачи информации), кибернетика (наука о связи и управлении в машинах и животных, а также в обществе и человеческих существах), семиотика (наука о знаках и знаковых системах), теория массовой коммуникации (исследование средств мас-совой информации и их влияния на общество), информатика (изучение процессов сбора, преобразования, хранения, защиты, поиска и передачи всех видов информации и средств их автоматизированной обработки), соционика (теория информационного метаболизма индивидуальной и социальной психики), информодинамика (наука об открытых информационных системах), информациология (наука о получении, сохранении и передаче информации для различных множеств объектов) и т. д.
В информатике наиболее часто используется следующее определение этого термина: Информация — это осознанные сведения об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования.
Сведения — это знания, выраженные в сигналах, сообщениях, известиях, уведомлениях и т. д. Каждого человека в мире окружает море информации различных видов.
Стремление зафиксировать, сохранить надолго свое восприятие информации было всегда свойственно человеку. Мозг человека хранит множество информации, и использует для хранения ее свои способы, основа которых — двоичный код, как и у компьютеров. Человек всегда стремился иметь возможность поделиться своей информацией с другими людьми и найти надежные средства для ее передачи и долговременного хранения. Для этого в настоящее время изобретено множество способов хранения информации на внешних (относительно мозга человека) носителях и ее передачи на огромные расстояния.
2.Что такое сообщение
Сообщение представляет собой последовательность знаков представляющих информацию. Формы облачения информации в сообщения различны. Например, для живых существ - это звуки, жесты, мимика, а для различных технических устройств - сигналы. Сигнал - изменение некоторой физической величины во времени, обеспечивающее передачу сообщения. Примеры сигналов: цвет света светофора, перемещение флажков, звуки азбуки Морзе, луч света (есть - нет), электрические импульсы (есть ток в цепи, - нет тока). Сигналы могут быть непрерывными (гудок телефона "свободно") и дискретными, то есть повторяющимися с разными интервалами времени (гудок телефона "занято" или " "ждите ответа").
Сообщение - часть, порция информации. Это форма проявления информации.
Сообщение - это символы для информации, смысл которых нужно выучить. (Мелис)
3. Формы представления информации
Чтобы сообщение было передано от источника к получателю, необходима некоторая материальная субстанция - носитель информации.
Сигнал - сообщение, передаваемое с помощью носителя.
В общем случае сигнал - это изменяющийся во времени процесс. Такой процесс может содержать различные характеристики (например, при передаче электрических сигналов могут изменяться напряжение и сила тока).
Параметр сигнала - та из характеристик, которая используется для представления сообщений.
Природа большенства физических явлений такова, что они могут принимать различные значения в определенном интервале (температура воды, скорость автомобиля и т.д.)
Непрерывный (аналоговый) способ представления информации - представление информации, в котором сигнал на выходе датчика будет меняться вслед за изменениями соответствующей физической величины.
Примеры непрерывной информации:
Примером непрерывного сообщения служит человеческая речь, передаваемая модулированной звуковой волной; параметром сигнала в этом случае является давление, создаваемое этой волной в точке нахождения приемника - человеческого уха.
Аналоговый способ представления информации имеет недостатки:
Точность представления информации определяется точностью измерительного прибора (например, точность числа отображающего напряжение в электрической цепи, зависит от точности вольтметра).
Наличие помех может сильно исказить представляемую информацию.
Дискретность (от лат. discretus – разделенный, прерывистый) – прерывность; противопоставляется непрерывности. Напр., дискретное изменение к.-л. величины во времени – это изменение, происходящее через определенные промежутки времени (скачками); система целых (в противоположность системе действительных чисел) является дискретной.
(Математический энциклопедический словарь. / Гл. ред. Ю.В. Прохоров. М.: Сов. энциклопедия, 1988, 847 с.)
Заметим, что в приведенной цитате указано на связь дискретности с системой целых чисел, и это можно считать подтверждением положения о том, что дискретные значения можно пронумеровать.
Дискретный сигнал - сигнал, параметр которого принимает последовательное во времени конечное число значений (при этом все они могут быть пронумерованы).
Сообщение, передаваемое с помощью таких сигналов - дискретным сообщением. Информация передаваемая источником, в этом случае также называется дискретной информацией.
Цифровой способ представления информации - представление информации в дискретном виде.
Примеры дискретной информации:
Дискретными являются показания цифровых измерительных приборов, например, вольтметра (сравните со "старыми", стрелочными приборами). Очевидным (в самом изначальном смысле этого слова!) образом дискретной является распечатка матричного принтера, а линия, проводимая графопостроителем, напротив, является непрерывной. Дискретным является растровый способ представления изображений, тогда как векторная графика по своей сути непрерывна. Дискретна таблица значений функции, но когда мы наносим точки из нее на миллиметровую бумагу и соединяем плавной линией, получается непрерывный график. Механический переключатель диапазонов в приемниках был сконструирован так, чтобы он принимал только фиксированные положения.
4. Дискретизация по времени и квантование по уровню
Дискретизация по времени и квантование по уровню лежат в основе преобразования сигнала из аналоговой формы в цифровую. Для того, чтобы понять, как дискретизация по времени и квантование могут преобразовать аналоговый звуковой сигнал в последовательность чисел, давайте вначале рассмотрим характеристики этого сигнала.
Аналоговый аудиосигнал — это напряжение, изменяющееся во времени. Чем быстрее звуковой сигнал изменяется во времени, тем выше его частота. Чем больше амплитуда изменений, тем сигнал громче. Таким образом, аудиосигнал имеет два параметра — время и амплитуду — и для его правильной передачи эти параметры необходимо закодировать.
Запись на грампластинке — хороший пример сохранения информации о времени и амплитуде. Размах модуляции звуковой канавки кодирует значение амплитуды звукового сигнала; чем больше эта модуляция, тем больше амплитуда сигнала. Временная информация кодируется благодаря вращению грампластинки с одинаковой угловой скоростью как при записи, так и при воспроизведении. Если мы изменим скорость вращения проигрывателя, то изменятся временные соотношения и, следовательно, частота сигнала.
В цифровом сигнале также должна сохраняться временная и амплитудная информация исходного звука. Но вместо кодирования и записи этих параметров в аналоговой форме (как на грампластинке), в цифровой записи временные и амплитудные параметры сохранены в дискретной форме.
Временная информация кодируется в цифровой аудиосистеме путем периодического измерения мгновенных значений аудиосигнала. Дискретное значение аналогового сигнала называют отсчетом. Амплитудная информация кодируется в результате представления значения каждого отсчета при помощи числа. Этот процесс называется квантованием. Таким образом, дискретизация по времени и квантование по уровню являются основой цифровой звукотехники: дискретизация сохраняет временную информацию, квантование — амплитудную.
В результате выполнения дискретизации по времени и квантования по уровню возникает последовательность двоичных чисел, называемых словами, которые представляют форму аналогового сигнала. Если преобразовать эти двоичные слова обратно в напряжение с сохранением исходных параметров первоначальной дискретизации по времени, то приблизительно будет воссоздана форма аналогового звукового сигнала. Для более точного восстановления исходной формы звукового сигнала необходимо дополнительно сгладить импульсы напряжения прямоугольной формы при помощи фильтра нижних частот. Таким образом дискретизация по времени и квантование по уровню преобразуют непрерывную аналоговую функцию (непрерывно изменяющееся напряжение аналогового сигнала) в последовательность дискретных двоичных чисел. На рис. В-2 показано, как непрерывный аналоговый сигнал преобразуется в двоичные числа и обратно в непрерывный аналоговый сигнал.
5.АЦП (аналого-цифровой преобразователь)
Аналого-цифровой преобразователь (АЦП, англ. Analog-to-digital converter, ADC) — устройство, преобразующее входной аналоговый сигнал в дискретный код (цифровой сигнал). Обратное преобразование осуществляется при помощи ЦАП (цифро-аналогового преобразователя, DAC).
Как правило, АЦП — электронное устройство, преобразующее напряжение в двоичный цифровой код. Тем не менее, некоторые неэлектронные устройства с цифровым выходом, следует также относить к АЦП, например, некоторые типы преобразователей угол-код. Простейшим одноразрядным двоичным АЦП является компаратор.
АЦП встроены в большую часть современной звукозаписывающей аппаратуры, поскольку обработка звука делается, как правило, на компьютерах; даже при использовании аналоговой записи АЦП необходим для перевода сигнала в PCM-поток, который будет записан на компакт-диск.
Современные АЦП, используемые в звукозаписи, могут работать на частотах дискретизации до 192 кГц. Многие люди, занятые в этой области, считают, что данный показатель избыточен и используется из чисто маркетинговых соображений (об этом свидетельствует теорема Котельникова-Шеннона). Можно сказать, что звуковой аналоговый сигнал не содержит столько информации, сколько может быть сохранено в цифровом сигнале при такой высокой частоте дискретизации, и зачастую для Hi-Fi-аудиотехники используется частота дискретизации 44,1 кГц (стандартная для компакт-дисков) или 48 кГц (типична для представления звука в компьютерах). Однако широкая полоса упрощает и удешевляет реализацию антиалиасинговых фильтров, позволяя делать их с меньшим числом звеньев или с меньшей крутизной в полосе заграждения, что положительно сказывается на фазовой характеристике фильтра в полосе пропускания.
АЦП для звукозаписи, используемые в компьютерах, бывают внутренние и внешние. Также существует свободный программный комплекс PulseAudio для Linux, позволяющий использовать вспомогательные компьютеры как внешние ЦАП/АЦП для основного компьютера с гарантированным временем запаздывания.
Аналого-цифровое преобразование используется везде, где требуется обрабатывать, хранить или передавать сигнал в цифровой форме.
· АЦП являются составной частью систем сбора данных.
· Быстрые видео АЦП используются, например, в ТВ-тюнерах. (это параллельные и конвеерные АЦП)
· Медленные встроенные 8, 10, 12 или 16-битные АЦП часто входят в состав микроконтроллеров.(как правило они строются по принципу поразрядного уравновешивания, точность их невысока)
· Очень быстрые АЦП необходимы в цифровых осциллографах.(параллельные и конвеерные)
· Современные весы используют АЦП с разрядностью до 24 бит, преобразующие сигнал непосредственно от тензометрического датчика. (сигма-дельта АЦП)
· АЦП входят в состав радиомодемов и других устройств радиопередачи данных, где используются совместно с процессором ЦОС в качестве демодулятора.
· Сверхбыстрые АЦП используются в антенных системах базовых станций (в так называемых SMART-антеннах) и в антенных решётках РЛС.
6.ЦАП (цифро-аналоговой преобразователь)
Цифро-аналоговый преобразователь (ЦАП) — устройство для преобразования цифрового (обычно двоичного) кода в аналоговый сигнал (ток, напряжение или заряд). Цифро-аналоговые преобразователи являются интерфейсом между дискретным цифровым миром и аналоговыми сигналами.
Аналого-цифровой преобразователь (АЦП) производит обратную операцию.
Звуковой ЦАП обычно получает на вход цифровой сигнал в импульсно-кодовой модуляции (англ. PCM, pulse-code modulation). Задача преобразования различных сжатых форматов в PCM выполняется соответствующими кодеками.
Своими встроенными ЦАПами снабжены все проигрыватели лазерных дисков, DVD- и CD-плееры, ресиверы.
7.Информация, ее виды и свойства
Информацию следует считать особым видом ресурса, при этом имеется ввиду толкование "ресурса" как запаса неких знаний материальных предметов или энергетических, структурных или каких-либо других характеристик предмета. В отличие от ресурсов, связанных с материальными предметами, информационные ресурсы являются неистощимыми и предполагают существенно иные методы воспроизведения и обновления, чем материальные ресурсы. Рассмотрим некоторый набор свойств информации:
· запоминаемость;
· передаваемость;
· преобразуемость;
· воспроизводимость;
· стираемость.
Свойство запоминаемости - одно из самых важных. Запоминаемую информацию будем называть макроскопической (имея ввиду пространственные масштабы запоминающей ячейки и время запоминания). Именно с макроскопической информацией мы имеем дело в реальной практике.
Передаваемость информации с помощью каналов связи (в том числе с помехами) хорошо исследована в рамках теории информации К.Шеннона. В данном случае имеется ввиду несколько иной аспект - способность информации к копированию, т.е. к тому, что она может быть "запомнена" другой макроскопической системой и при этом останется тождественной самой себе. Очевидно, что количество информации не должно возрастать при копировании.
Воспроизводимость информации тесно связана с ее передаваемостью и не является ее независимым базовым свойством. Если передаваемость означает, что не следует считать существенными пространственные отношения между частями системы, между которыми передается информация, то воспроизводимость характеризует неиссякаемость и неистощимость информации, т.е. что при копировании информация остается тождественной самой себе.
Фундаментальное свойство информации - преобразуемость. Оно означает, что информация может менять способ и форму своего существования. Копируемость есть разновидность преобразования информации, при котором ее количество не меняется. В общем случае количество информации в процессах преобразования меняется, но возрастать не может. Свойство стираемости информации также не является независимым. Оно связано с таким преобразованием информации (передачей), при котором ее количество уменьшается и становится равным нулю.
8.Вероятностный подход к измерению количества информации.
Подход к информации как мере уменьшения неопределенности знания позволяет количественно измерять информацию, что чрезвычайно важно для информатики.
Пусть у нас имеется монета, которую мы бросаем на ровную поверхность. С равной вероятностью произойдет одно из двух возможных событий — монета окажется в одном из двух положений: «орел» или «решка».
Перед броском существует неопределенность наших знаний (возможны два события), и как упадет монета — предсказать невозможно. После броска наступает полная определенность, так как мы видим, что монета в данный момент находится в определенном положении (например, «орел»). Это приводит к уменьшению неопределенности наших знаний в два раза, поскольку из двух возможных равновероятных событий реализовалось одно.
Имеется формула, которая связывает между собой число возможных событий N и количество информации I:
По этой формуле легко определить число возможных событий, если известно количество информации. Так, для кодирования одного символа требуется 8 бит информации, следовательно, число возможных событий (символов) составляет:
Наоборот, для определения количества информации, если известно число событий, необходимо решить показательное уравнение относительно /. Например, в игре «Крестики-нолики» на поле 4*4 перед первым ходом существует 16 возможных событий (16 различных вариантов расположения «крестика»), тогда уравнение принимает вид:
16 = 2^i. Так как 16 = 2^4, то уравнение запишется как:
Таким образом, I = 4 бит, т.е. количество информации, полученное вторым игроком после первого хода первого игрока, составляет 4 бит.
9. Объемный подход к измерению количества информации.
При реализации информационных процессов информация передается в виде сообщения, представляющего собой совокупность символов какого-либо алфавита. При этом каждый новый символ в сообщении увеличивает количество информации, представленной последовательностью символов данного алфавита. Если теперь количество информации, содержащейся в сообщении из одного символа, принять за единицу, то объем информации (данных) V в любом другом сообщении будет равен количеству символов (разрядов) в этом сообщении. Так как одна и та же информация может быть представлена многими разными способами (с использованием разных алфавитов), то и единица измерения информации (данных) соответственно будет меняться.
В компьютерной технике наименьшей единицей измерения информации является 1 бит. Таким образом, объем информации, записанной двоичными знаками (0 и 1) в памяти компьютера или на внешнем носителе информации подсчитывается просто по количеству требуемых для такой записи двоичных символов. Например, восьмиразрядный двоичный код 11001011 имеет объем данных V= 8 бит.
В современной вычислительной технике наряду с минимальной единицей измерения данных «бит» широко используется укрупненная единица измерения «байт», равная 8 бит. При работе с большими объемами информации для подсчета ее количества применяют более крупные единицы измерения, такие как килобайт (Кбайт), мегабайт (Мбайт), гигабайт (Гбайт), терабайт (Тбайт):
1 Кбайт = 1024 байт = 210 байт;
1 Мбайт = 1024 Кбайт = 220 байт = 1 048 576 байт;
1 Гбайт = 1024 Мбайт = 230 байт = 1 073 741 824 байт;
1 Тбайт = 1024 Гбайт = 240 байт = 1 099 511 627 776 байт.
Следует обратить внимание, что в системе измерения двоичной (компьютерной) информации, в отличие от метрической системы, единицы с приставками «кило», «мега» и т. д. получаются путем умножения основной единицы не на 103= 1000, 106= 1000 000 и т. д., а на 210 , 220 и т. д.
Список литературы :
1. http://www.chuvsu.ru/~rte/uits/liter_uits/plan_exp/glav4_5.htm
2. http://ru.wikipedia.org/wiki/RAMDAC
3. http://www.limi.ru/dacs/appldacs.htm
4. http://ru.wikipedia.org/wiki/Дискретизация
5. http://www.examens.ru/otvet/11/11/950.html
6. http://ru.wikipedia.org/wiki/Квантование_(обработка_сигналов)
7. http://www.nnov.rgotups.ru/files/uch_lit/dopmat/%c8%ed%f4%ee%f0%ec%e0%f2%e8%ea%e0/ich_kurs/5.htm
8. http://www.seun.ru/faculty/FIIT/KTOIT/informatika/lek2/lek2-obem.htm