Реферат Теоретические основы информатики 3
Работа добавлена на сайт bukvasha.net: 2015-10-28Поможем написать учебную работу
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
от 25%
договор
1.
2. ТЕОРЕТИЧЕСКИЕ ОСНОВЫ ИНФОРМАТИКИ
1.1. Понятие информации и информатики
Стандарт основного общего образования по информатике и информационным технологиям ставит следующие цели:
· освоение основ научных представлений об информации, информационных процессах, системах, технологиях и моделях;
· умение работать с различными видами информации с помощью компьютера и других средств информационных и коммуникационных технологий (ИКТ), организовывать собственную информационную деятельность и планировать ее результаты;
· развитие познавательных интересов, интеллектуальных и творческих способностей средствами ИКТ;
· воспитание ответственного отношения к информации с учетом правовых и этических аспектов ее распространения; избирательного отношения к полученной информации;
· овладение навыками использования средств ИКТ в профессиональной деятельности, при выполнении индивидуальных и коллективных проектов, в учебной деятельности и дальнейшем освоении профессии.
1.1.1. Что такое информатика
В наиболее развитых странах большое внимание уделяется к использованию методов информатики в самых различных областях научных исследований и практических разработок.
Например, Консультативный комитет по информационным технологиям при Президенте США в 2005 году в специальном аналитическом докладе указал на необходимость безотлагательного принятия решительных действий на федеральном уровне по предотвращению снижения конкурентоспособности науки и образования в США в течение 15 лет, прямо указывая на то, что в 21-м веке главное внимание должно быть уделено развитию науки, образования и высоких технологий в промышленности и социальных сферах.
Термин информатика возник в 60-х гг. прошлого века во Франции и в России для названия области, занимающейся автоматизированной обработкой информации с помощью электронных вычислительных машин. Слияние двух слов informatigue (информатика) и automatigue (автоматика) дало название целому направлению науки - "информационная автоматика или автоматизированная переработка информации". В англоязычных странах этому термину соответствует синоним computer science (наука о компьютерной технике).
Развитие компьютерной техники ускорило становление информатики как самостоятельной области человеческой деятельности. Микропроцессорная техника (интегральные схемы и микропроцессоры) стала элементной базой вычислительных машин.
В 1983 году в Академии наук СССР было создано Отделение информатики, вычислительной техники и информатизации.
В этом же году Академией наук СССР утверждён термин «информатика» как "комплексная научная и инженерная дисциплина, изучающая все аспекты разработки, проектирования, создания, оценки, функционирования основанных на ЭВМ систем переработки информации, их применения и воздействия на различные области социальной практики".
Таким образом, информатика была нацелена на разработку общих методологических принципов построения информационных моделей, и её методы применимы везде, где существует возможность описания объекта, явления, процесса и т.п. с помощью информационных моделей.
Из всего множества определений информатики, которые связаны с многогранностью ее функций, возможностей, средств и методов, можно предложить такую трактовку:
Информатика — это техническая наука, систематизирующая закономерности и приемы процессов создания, хранения, воспроизведения, обработки и передачи данных средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ими.
Можно дать и такое, более широкое определение информации:
Информатика - это отрасль науки, изучающая структуру и общие свойства научной информации, а также вопросы, связанные с ее сбором, хранением, поиском, переработкой, преобразованием, распространением и использованием в различных сферах деятельности.
Предмет информатики составляют следующие понятия:
· аппаратное обеспечение средств вычислительной техники и телекоммуникаций;
· программное обеспечение средств вычислительной техники и телекоммуникаций;
· средства взаимодействия аппаратного и программного обеспечения;
· средства взаимодействия человека с аппаратными и программными средствами.
Часто возникает путаница в понятиях "информатика" и "кибернетика".
Концепция, заложенная Н. Винером в кибернетику, связана с разработкой теории управления сложными динамическими системами в разных областях человеческой деятельности. Кибернетика существует независимо от наличия или отсутствия компьютеров.
Кибернетика – это наука об общих принципах управления в различных системах: технических, биологических, социальных и др.
С одной стороны, информатика занимается изучением процессов преобразования и создания новой информации более широко, практически не решая задачи управления различными объектами, как кибернетика.
Может сложиться впечатление об информатике как о более емкой дисциплине, чем кибернетика.
С другой стороны, информатика не занимается решением проблем, не связанных с использованием компьютерной техники, что, несомненно, сужает ее, казалось бы, обобщающий характер.
Между этими двумя дисциплинами провести четкую границу не представляется возможным в связи с ее размытостью и неопределенностью, хотя существует довольно распространенное мнение, что информатика является одним из направлений кибернетики.
Основы кибернетики были заложены трудами американского математика Норберта Винера, опубликованными в 1948 году, а само название происходит от греческого слова (kyberneticos — искусный в управлении).
В кибернетике процесс управления представляется как взаимодействие двух систем - управляющей и управляемой (рис.1.1). Управление системой осуществляется путем подачи управленческого сигнала воздействия 1 с учетом обратной связи (2) - текущего состояния управляемой системы и внешней среды (3).
Управляющая система формирует воздействия на управляемую систему, которые побуждали бы последнюю принять состояние, определяемое целью управления. Обратная связь (2) – это информация о выполнении управляющих воздействий.
Рис.1.1. Структура системы управления.
Грубый анализ контура управления показывает, что при отсутствии обратной связи невозможно создать устойчивую систему управления.
Но, с использованием подобного контура невозможно описать все процессы управления, так как в сложных системах управления объекты могут действовать по определенным, возможно даже своим, законам, которые называются принципом внешнего дополнения. Такими же принципами могут руководствоваться и управляющие органы.
Поэтому в настоящее время кибернетика получила второй более мощный импульс развития, который может привести к прорыву в области, как аппаратных, так и программных систем информатики.
Предмет кибернетики - это принципы построения и функционирования систем автоматического управления, и основные задачи кибернетики это:
· методы моделирования процесса принятия решений техническими и программными средствами,
· связь между психологией человека и математической логикой,
· связь между информационным процессом отдельного индивидуума и информационными процессами в обществе,
· разработка принципов и методов искусственного интеллекта.
Информатика появилась благодаря развитию компьютерной техники, базируется на ней и совершенно немыслима без нее.
Кибернетика же развивается сама по себе, строя различные модели управления объектами, хотя и очень активно использует все достижения компьютерной техники. Кибернетика и информатика, внешне очень похожие дисциплины, но их различие состоит в том, что информатика изучает свойства информации и аппаратно-программных средств ее обработки, а в кибернетике – разрабатываются концепции построения моделей объектов с использованием, в частности, информационного подхода.
1.1.2. Структура информатики
Информатика в широком смысле представляет собой единство разнообразных отраслей науки, техники и производства, связанных с переработкой информации главным образом с помощью компьютеров и телекоммуникационных средств связи во всех сферах человеческой деятельности.
Информатику в узком смысле слова можно представить как состоящую из трех взаимосвязанных частей (рис 1.2):
· технических средств (hardware), это компьютеры, принтеры, мониторы и т.д.
· программных средств (software), это программы, которые загружаются в компьютеры,
· алгоритмических средств (brainware), это модели, алгоритмы, алгоритмические языки и. д.
В широком смысле слова, информатику, как в целом, так и каждую ее часть обычно рассматривают с разных позиций:
· как отрасль народного хозяйства,
· как фундаментальную науку,
· как прикладную дисциплину.
Рис. 1.2. Структура информатики как отрасли, науки, прикладной дисциплины
Информатика как отрасль народного хозяйства включает однородную совокупность предприятий разных форм хозяйствования, которые занимаются производством компьютерной техники, программных продуктов и разработкой современной технологии переработки информации.
Специфика и значение информатики как отрасли производства состоят в том, что от нее во многом зависит рост производительности труда в других отраслях народного хозяйства.
Информатика как фундаментальная наука занимается разработкой методологии создания информационного обеспечения процессов управления любыми объектами на базе компьютерных информационных систем.
Одна из главных задач этой науки – выяснение, что такое информационные системы, какое место они занимают, какую должны иметь структуру, как функционируют и какие общие закономерности им свойственны.
Цель фундаментальных исследований в информатике – получение обобщенных знаний о любых информационных системах, выявление общих закономерностей их построения и функционирования.
Информатика как прикладная дисциплина занимается:
· изучением закономерностей в информационных процессах (накопление, переработка, распространение);
· созданием информационных моделей коммуникаций в различных областях человеческой деятельности;
· разработкой информационных систем и технологий в конкретных областях и выработкой рекомендаций относительно их жизненного цикла: для этапов проектирования и разработки систем, их производства, функционирования и т.д.
Таким образом, информатика занимается методами и средствами преобразования информации и их использованием в организации технологического процесса переработки информации.
Задачи информатики состоят в следующем:
· исследование информационных процессов любой природы;
· разработка информационной техники и создание новейшей технологии переработки информации на базе полученных результатов исследования информационных процессов;
· решение научных и инженерных проблем создания, внедрения и обеспечения эффективного использования компьютерной техники и технологии во всех сферах общественной жизни.
Информатика является комплексной научно-технической дисциплиной, которая создаёт новую информационную технику и новую технологию для решения проблем в других областях даже в таких, где считается невозможным применение количественных методов из-за неформализуемости процессов и явлений.
Значительное развитие средств информатики и связи дает возможность осуществить в будущем переход к "безбумажной технологии" и "безбумажному обществу". В "безбумажном обществе" информационный обмен между пользователями будет осуществляться с помощью видеотелефона, видеотекстных систем, электронной почты, факсимильной передачи документов, телеконференций, сети передачи данных и т.д., а сбор, хранение и обработка информации будет производиться с помощью средств вычислительной техники.
В последнее время, чтобы подчеркнуть использование современных средств вычислительной техники, информатики и связи вводят термин "новые информационные технологии" (НИТ).
Таким образом, в настоящее время информационная технология может быть определена, как совокупность систематических и массовых способов создания, накопления, обработки, хранения, передачи и распределения информации (данных, знаний) с помощью средств вычислительной техники и связи.
Особенно следует выделить в информатике методы математического моделирования и методы распознавания образов, практическая реализация которых стала возможной благодаря достижениям компьютерной техники.
Информатика становится ведущей в информационном обществе. Информированность в обществе в существенной степени зависит от прогресса информатики как науки, техники и производства.
1.1.3. Влияние информатики на общество
Общественные отношения в истории развития человеческого общества всегда зависели от приобретения знаний в различных науках. Кардинальные изменения в сфере обработки информации позволило человеческому обществу приобрести новое качество.
В области овладения информацией в истории цивилизации можно выделить четыре этапа.
Первый этап: изобретение письменности, в результате чего появилась возможность передачи знаний от поколения к поколениям.
Второй этап: (середина XVI в.) изобретение книгопечатания, которое радикально изменило культуру, организацию деятельности общества.
Третий этап: (конец XIX в.) изобретение электричества, благодаря которому появились телеграф, телефон, радио, давшие возможность оперативно передавать информацию в любом объеме.
Четвертый этап: (70-е гг. XX в.) изобретение микропроцессорной технологии и появление персонального компьютера. Этот этап характеризуется:
· переходом от механических и электрических средств преобразования информации к электронным;
· миниатюризацией устройств, приборов, машин;
· созданием программно-управляемых устройств и процессов.
В этот период на первый план выходит новая отрасль - информационная индустрия. Важнейшими составляющими информационной индустрии становятся все виды информационных технологий, особенно телекоммуникации.
Современная информационная технология опирается на достижения в области компьютерной техники и средств связи.
Роль информационных процессов в нашей жизни велика и с каждым годом становится все ощутимей.
Усложнение индустриального производства, социальной, экономической и политической жизни, изменение динамики процессов во всех сферах деятельности человека привели, с одной стороны, к росту потребностей в знаниях, а с другой – к созданию новых средств и способов удовлетворения этих потребностей.
Бурное развитие компьютерной техники и информационных технологий послужило толчком к развитию общества, построенного на использовании различной информации и получившего название информационного общества.
В информационном обществе изменятся производство, уклад жизни, система ценностей, возрастет значимость культурного досуга по отношению к материальным ценностям. Люди, живущие в информационном обществе, должны уметь пользоваться главным его инструментом, и в первую очередь универсальной информационной машиной – компьютером.
По сравнению с индустриальным обществом, где все направлено на производство и потребление товаров, в информационном обществе производятся и потребляются интеллект, знания, что приводит к увеличению доли умственного труда. От человека потребуется способность к творчеству, возрастет спрос на знания.
Информационное общество – общество, в котором большинство работающих занято производством, хранением, переработкой и передачей информации, особенно высшей ее формы – знаний.
В настоящее время в передовых странах с конца XX в. постепенно проявляются очертания информационного общества. Все больше людей живут и работают в квартирах и офисах оснащенных всевозможными электронными приборами и компьютерными устройствами. В деятельности людей все большее место занимает обработка информации с помощью электронных средств.
В России с 1990 года осуществляется развитие социальной информатики, как нового перспективного направления в науке и образовании, которое становится научной базой для формирования информационного общества. Разработана концепция и методология изучения проблем социальной информатики в системе высшего образования.
А уже в 1996 году сформировались представления об информатике как о фундаментальной науке, имеющей междисциплинарное, научно-методологическое и мировоззренческое значения.
При переходе к информационному обществу возникает новая индустрия переработки информации на базе компьютерных и телекоммуникационных информационных технологий.
В настоящее время информационное общество можно охарактеризовать следующими признаками:
· активно разрешается противоречие между большим потоком информации и информационной потребностью общества;
· по сравнению с другими ресурсами информация в большинстве случаев имеет приоритет;
· экономика занимает ведущее положение;
· автоматизированная обработка, хранение, передача и использование данных выходит на первое место;
· информационные технологии приобретают глобальный характер, охватывая все сферы деятельности человека;
· формируется информационное единство всей человеческой цивилизации;
· с помощью информационных технологий осуществляется доступ каждого человека к информационным ресурсам всей цивилизации;
· реализуются гуманистические принципы управления обществом и воздействия на окружающую среду.
Кроме положительных моментов прогнозируются и опасные тенденции:
· все большее влияние на общество средств массовой информации;
· информационные технологии могут разрушить частную жизнь людей и организаций;
· существует проблема отбора качественной и достоверной информации;
· многим людям будет трудно адаптироваться к среде информационного общества. Существует опасность разрыва между "информационной элитой" (людьми, занимающимися разработкой информационных технологий) и потребителями.
Сегодня в России насчитывается около двух миллионов компьютеров. И хотя по абсолютному значению это достаточно большое количество, в среднем персональный компьютер есть только у каждого 10 россиянина.
Ближе всех на пути к информационному обществу стоят страны с развитой информационной индустрией, к числу которых можно отнести США, Японию, Англию, страны Западной Европы. В этих странах уже давно одним из направлений государственной политики является направление, связанное с инвестициями и поддержкой инноваций в информационную индустрию, в развитие компьютерных систем и телекоммуникаций.
В настоящее время тенденцией в информатизации общества является переход к использованию компьютеров в информационных сетях. Электронная компьютерная почта, компьютерные телеконференции и видеоконференции, поиск информации во «Всемирной паутине» стали повседневной практикой пользователей компьютеров в развитых странах.
Современные информационные технологии позволяют включать в состав документа мультимедийные объекты (графику, звук, анимацию, видео). Умение работать с информацией, представленной во всех этих формах, становится также социально значимым явлением в нашем обществе.
Использование компьютерных сетей позволяет максимально быстро доставить информацию широкому кругу потребителей.
1.1.4. Сообщения, данные, сигнал
Судя по высказываниям ученых, определения информатики не ведут к обозначению предмета исследования. Да и подмена информации ее количественной характеристикой начинается с первых страниц любых учебников. Школьники и студенты читают в учебниках определение информации, как “отражение предметного мира с помощью знаков и сигналов”. Намного ли и в какую именно сторону отличается ее полное “научное не определение” от школьного?
Передача и обработка “информационных сигналов” предусматривается всеми, а вот что именно “информационное” содержится в этих сигналах, остается неразрешимым вопросом, если, конечно, не удовлетвориться дежурным утверждением о том, что в них содержатся “сведения”.
Тут возникает вопрос, можно ли, опираясь на него точно определить количество информации? И далее, после справедливого утверждения о том, что это невозможно при данном определении, напрашивается вывод, что в зависимости от многих причин каждый из нас воспримет ее больше или меньше, приводят несколько известных вариантов алгоритмов определения этого самого количества информации.
Спрашивается, количество чего мы должны определять: “отражения”, “сведений” или “свойств”? Большинство же авторов стараются вообще не обращать внимания на отсутствие определения информации. Все это не так безобидно, как представляется на первый взгляд. Пустота заполняется текстами учебников, рекомендованных Министерством общего и профессионального образования РФ, об информационном поле: “…у материи остается лишь одно свойство - обладать изменяющейся структурой, т.е. существовать в пространстве и времени в форме универсального поля, которое мы будем именовать информационным полем”. Тут же появляется желание обратиться к азам диалектического материализма, так как идея информационного поля суть “материализованная диалектика”.
Похоже, все, что не имеет определения, можно называть полем - мысленным, чувственным, информационно-логическим и каким угодно.
Можно ли поверить в то, что измеряемая величина не имеет никакого вразумительного собственного определения? Этому поверить нельзя, ибо сегодня каждый школьник знает, что для того чтобы что-то измерить, надо иметь не только меру, но и сущность, феномен, явление, именованную шкалу, к которым эта мера прикладывается.
Любое свойство, даже самое “основное”, должно иметь сравнительное определение, имя в некоторой классификации свойств, без которого свойством не является. К информации же, как свойству, такое требование по какой-то причине не применяется.
Разработчики статистической теории количества информации всё сделали правильно, но только не для информации, а для некоторого, не нуждающегося в терминологическом определении, количества, при условии, что сообщения подчиняются статистическим закономерностям. Таким образом, научное общество вынуждено искать замену такого подхода с момента формирования понятия информатики.
В этом смысле информатика, как наука, мужественно борется за свое место под солнцем, не сдаваясь computer science, и ожидает свой предмет исследования.
Классическая количественная теория информации состоит из двух частей:
· теории преобразования сообщений и сигналов, основную долю в которой составляют вопросы кодирования и декодирования;
· теории передачи сообщений и сигналов без шумов и с шумами (с помехами) в канале связи.
Ее основным утверждением, влияющим на понимание смысла термина “информация” является утверждение: носителем сообщения или информации является сигнал.
Этой “информации” придаются количественная и качественная мера. То есть, вводится количество информации и, по возможности, количество семантики (вопрос о возможности существования собственного смысла сообщения без его интерпретации в передатчике и приемнике обычно не задается) в информационной посылке.
Таким образом, сохраняются “сигнальные” предпосылки: характеристики сигнала, на котором отражается (переносится) сообщение, и есть предмет изучения информации.
В этом-то случае и получается, что собственно информацию определять не надо никак. Информация - просто “универсальное свойство” всего существующего в материальном мире, представимое через сигнал. После этого, конечно, можно утверждать, что, в зависимости от конкретного вида сигналов и их сочетаний, количество информации в них может быть больше или меньше.
Теория информации определяет, что если сообщение не снимает неопределенности, то оно не содержит информации, и наоборот если сообщение позволяет более определенно задать предмет, то в сообщении содержится информация.
Например, сообщение о том, что “Лев Николаевич Толстой написал роман «Война и мир», в котором описал события Отечественной войны 1812 года” для человека, знающего литературу, не содержит информацию, так как не несет ничего нового, но для школьников может обладать элементом новизны и тогда является информативным.
Степень неопределенности сообщения стали измерять величиной, получившей название энтропия, которая является функцией вероятности. Если вероятность равна 1, то энтропия равна нулю, а если вероятность равна 0, то энтропия равна бесконечности.
Количество информации, полученное как разность между начальной энтропией (до получения сообщения) и конечной энтропией (после получения сообщения), называется негэнтропией (отрицательной энтропией). Поэтому информацию иногда называют отрицательной энтропией. Соответственно у информации и у энтропии одна единица измерения – бит.
Такое понимание информации может привести к серьезным заблуждениям. Так, для школьного инспектора сообщение школьника о Л.Н.Толстом и его романе «Война и мир» не менее, а может быть и более (попробуйте подсчитать!) информативно, чем для самого школьника, ибо школьник, как и инспектор, уже информированы, но последнему это позволяет оценить не только знания отдельного ученика, но и уровень преподавания литературы.
После энтропийно-негэнтропийного подхода к информации некоторое распространение получил подход комбинаторный, когда количество информации определяется как функция числа элементов конечного множества в их комбинаторных отношениях. Можно встретить пример, когда мерой количества информации, содержащейся в некотором объекте А, относительно объекта В, берется минимальная “длина программы”, на основе которой можно однозначно преобразовать объект А в объект В. Это отголосок Колмогоровского предложения определения сложности системы по ее “программному” описанию.
К реальной жизни эти утверждения привязать довольно трудно, поэтому в другом варианте информация – это отражение разнообразия, то есть воспроизведение разнообразия одного объекта в другом объекте в результате их взаимодействия.
В такой концепции бит также является единицей измерения информации, которую получает приемник информации, осуществляя выбор из двух равновероятных возможностей разнообразия. Если же объекты не различаются, то их совокупность не содержит информации.
Например, в урне обнаружено два шара, из которых один белый, а второй черный. Оба вместе они несут в себе разнообразие - информацию - в один бит. Совокупность двух шаров одного цвета предлагается считать не содержащей информации. Основоположником концепции разнообразия является английский нейрофизиолог У.Р.Эшби. По его утверждению “информация не может передаваться в большем количестве, чем позволяет количество разнообразия”.
Такой подход не очень сильно отличается от примера с утверждениями о романе «Война и мир». Информацию нельзя отождествлять с различием. Считается, что различие, разнообразие суть объективная основа существования информации, если уж считать ее свойством всех материальных объектов, хотя кто возьмется утверждать, что однообразие не является свойством материи, сигналом или сообщением?
Можно предложить такое определение информации:
Информация - свойство материи и передается физическим сигналом, распространяющимся с помощью физического носителя, а ее количество может быть определено множеством подходов, в зависимости от конкретной задачи.
Качественная же сторона вообще не раскрыта в теории информации, здесь нет никакой ясности ситуации. В “модельно-математическом ключе” ставится задача нахождения “количества смысла”, “количества семантики”. Обратим внимание на то, что далеко не каждое свойство имеет осмысленное количественное выражение. Известные в математике “качественные шкалы” совсем не обязательно имеют метрику, т.е. некоторый способ сравнения “количеств” этого качества.
Теория же информации является самодостаточной, для того, чтобы мы вполне могли обходиться без “информатики”, а “собственные теории”, принадлежащие информатике как науке пока еще только зарождаются.
В конечном итоге сегодня во всех литературных источниках обычно указываются три общепринятые, почти “классические”, направления развития исследований, связанных со “свойственно-количественным” подходом к понятию информации:
- математический, количественный: разработка математического аппарата, отражающего основные свойства информации [Вот так и пишут в литературе: “свойства информации”, которая сама изначально определена как свойство!] или исследования в области сигнального понимания информации в полном соответствии с областью, приписываемой теории информации;
- понятийный, количественно-качественный: исследование основных свойств (!) информации - измерение ее ценности, полезности и т.п. или исследования в области понимания информации на уровне создания разнообразных подходов к ее количественно-качественному измерению;
- информатизационный: использование информационных методов в других науках (в социологии, лингвистике, биологии и др.) или рассмотрение информации в ее разъяснительном смысле, определенном как процесс информирования, или “информатизации”, происходящий стихийно или осуществляемый с какой-либо осознанной целью.
В компьютере для обеспечения выполнения операций с информацией бит представляется единицей или нулем.
Таким образом, информация в компьютере – это последовательность единиц и нулей и называются эти цифры битами.
С помощью 1 бита можно передать два варианта сообщений, например, 0 – нет, 1 – да или 0 – черный цвет, 1 – белый цвет. Чтобы вариантов сообщений было больше - биты объединяют. Из n бит можно составить 2n вариантов. Если объединить 8 бит, то получится новая единица измерения информации - 1 байт:
1 байт = 8 бит
С помощью 1 байта можно передать 28 = 256 вариантов, чего вполне достаточно для кодирования всех русских и английских, больших и маленьких букв, цифр и специальных знаков. Таким образом:
1 байт = 1 символ
При вводе с клавиатуры одного символа вводиться 1 байт информации.
Чтобы измерить больший объем информации, применяют более крупные единицы измерения информации.
Таблица 1.1
Наименование | Обозначение | Размер |
Бит | Бит | 1 двоичный разряд |
Байт | Байт | 1 байт = 8 бит |
Килобайт | Кбайт | 1 Кбайт = 1024 байта |
Мегабайт | Мбайт | 1 Мбайт = 1024 Кбайта |
Гигабайт | Гбайт | 1 Гбайт = 1024 Мбайта |
Терабайт | Тбайт | 1 Тбайт = 1024 Гбайта |
Надо заметить, что при переходе к более крупным единицам «инженерная» погрешность, связанная с округлением, накапливается и становится недопустимой, поэтому на старших единицах измерения округление производится реже. Байт, как группа взаимосвязанных бит, появился вместе с первыми образцами электронной вычислительной техники. Долгое время байт был машинно-зависимым, то есть для разных вычислительных машин длина байта была разной. Только в конце 60-х годов понятие байта стало универсальным и машинонезависимым. Во многих случаях целесообразно использовать не восьмиразрядное кодирование, а 16-разрядное, 24-разрядное, 32-разрядное и более. Группа из 16 взаимосвязанных бит (двух взаимосвязанных байтов) в информатике называется словом. Соответственно, группы из четырех взаимосвязанных байтов (32 разряда) называются удвоенным словом, а группы из восьми байтов (64 разряда) — учетверенным словом. Пока, на сегодняшний день, такой системы обозначения достаточно.
1.1.5. Единицы хранения данных
При хранении данных решаются две проблемы: как сохранить данные в наиболее компактном виде и как обеспечить к ним удобный и быстрый доступ (если доступ не обеспечен, то это не хранение). Для обеспечения доступа необходимо, чтобы данные имели упорядоченную структуру, а при этом образуется «паразитная нагрузка» в виде адресных данных. Без них нельзя получить доступ к нужным элементам данных, входящих в структуру. Поскольку адресные данные тоже имеют размер и тоже подлежат хранению, хранить данные в виде мелких единиц, таких, как байты, неудобно. Их неудобно хранить и в более крупных единицах (килобайтах, мегабайтах и т. п.), поскольку неполное заполнение одной единицы хранения приводит к неэффективности хранения.
В качестве единицы хранения данных принят объект переменной длины, называемый файлом. Файл — это последовательность произвольного числа байтов, обладающая уникальным собственным именем. Обычно в отдельном файле хранят данные, относящиеся к одному типу. В этом случае тип данных определяет тип файла.
Проще всего представить себе файл в виде безразмерной папки, в которой можно по желанию добавлять содержимое или извлекать его оттуда. Поскольку в определении файла нет ограничений на размер, можно представить себе файл, имеющий 0 байтов (пустой файл), и файл, имеющий любое число байтов.
В определении файла особое внимание уделяется имени. Оно фактически несет в себе адресные данные, и косвенно говорит о той информации, которая содержится в файле.
Совокупность файлов образует файловую структуру, которая, как правило, имеет иерархический тип. Полный адрес файла в файловой структуре является уникальным и включает в себя собственное имя файла и путь доступа к нему.
1.1.6. Представление чисел в памяти ЭВМ
1.
1.5.
1.6.
1.1.6.1. Представление информации в виде двоичного кода
Любой текст, представляется с помощью кода, в котором каждому отдельному символу в тексте (букве алфавита, цифре или знаку препинания) приписывается уникальная последовательность битов. Таким образом, текстовая информация представляется последовательностью битов, в которой наборы битов представляют символы в исходном тексте.
С появлением компьютеров разрабатывались различные системы кодов, для различного оборудования, что привело к проблемам в передаче информации. Чтобы разрешить сложившуюся ситуацию, Американский национальный институт стандартов (ANSI) принял Американский стандартный код для обмена информацией (ASCII). В этом коде используются наборы из семи битов для представления прописных и строчных букв английского алфавита, цифр от 0 до 9, пунктуационных знаков и управляющей информации: перевод строки, возврат каретки и табуляция.
Сегодня стандарт ASCII часто увеличен до восьми битов для одного символа, при этом в качестве старшего бита в каждый код символа добавляется 0. Такой метод предоставляет код, в котором каждый набор полностью занимает ячейку памяти размером 1 байт, и дополнительно ещё 128 кодов (полученные приписыванием дополнительному биту значения 1), которые могут представлять символы, не входящие в исходный стандарт ASCII. К сожалению, из-за того, что производители используют свои собственные интерпретации для этих дополнительных наборов битов, данные, в которых они появляются, часто не так просто переместить с системы одного производителя на систему другого.
Справка.
АМЕРИКАНСКИЙ НАЦИОНАЛЬНЫЙ ИНСТИТУТ СТАНДАРТОВ
Американский национальный институт стандартов (
ANSI
) основан в 1918 году небольшим консорциумом машиностроительных ассоциаций и государственных агентств как бесприбыльная организация для координации развития стандартов в частном секторе.
Сегодня в
ANSI
состоит более 1300 коммерческих и профессиональных организаций, торговых ассоциаций и государственных агентств. Штаб-квартира
ANSI
находится в Нью-Йорке и представляет США в организации
ISO
. Веб-страница Американского национального института стандартов находится по адресу:
http
://
www
.
ansi
.
org
.
Подобные организации существуют и в других странах:
Standards
Australia
(Австралия),
Standards
Council
of
Canada
(Канада),
China
State
Bureau
of
Quality
and
Technical
Supervision
(Китай),
Deutsches
Institut
fbr
Normung
(Германия),
Japanese
Industrial
Standards
Committee
(Япония),
Direcciyn
General
de
Normas
(Мексика), Государственные комитет Российской Федерации по стандартизации и метрологии (Россия),
Swiss
Association
for
Standardization
(Щвейцария) и
British
Standards
Institution
(Великобритания).
Например, приветствие «ПРИВЕТ» в этой системе будет иметь вид:
10001111 П | 10010000 Р | 10001000 И | 10000010 В | 10000101 Е | 10010010 Т |
Ведущие производители технического и программного обеспечения разрабатывают свои системы кодирования. Например, система кодирования Unicode, которая получила широкую поддержку со стороны специалистов в области вычислительной техники. В этом коде для представления символов используются последовательности из 16 бит. В результате чего стандарт Unicode включает в себя 65 536 различных кодов, которых достаточно для представления наиболее употребляемых символов китайского и японского языков. Международная организация по стандартизации (ISO, от греческого слова isos
— «равный») разработала свой стандарт, который может конкурировать с Unicode. В этом стандарте один символ кодируется 32 битами и может представлять миллиарды символов.
Справка.
ISO
- МЕЖДУНАРОДНАЯ ОРГАНИЗАЦИЯ ПО СТАНДАРТИЗАЦИИ
Международная организация по стандартизации (
ISO
) организована в 1947 году как всемирная организация органов стандартизации, по одному из каждой страны.
Сегодня ее штаб-квартира находится в Женеве (Швейцария). Членами организации являются более 100 национальных институтов и многочисленные член-корреспонденты. (Член-корреспондент является представителем страны, в которой не существует национального института стандартизации. Они не могут непосредственно участвовать в разработке стандартов, но их информируют о шагах, предпринимаемых
ISO
.)
Веб-страница
ISO
находится по адресу
http
:// www
.
iso
.
ch.
1.
1.2.
1.2.
1.2.
1.2.
1.2.
1.2.
1..0.
1..1.
1.
1.1.1.
1.1.2.
1.1.3.
1.1.4.
1.1.5.
1.1.5.1.
1.1.6.2. Представление числовых значений
Метод хранения информации в виде закодированных символов неэффективен для работы с числовой информацией.
Например, как будет храниться число 17? В стандарте ASCII, используется 1 байт памяти для каждого символа. Таким образом, нам потребуется в общей сумме 16 битов. А, самое большое число, которое мы можем представить, используя 16 битов, это 99. Поэтому более эффективным является хранение числового значения в двоичном представлении.
Двоичное представление (binary notation) — это запись числовых значений, в которой используются только 0 и 1, а не 0, 1, 2, 3, 4, 5, 6, 7, 8 и 9, как в традиционной, десятичной, системе счисления.
Напомним, что в десятичной системе счисления каждой позиции в записи числа соответствует определенный разряд. В записи числа 281 цифра 1 занимает позицию единиц, 8 — позицию десятков, 2 — позицию сотен.
3 | 7 | 5 |
Запись числа
Рис. 1.3. Разрядность записи чисел
При смещении по записи числа влево вес разряда увеличивается в десять раз. Значение, представленное записью, можно получить, умножив значение каждого числа на вес его разряда и затем сложив полученные произведения. Например, запись 281 имеет вид:
(2 х 100) + (8 х 10) + (1 х 1).
В двоичном представлении каждая позиция в записи числа также соответствует определенному разряду. При движении по записи числа влево вес разряда каждый раз увеличивается в два раза.
Более точно, вес разряда последнего числа справа равен единице (2°), вес разряда следующего числа равен двум (21), следующего — четырем (22), следующего — восьми (23) и т. д.
Например, в двоичной записи 1101 самая крайняя справа 1 соответствует весу разряда, равному единице, следующий ноль — весу разряда, равному двум, 1 соответствует весу разряда, равному четырем, а самая крайняя слева 1 — весу разряда, равному восьми.
Чтобы получить значение, представленное двоичной записью, выполняем те же действия, как в случае с десятичной системой счисления: умножаем значение каждой цифры на вес соответствующего разряда и складываем полученные произведения.
|
Вес разряда |
1 | 0 | 1 | 1 |
Запись числа
Рис. 1.4 Вес разрядов
Например, значение, имеющее запись 100101, равно 37.
Важно, что в двоичном представлении используются только 0 и 1, и получение значения числа сводится к суммированию тех разрядов, в которых в записи стоит единица.
1 | 1Г0о" | 1 | 1 | 0 | 1 | Вес разряда | |
| | | | | 1 | х Один = 1 | |
| | | | 0 | х Два = 0 | ||
| | | 1 | х Четыре = 4 | |||
| | 1 | х Восемь = 8 | ||||
| 1 | х Шестнадцать = 16 | |||||
1 | х Тридцать два = 32 |
Двоичная запись
Значение бита Сумма = 61
Рис. 1.5. Представление двоичных чисел
Еще один пример. Двоичная запись 1101 имеет значение 13, так как единицы соответствуют разрядам 1, 3 и 4.
Последовательность двоичных записей, соответствующих десятичным числам от 0 до 8, выглядит следующим образом: 0, 1, 10, 11, 100, 101, 110, 111, 1000.
Для получения двоичной записи больших положительных чисел можно использовать систематический подход, описываемый алгоритмом.
Шаг 1. Делим число на два и запишем остаток деления.
Шаг
2. Продолжаем делить частные на два и записывать остаток до тех пор, пока частное не будет равно нулю.
Шаг
3. Когда частное станет равно нулю, двоичная запись числа будет состоять из остатков деления, выписанных справа налево в том порядке, в каком они были получены.
Попробуем применить этот алгоритм к числу 13. Сначала делим тринадцать на два, получаем частное, равное шести, и единицу в остатке; так как частное не равно нулю, делим его на два в соответствии с шагом 2. В результате имеем новое частное, равное трем, и ноль в остатке. Это частное также не равно нулю, поэтому делим его на два, получая частное, равное единице, и два в остатке. Еще раз делим частное (единицу) на два, в этот раз частное равно нулю, а остаток единице. Так как мы получили в результате деления ноль, то переходим к третьему шагу и получаем двоичную запись исходного значения (тринадцать), которая имеет вид 1101.
Рис. 1.6. Преобразование числа 13 в двоичную форму записи
Теперь вспомним, что представление числа 17 в начале раздела (двумя байтами), и, что таким образом можно представить самое большое число 99. Становится видно, если мы будем использовать двоичное представление, мы сможем хранить целые числа в интервале от 0 до 65 535, что является значительным усовершенствованием.
Таким образом, числовую информацию принято хранить в виде двоичной записи, а не в виде закодированных символов. Речь идет о «в виде двоичной записи», потому что обычная двоичная система счисления описывает только основы нескольких способов хранения числовой информации, используемые в машинах.
Важно, что для хранения целых чисел принята система кодирования, которая называется представлением в дополнительном коде, которая дает возможность кодирования и положительных, и отрицательных чисел.
Для хранения чисел с дробной частью, таких как 3*/2 или 3/4, используется другая форма, называемая представлением чисел с плавающей точкой. Таким образом, отдельное значение (например, 15) может быть представлено различными последовательностями битов (как символ, закодированный в стандарте ASCII; в представлении в дополнительном коде или в форме с плавающей точкой, как 150/2), и наоборот, отдельную последовательность битов можно интерпретировать по-разному.
При этом надо помнить, что независимо от размера области памяти, которую машина может выделить для хранения числового значения, все равно будут появляться слишком большие целые числа или слишком маленькие дроби, не помещающиеся в эту область. В связи с этим всегда существует возможность ошибок, таких как переполнение (число слишком большое) или усечение (дробь слишком маленькая). С ними необходимо бороться, иначе ничего не подозревающий пользователь столкнется с множеством ошибочных данных.
1.
1.1.
1.2.
1.3.
1.4.
1.5.
1.6.
1.6.1.
1.6.2.
1.1.6.3. Представление изображений
В компьютерных системах кроме текстовой и числовой информации хранится графическая, звуковая и видеоинформация. Способы представления этих данных находятся только в начале своего развития и, следовательно, не настолько стандартизированы.
Все изображения делят на две категории: растровые (bitmap techniques) и векторные (vector techniques).
Растровое изображение представляет собой набор точек, элементов изображения, которые называются пикселами (pixel). Самое простое представление имеет вид длинной последовательности битов, каждый из которых равен 0 или 1 в зависимости от того, белого или черного цвета пиксел. Цветные изображения отображать немного сложнее, так как необходимо каждый пиксел представлять комбинацией битов, обозначающей его цвет.
Многие внешние устройства компьютера (факсы, видеокамеры и сканеры) конвертируют изображения в растровый формат. Эти устройства кодируют цвет пиксела в виде комбинации трех составляющих: красной, зеленой и синей, соответствующих трем основным цветам. Для представления интенсивности каждого цвета используется один байт, в то время как для представления целого пиксела изображения требуется три байта. Этот подход с использованием трех составляющих цвета используется также в мониторе компьютера, который отображает миллиарды пикселов, каждый из которых состоит из трех компонентов: красного, зеленого и синего, что можно заметить, рассмотрев экран поближе (через увеличительное стекло).
Таким образом, для изображения, состоящего из 1024 рядов, содержащих 1024 пиксела каждый, потребуется такой объём памяти, который превысит емкость обычного гибкого диска.
Изображение в растровом формате имеет один недостаток: размер изображения нельзя произвольно увеличить. Так как, единственный способ увеличения изображения — увеличить размер пикселов. Но это приводит к зернистому изображению — явлению, которое часто наблюдается в цифровых фотоаппаратах.
Векторный формат представления изображений преодолевает эту проблему. Векторное изображение - это набор линий и дуг. Такое описание заставляет само устройство рисовать изображение, а не воспроизводить комбинацию пикселов.
Различные шрифты, в современных принтерах и мониторах, часто кодируются именно таким способом, для того чтобы размер символа сделать более гибким.
Такие шрифты называют масштабируемыми шрифтами. Например, шрифт TrueType (разработанный компаниями Microsoft и Apple Computer) представляет собой описание того, как следует рисовать символы в тексте. Или шрифт PostScript (разработанный корпорацией Adobe Systems), который предоставляет средства для описания символов как графических данных.
Векторный формат распространен в автоматизированном проектировании. Он позволяет создавать трехмерные объекты и управлять их отображением на мониторе.
Однако, векторный формат не обеспечивает высокого фотографического качества изображений, которое доступно в растровом формате. Именно поэтому растровый формат используется в современных цифровых камерах.
1.1.6.4. Представление звука
Способ кодирования звуковой информации состоит в том, что измеряется амплитуда сигнала через равные промежутки времени и записываются полученные значения. Например, последовательность 0, 1.5, 2.0, 1.8, 2.1, 2.5, 4.0, 3.0, 0 описывает волну звука, амплитуда которой сначала увеличивается, затем немного уменьшается, затем снова повышается и, наконец, падает до 0.
Звуковая волна
0 1.5 2.0 1.8 2.1 2.5 4.0 3.0 0
Амплитуда
Рис. 1.7. Звуковая волна
Такой способ кодирования, в котором частота дискретизации составляет 8000 отсчетов в секунду, используется уже давно в дальней телефонной связи. Голос на одном конце канала кодируется в виде числовых значений, отражающих амплитуду звукового сигнала, восемь тысяч раз в секунду. Эти значения затем передаются по каналам связи и используются для воспроизведения звука на приемном конце канала связи.
Может показаться, что 8000 отсчетов в секунду — это большая частота дискретизации, но для высокой точности воспроизведения музыки эта частота недостаточна. Для получения качественного звучания на современных музыкальных компакт-дисках используется частота дискретизации, равная 44 100 отсчетов в секунду.
Для данных, получаемых при каждом отсчете, отводится 16 битов памяти (или 32 бита для стереозаписей). Таким образом, для хранения одной секунды звучания требуется более миллиона битов.
Для кодирования звуков в музыкальных синтезаторах, компьютерных играх и звуках сопровождающих веб-страницы используется более экономная система кодирования, которая называется цифровым интерфейсом музыкальных инструментов (MIDI — Musical Instrument Digital Interface).
При использовании стандарта MIDI не требуется столько места в памяти, как при дискретизации звукового сигнала, так как эта система кодирует указания, как следует порождать музыку, а не сам звуковой сигнал. Точнее, MIDI кодирует информацию о том, какой инструмент должен играть, какую ноту и какова продолжительность звучания этой ноты. Это означает, что для кларнета, играющего ноту ре в течение двух секунд, потребуются три байта, а не более двух миллионов битов, как в случае дискретизации сигнала с частотой 44 100 отсчетов.
Из вышесказанного видно, что стандарт MIDI более похож на нотную запись, которую читает исполнитель, чем на само исполнение. Недостатком метода является то, что музыкальная запись в стандарте MIDI может звучать по-разному в исполнении различных музыкальных синтезаторов.
1.1.7. Двоичная система счисления
1.1.7.1. Сложение в двоичной системе счисления
Вспомним правила сложения в начальной школе по отношению к десятичной системе счисления:
0 1 0 1
+ 0
+0 +1 +1
0 1 1 10
Сумма двух чисел находится сложением чисел в правом столбце и делается запись в младший разряд полученной суммы под столбцом, а в старший разряд, если он появляется, в следующий столбец слева и продолжаем сложение.
Например, надо сложить два числа в двоичной системе счисления:
+
00011001
00111010
Начинаем сложение 1 и 0 в правом столбце, получаем единицу, которую записываем под столбцом. Теперь мы складываем 0 и 1 в следующем столбце, получаем единицу, которую записываем под столбцом сложенных чисел. Далее складываем два нуля из следующего столбца и получаем 0. Записываем 0 под столбцом. На этом этапе процесс решения выглядит следующим образом:
+00011001
00111010
011
Теперь складываем две единицы в следующем столбце, получаем 10. Записываем 0 под этим столбцом, а 1 переносится влево и записывается над следующим столбцом.
1
+
00011001
00111010
0011
Следующие три единицы (две единицы чисел и одна единица переноса) в сумме дают 11. Записываем 1 в результат, и 1 в следующий столбец слева. Теперь решение выглядит так:
1
+
00011001
00111010
10011
Далее складываем 0, 1 и 1 переноса получаем 10 и записываем 0 под этим столбцом, а единица переноса записывается над следующим левым столбцом.