Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

5257

.pdf
Скачиваний:
5
Добавлен:
13.11.2022
Размер:
1.12 Mб
Скачать

21

решения из множества допустимых на основании имеющейся информации. Взаимосвязь данных, информации и знаний в процессе принятия решений представлена на рисунок 1.2.

Для решения поставленной задачи фиксированные данные обрабатываются на основании имеющихся знаний, далее полученная информация анализируется с учётом накопленных знаний. На основании анализа, предлагаются все допустимые решения, а в результате лицо, принимающее решение, осуществляет выбор наилучшего в некотором смысле решения. Результаты принятого решения вновь пополняют знания.

 

знания

задача

 

докумен-

информация

ты

 

 

анализ

обработка

информации

дан-

 

ные

 

результаты

решения

варианты

решений

лицо, при- принятое

нимающее

решение

(ЛПР) решение

Рисунок 1.2 – Принципиальная схема принятия управленческих решений Экономическая информация является предметом управленческого труда,

средством обоснования и принятия управленческих решений, регулирующих воздействие управляющей подсистемы на управляемую подсистему. В этом смысле информация выступает основополагающей базой процесса управления.

Информационные системы, созданные на базе компьютерных, телекоммуникационных средств, требуют достоверной и своевременной количественной и качественной оценки информации. Основным критерием при использовании информации является выработка правильных решений для управления экономическим объектом. Это приводит к необходимости количественного и качественного её измерения, что является чрезвычайно сложным.

Рассмотрим представление информации и процедуры её обработки на внутримашинном уровне.

22

1.3. Представление информации в компьютерной среде

Различают две формы представления информации — непрерывную и дискретную. Чтобы сообщение было передано от источника к получателю, необходима некоторая материальная субстанция – носитель информации. Сообщение, передаваемое с помощью носителя, назовём сигналом. В общем случае сигнал – это изменяющийся во времени физический процесс. Такой процесс может содержать различные характеристики. Одна из характеристик, которая используется для представления сообщений, называется параметром сигнала.

В случае, когда параметр сигнала принимает последовательное во времени конечное число значений (при этом все они могут быть пронумерованы), сигнал называется дискретным, а сообщение, передаваемое с помощью таких сигналов, – дискретным сообщением. Информация, передаваемая источником, в этом случае также называется дискретной.

Если же источник вырабатывает непрерывное сообщение (соответственно параметр сигнала – непрерывная функция от времени), соответствующая информация называется непрерывной.

Примеры дискретного сообщения – ежедневный выпуск продукции предприятием в натуральном и денежном выражении, процентные ставки банка по вкладам и кредитам и т.п. Примерами непрерывного сообщения являются диаграммы загрузка процессора и оперативной памяти при работе ПК и др.

История развития вычислительных техники, ЭВМ и персональных компьютеров привела к возможности отражения информационных процессов в этих двух формах – непрерывной и дискретной. Первая форма реализована в так называемых аналоговых вычислительных машинах и ряде электронных приборов (осциллографах, кардиографах и т.п.). Данная форма представления информации сегодня остаётся востребованной для наблюдения непрерывных процессов, таких как кардиограмма, напряжение и сила тока в сети и др.

Дискретный способ отражения в компьютерной среде сегодня стал стандартом де-факто. Это обусловлено физическими принцами построения и функционирования всех современных ЭВМ, телекоммуникационного оборудования, персональных компьютеров и портативных мобильных устройств. С появлением ЭВМ это решение приобрело и практическое значение, связанное не только с обработкой данных, но с проблемой измерения её объёмов и хранения информации. Необходимо отметить, что ещё в первой половине XIX века английским учёным Дж. Булем была разработана алгебра математической логики, которая полностью соответствовала физическим принципам работы появившимся в

23

начале XX века электронным лампам (диоды, триоды). Таким образом, Булева алгебра могла быть вполне применима для новых технологий обработки информации.

Как отмечалось раннее, согласно общей теории информации К. Шеннона в качестве эталона меры для количественной оценки информации выбирается некоторый абстрактный объект, который может находиться в одном из двух состояний (например, включён/выключен, да/нет, 0/1 и т. п.), или, другими словами, бинарный объект.

Данный метод измерения и хранения информации во многом был предопределён возможностями её фиксации в различных технических устройствах (например, с помощью срабатывания реле, магнитно-электрических устройств), когда информация запоминалась с их помощью.

Все ПК и компьютерные устройства независимо от года выпуска (или поколения), назначения и сферы применения имеют некоторые общие принципы функционирования.

Любой компьютер оперирует с двумя типами информации:

данными;

командами, которые выполняют помимо арифметических и логических операций над данными целый ряд управляющих операций и функций управления устройствами.

И данные, и команды в компьютерах отображаются в кодированном виде. Это обусловлено тем, что основные компоненты всех компьютерных

устройств выполнены на двухпозиционных элементах, которые в каждый момент времени могут находиться в одном из двух устойчивых состояний. Им условно присваивают значения «0» и «1».

Так, например, процессор состоит из десятков и сотен миллионов микросхем, которые работают как переключатели: есть сигнал – нет сигнала. Современная оперативная память представляет собой сотни миллионов ячеек памяти (микроконденсаторов): есть заряд – нет заряда; накопители на магнитных носителях: намагниченный участок дорожки – размагниченный участок; есть прожиг или нет на дорожке компакт-дисков и тому подобные элементы в других компонентах компьютера. Такой минимальный элемент, который может принимать одно из двух устойчивых состояний, фактически отражает двоичную систему счисления. Он получил название "бит", от сокращённого с английского "binary digit" (двоичная цифра) – "bit". Сегодня в информационных технологиях бит характеризуется как минимальная составная единица информации, не несущая смысло-

24

вой нагрузки. Что означает в конкретном случае "1" или "0" без взаимосвязи с другими такими же элементами, понять невозможно.

Указанные выше особенности устройств компьютера привели к использованию на внутримашинном уровне двоичной системы счисления, а не привычной нам десятичной системы. Для того чтобы сохранить, обработать информацию, требуется некоторая совокупность таких элементов. С развитием технологий и уменьшением размеров электронных компонентов были предложены ячейки для хранения данных из трёх, четырёх и восьми бит. Совокупность из трёх компонентов (23) предоставила возможность закодировать 8 вариантов – так появилась восьмеричная система счисления; из четырёх компонентов (24) – 16 вариантов, шестнадцатеричная система счисления. Теоретический фундамент работы с двоичной системой счисления был разработан в XIX веке математиком Булем (Булева алгебра). И с появлением ЭВМ, а затем и ПК его работы получили практическое воплощение.

Таким образом, физическая природа электронных компонентов компьютера предоставляет возможность использовать только двоичную систему счисления и её производные. Для того чтобы отобразить (представить) данные или дать команду на выполнение операции, необходимо задать ЭВМ алгоритм, преобразующий эти функции на внутримашинный язык, понятный процессору.

Представление числовой информации в различных системах счисления приведена в таблице 1.1.

Преобразование числовой и символьной информации и их обработка микропроцессором не представляет сложностей, ввиду реализации простых алгоритмов, в отличие от работы с графической и особенно мультимедийной информацией, которые реализуются сложными алгоритмами, реализованными в специализированных программных продуктах.

Для того чтобы отобразить всё многообразие окружающего нас мира, в качестве минимальной единицы информации в ЭВМ был предложен байт – совокупность из 8 бит, что позволяет с помощью одного байта отобразить один из 256 символов (28). В современных программных средствах используют более крупные совокупности – 2, 4, 6, 8 и даже 10 байт, которые для ЭВМ получили название машинное слово (например, длина машинного слова – 4 байта).

Такой подход привёл к возникновению и разработке различных систем кодировок, принятых международным сообществом. Одной из первых и наиболее из-

вестной является ASCII (American Standard Code for Information Interchange) –

американский стандартный код обмена информацией (см. приложение А).

25

Таблица 1.1 – Таблица соотношений различных систем счисления

Число в

Число в восьмеричной си-

Число в шестнадцатеричной

десятичной

стеме счисления

системе счисления

системе

 

 

 

 

в виде двоич-

в символах

в виде двоич-

в символах

счисления

ного кода

данной системы

ного кода

данной системы

 

(триада)

 

(тетрада)

 

 

 

 

 

 

0

000

0

0000

0

 

 

 

 

 

1

001

1

0001

1

 

 

 

 

 

2

010

2

0010

2

 

 

 

 

 

3

011

3

0011

3

 

 

 

 

 

4

100

4

0100

4

 

 

 

 

 

5

101

5

0101

5

 

 

 

 

 

6

110

6

0110

6

 

 

 

 

 

7

111

7

0111

7

 

 

 

 

 

8

001 000

10

1000

8

 

 

 

 

 

9

001 001

11

1001

9

 

 

 

 

 

10

001 010

12

1010

А

 

 

 

 

 

11

001 011

13

1011

В

 

 

 

 

 

12

001 100

14

1100

С

 

 

 

 

 

13

001 101

15

1101

D

 

 

 

 

 

14

001 110

16

1110

E

 

 

 

 

 

15

001 111

17

1111

F

 

 

 

 

 

16

010 000

20

0001 0000

10

 

 

 

 

 

17

010 001

21

0001 0001

11

 

 

 

 

 

Так, используя ASCII, стало возможным создавать программное обеспечение, передавать информацию по компьютерным сетям и многое другое, воспринимаемое однозначно пользователями всех стран мира. В системе ASCII таблица кодировки делится на две части – базовая (закрепляет значения кодов от 0 до 127) и расширенная (от 128 кода до 255). В базовой части первые 32 кода отданы производителям аппаратной части ПК, в ней размещаются так называемые управляющие коды, которые ни соответствуют никаким символам и не отражаются ни при выводе на экран, ни при печати. Вторая большая часть базовой кодировки закрепляет символы латинского алфавита, цифры (0 – 9) и наиболее

26

распространённые символы (см. приложение А). Что касается расширенной части кодировки, то она отводится для кодировки символов национальных алфавитов (например, русского) и для кодирования различных графических символов типа "╗". Так, корпорация Microsoft, учитывая широкое распространение своих программных продуктов в России, предложила в 1990-х годах кодировку Windows 1251, которая нашла распространение для ПК, работающих в российском секторе Интернета (см. приложение Б). Как можно догадаться, названные выше кодировки для хранения одного символа используют 1 байт. Поэтому, например, для хранения фразы, состоящей из 35 символов, компьютер отведёт память размером в 35 байт, включая пробелы между словами.

Впоследствии консорциумом UNICOD был создан ещё ряд кодировок для работы, таких как универсальные кодировки UTF-8, UTF-16 и UTF-32. Они отличаются прежде всего тем, что количество бит, используемых для кодирования символов, может быть 16 (UTF-16), 32 (UTF-32) или переменной длины от 8 до 48 бит (UTF-8). Последний вариант позволяет закодировать любой символ, включая алфавиты стран Юго-Восточной Азии одновременно экономя используемую память.

Необходимо отметить, что кодирование числовой информации осуществляется по другому принципу. Этот подход был разработан задолго до появления операционной системы Windows и пакета программ Microsoft Office, в эпоху развития языков программирования, в 1970 – 1980 гг.

В этом случае, во-первых, различается кодирование целых чисел и действительных. Во-вторых, необходимо определить, с какой точностью представить действительные числа. Для кодирования целых чисел может быть использовано 8 бит (значения от 0 до 255 – 28), 16 бит (значения от 0 до 65 536 – 216) или 24 бита (16 777 216 – 224). Для кодирования действительных чисел выделяемая память делится на две части – для хранения мантиссы и характеристики (порядка). Характеристика (порядок) определяет разрядность числа, а мантисса его точность.

Проиллюстрируем это на следующем примере. Для кодирования действительных чисел может использоваться до 128 бит (разрядов). Для однозначного представления числа мантиссу нормализуют, то есть число приводят к виду, когда первой цифрой числа является «0», а после ноля любая значащая цифра.

Продемонстрируем нормализацию на примере: N = m*dp,

где m– мантисса числа; p – порядок (характеристика); d – основание системы счисления.

27

Так, для десятичной системы это будет выглядеть так:

3,1415926 = 0,31415926 * 101;

300000 = 0,3 * 107;

123456789 = 0,123456789 * 1010.

Большую часть бит отводится для хранения мантиссы и строго фиксированное количество разрядов используется для хранения характеристики (порядка). Числа могут быть представлены простой точности (4 байта), двойной точности (8 байт) и повышенной точности (16 байт). Знак числа (мантиссы) указывается первым битом, если число положительное, то бит принимает значение «0», если отрицательное – то «1». Как видно из рисунок2, для хранения характеристики отводится всего 7 бит, что предоставляет возможность отобразить число в 127 степени (27, исключая значение «0»). На самом деле этот ряд (127) разбивается на два интервала: положительный и отрицательный в соотношении от +64 до – 63. Рисунок 1.3 показывает форму представления числа с плавающей точкой на примере 32 разрядного (4 байта) кодирования чисел. При необходимости точность числа можно увеличить, используя для хранения числа не 32 бита, а 64 и более. В этом случае разрядность для мантиссы будет увеличена на соответствующее число бит.

Рисунок 1.3 – Схема кодирование действительных чисел

Как видно из представленной схемы (рисунок 1.3), данной конфигурацией можно отобразить числа разрядностью от +64 до –63 и точностью 8 знаков (224).

28

От байта как наименьшей меры количества информации происходят производные единицы:

1 килобайт (Кбайт) = 1024 байт = 210 байт,

1 мегабайт (Mбайт) = 1024 килобайт = 220 байт, 1 гигабайт (Гбайт) = 1024 мегабайт = 230 байт, 1 терабайт (Тбайт) = 1024 гигабайт = 240 байт

1 петабайт (Пбайт) = 1024 терабайт = 250 байт и т. д.

Как можно заметить, общепринятые в системе СИ приставки кило-, мега- и т. д. здесь употребляются в двоичном формате, а не в традиционного десятичном, означая умножение на 1024 = 210, а не на тысячу. Данное решение позволяет гармонично связать методы измерения информации с бинарной (двоичной) организацией системы её хранения.

Как отмечалось выше, использование «двоичной» арифметики в компьютерных технологиях обосновываются физическими процессами, протекающими в основных компонентах компьютерного оборудования. А это значит, функционирование этих компонентов может быть описано с помощью логических функций и законов математической логики. Что и было успешно осуществлено ещё на первых этапах развития ЭВМ.

Алгебра логики – это раздел математической логики, в которой изучаются логические операции над высказываниями. В двоичной логике значения всех элементов (функций и аргументов) определены в двухэлементном множестве: «0» и «1» – «ложь» и «истина». Используя различные сочетания этих элементов, данный принцип был использован для разработки всех логических схем компьютерных устройств. Функции, которые используют логические переменные, получили названия логические. Ложь и истина также являются результатом решения логических функций. Основными (базовыми) логическими операциями над операндами являются такие, как

логическое сложение (дизъюнкция, ИЛИ, +),

логическое умножение (конъюнкция, И, &),

отрицание (НЕ, ).

Также имеется ещё ряд дополнительных логических операций: импликация, эквивалентность и др. Значения каждой логической операции описываются таблицами истинности. Более подробно с логическими функциями можно познакомиться в методических указаниях Вишневского А.Н.8 С помощью логических элементов

8 Вишневский А. Н. Логические основы работы ЭВМ : методические указания к выполнению лабораторной работы для бакалаврантов 1-го курса всех направлений и форм обучения / А. Н. Вишневский.

Хабаровск : РИЦ ХГАЭП, 2012. 36 с.

29

были реализованы основные электронные компоненты процессоров (сумматоры, триггеры, инверторы и др.) а также работа других устройств компьютера.

Следует отметить, что в программирование широко используются логические функции, включающие в себя логические операции. Ряд функций являются встроенными в основных приложениях офиса, например, таких как MS Excel и MS Access.

2. Исторические предпосылки появления персонального компьютера 2.1. История развития вычислительной техники и первых ЭВМ

История ЭВМ и персональных компьютеров насчитывает всего несколько десятилетий. Предыдущий период использования вычислительной техники относится к эпохе применения средств, созданных на механическом и электромеханическом принципе действия. Тем не менее именно в эпоху первых механических вычислительных средств разработаны основополагающие принципы функционирования основных устройств компьютера.

В 1833 – 36 гг. кембриджский математик Чарльз Бэббидж (1792 – 1871) разработал и представил в чертежах универсальную автоматическую машину с программным управлением, названную «аналитической». Разработкой алгоритмов и первых программ для этой машины занялась Ада-Августа Лавлейс (1815 – 1852), дочь поэта Байрона и ученица английского математика Бэббиджа. Для аналитической машины она создала первую программу, которая вычисляла числа Бернулли. Впоследствии её именем был назван один из языков программирования. Машина была механической (на паровом двигателе), счёт вёлся с помощью шестерён. Более 70 лет сначала сам Бэббидж, а затем его сын строили машину до 1910 г., так и не доведя её до работающего агрегата. Тем не менее Ч. Бэббидж заложил первые идеи современного компьютера.

Так в машине Бэббиджа было предусмотрено программное управление с карточек из плотного картона (прообраза перфокарт), перфокарточный ввод-вывод информации, арифметическое устройство и память для хранения информации. Идею применения таких карт Ч. Бэббидж перенял с ткацких станков Ж. Жаккара (в других источниках – Жаккард), который разработал и применял их для создания различных узоров ткани на своих станках в начале 19 века. Ч. Бэббидж предложил принцип функционирования универсальной вычислительной машины для расчётов в самых разных областях, впервые заявил об операторах условных переходов по результатам вычислений, предложил использовать устройства

30

печати результатов по окончании расчётов. Все эти предложения были затем реализованы в первых ЭВМ и имеются в большинстве современных компьютеров. Английский математик намного опередил своё время, но только через 100 лет предложения Ч. Бэббиджа могли быть использованы в полной мере. Предлагаемые механические устройства и принципы их работы не могли обеспечить необходимого быстродействия и реализацию этого проекта. Как отмечается в Википедии: «В период 1989 по 1991 год, к двухсотлетию со дня рождения Чарльза Бэббиджа, на основе его оригинальных работ в лондонском Музее науки была собрана работающая копия разностной машины № 2. В 2000 году в том же музее заработал принтер, также придуманный Бэббиджем для своей машины. После устранения обнаруженных в старых чертежах небольших конструктивных неточностей обе конструкции заработали безупречно. Эти эксперименты подвели черту под долгими дебатами о принципиальной работоспособности конструкций Чарльза Бэббиджа (некоторые исследователи полагают, что Бэббидж умышленно вносил неточности в свои чертежи, пытаясь таким образом защитить свои творения от несанкционированного копирования)»9.

В1887 г. Герман Холлерит (США) изобрёл электромеханический табулятор с вводом чисел с помощью перфокарт. В 1890 г. впервые обработка данных по переписи населения в США производилась с применением этих машин. Табулятор

идругие вспомогательные машины образовывали вычислительные комплексы, которые нашли широкое применение для обработки экономической и управленческой информации. Данные комплексы стали широко применяться в бухгалтерском учёте. К 1930 г. общее число счётно-аналитических комплексов, установленных в США и других странах, достигло 6 – 8 тыс. штук, что, естественно, потребовало развития индустрии для изготовления подобных устройств. Следует отметить, что известный во всём мире компьютерный "голубой гигант" – корпорация IBM – образовалась на базе компании Холлерит в 1911 году.

В1934 – 1936 гг. немецкий инженер Конрад Цузе пришёл к идее создание универсальной вычислительной машины с программным управлением и хранением информации в запоминающем устройстве. Он сконструировал машину " Z-3" – первую программно управляемую вычислительную машину. В машинах Цузе было предложено использование двоичной системы счисления. Но главным недостатком явилось их низкое быстродействие, так как физически они были реализованы на электромагнитных реле, а не на электронных лампах.

9 http://www. ru.wikipedia.org›Разностная машина Чарльза Бэббиджа

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]