Информация и информатика

Количество информации - это мера уменьшения неопределенности некоторой ситуации. Различные количества информации передаются по каналам связи, и количество проходящей через канал информации не может быть больше его пропускной способности. А ее определяют по тому, какое количество информации проходит здесь за единицу времени.

Одни сведения могут содержать в себе мало информации, а другие - мн

ого. Разработаны различные способы оценки количества информации. В технике чаще всего используется способ оценки, предложенный в 1948 году основоположником теории информации Клодом Шенноном. Как было отмечено, информация уничтожает неопределенность. Степень неопределенности принято характеризовать с помощью понятия “вероятность”.

Вероятность - величина, которая может принимать значения в диапазоне от 0 до 1. Она может рассматриваться как мера возможности наступления какого-либо события, которое может иметь место в одних случаях и не иметь места в других.

Если событие никогда не может произойти, его вероятность считается равной 0. Так, вероятность события “Завтра будет 5 августа 1819 года” равна нулю в любой день, кроме 4 августа 1819 года. Если событие происходит всегда, его вероятность равна 1.

Чем больше вероятность события, тем выше уверенность в том, что оно произойдет, и тем меньше информации содержит сообщение об этом событии. Когда же вероятность события мала, сообщение о том, что оно случилось, очень информативно.

Количество информации I, характеризующей состояние, в котором пребывает объект, можно определить, используя формулу Шеннона [7,131]:

I = -(p[1]*log(p[1])+p[2]*log(p[2])+ .+p[n]*log(p[n])),

здесь

n - число возможных состояний;

p[1], .p[n] - вероятности отдельных состояний;

log() - функция логарифма при основании 2.

Знак минус перед суммой позволяет получить положительное значение для I, поскольку значение log(p[i]) всегда не положительно.

Компьютер может обрабатывать только информацию, представленную в числовой форме. Обработка информации в ЭВМ основана на обмене электрическими сигналами между различными устройствами машины. Эти сигналы возникают в определенной последовательности. Признак наличия сигнала можно обозначить цифрой 1, признак отсутствия - цифрой 0. Таким образом, в ЭВМ реализуются два устойчивых состояния. С помощью определенных наборов цифр 0 и 1 можно закодировать любую информацию. Каждый такой набор нулей и единиц называется двоичным кодом. Количество информации, кодируемое двоичной цифрой - 0 или 1 - называется битом. Термин “бит”, которое переводится как “двоичная цифра”. 1 бит информации - количество информации, посредством которого выделяется одно из двух равновероятных состояний объекта (значение 0 или 1).

Более крупные единицы информации составляют килобайт (Кбат), равный 1024 байта, мегабайт (Мбайт) равен 1024 килобайтам и гигабайт (Гбайт) равен 1024 мегабайтам.

Понятие экономической информационной системы (ЭИС)

ЭИС представляет собой систему, функционирование которой во времени заключается в сборе, хранении, обработке и распространении информации о деятельности какого–то экономического объекта реального мира. Информационная система создается для конкретного экономического объекта и должна в определенной мере копировать взаимосвязи элементов объекта.

ЭИС предназначены для решения задач обработки данных, автоматизации конторских работ, выполнения поиска информации и отдельных задач, основанных на методах искусственного интеллекта.

Задачи обработки данных обеспечивают обычно рутинную обработку и хранение экономической информации с целью выдачи (регулярной или по запросам) сводной информации, которая может потребоваться для управления экономическим объектом.

Автоматизация конторских работ предполагает наличие в ЭИС системы ведения картотек, системы обработки текстовой информации, системы машинной графики, системы электронной почты и связи.

Поисковые задачи имеют свою специфику, и информационный поиск представляет собой интегральную задачу, которая рассматривается независимо от экономики или иных сфер использования найденной информации.

Алгоритмы искусственного интеллекта необходимы для задач принятия управленческих решений, основанных на моделировании действий специалистов предприятия при принятии решений.

Экономическая информация – это информация о процессах производства, обмена, распределения, накопления и потребления материальных благ и различных услуг. Она представляет те сведения, знания, сообщения, которые извлекаются из экономических данных, и которые помогают решить ту или иную задачу управления (т.е. уменьшить неопределенность ее исходов).

По назначению в процессе управления общественным производством экономическая информация подразделяется на управляющую и осведомляющую (например, учетно-статистическую).

Управляющая информация состоит из доводимых до сведения исполнителей решений – либо в форме прямых приказов, плановых заданий (т.е. «директивно-адресных показателей»), либо в форме экономических и моральных стимулов, мотивирующих поведение исполнителей (объектов управления).

Осведомляющая информация (прежде всего, воплощенная в отчетных показателях) выполняет в экономической системе функцию обратной связи: это сведения о результатах выполнения решений, о состоянии управляемого объекта и т.д., с учетом которых принимаются новые решения, т.е. осуществляется дальнейший процесс управления.

Менеджер, эффективно принимающий решение, собирает необходимую информацию лишь до тех пор, пока ожидаемые предельные выгоды не повысят предполагаемых предельных затрат на ее получение. Требуемая информация, как правило, не сконцентрирована в одном определенном месте вследствие закономерности концентрации и рассеяния информации, согласно которой около одной ее трети по интересующему вопросу концентрируется в небольшом количестве источников. Поэтому при поиске и сборе информации проявляется закономерность повышения стоимости информации по мере увеличения ее объема (полноты).

Информация добывается, как известно, не бесплатно, более того, пытаясь собрать больше данных, можно упустить драгоценное время. Пока предприятие будет заниматься длительным сбором информации, конкуренты могут принять в условиях некоторой неопределенности эффективное интуитивное решение деловой проблемы и тем самым занять преимущественное положение на рынке.

Получатель информации оценивает ее в зависимости от того, где и для чего она будет использована. Поэтому информация имеет свойство относительности и имеет разную ценность для разных получателей.

Тема 2. Компьютерные технологии обработки информации

Машины фон-Неймановского типа

В 1945 г. к работе был привлечен знаменитый математик Джон фон Нейман, который подготовил доклад об этой машине, Доклад был разослан многим ученым и получил широкую известность, поскольку в нем фон Нейман ясно и просто сформулировал общие принципы функционирования универсальных вычислительных устройств, т.е. компьютеров. Первый компьютер, в котором были воплощены принципы фон Неймана, был построен в 1949 г. английским исследователем Морисом Уилксом. С той поры компьютеры стали гораздо более мощными, но подавляющее большинство из них сделано в соответствии с теми принципами, которые изложил в своем докладе в 1945 г. Джон фон Нейман. Расскажем поэтому об этих принципах. Как работает компьютер, или принципы фон Неймана.

Страница:  1  2  3  4  5  6  7  8  9  10  11  12  13  14  15 
 16  17  18  19  20  21  22  23  24  25  26  27  28  29 


Другие рефераты на тему «Программирование, компьютеры и кибернетика»:

Поиск рефератов

Последние рефераты раздела

Copyright © 2010-2024 - www.refsru.com - рефераты, курсовые и дипломные работы