Информация | это... Что такое Информация? (original) (raw)

Информация (от лат. informatio, разъяснение, изложение, осведомленность) — сведения о чем-либо, независимо от формы их представления.

В настоящее время не существует единого определения информации как научного термина. С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков.

Содержание

История понятия

Слово «информация» происходит от лат. informatio, что в переводе обозначает сведение, разъяснение, ознакомление. Понятие информации рассматривалось ещё античными философами.
До начала промышленной революции, определение сути информации оставалось прерогативой преимущественно философов. В XX веке вопросами теории информации стали заниматься кибернетика и информатика.

Классификация информации

Информацию можно разделить на виды по различным критериям:

по способу восприятия:

по форме представления:

по назначению:

по значению:

по истинности:

Значение термина в различных областях знания

Философия

Традиционализм субъективного постоянно доминировал в ранних определениях информации, как категории, понятия, свойства материального мира. Информация существует вне нашего сознания, и может иметь отражение в нашем восприятии только как результат взаимодействия: отражения, чтения, получения в виде сигнала, стимула. Информация нематериальна, как и все свойства материи. Информация стоит в ряду: материя, пространство, время, системность, функция, и др. что есть основополагающие понятия формализованного отражения объективной реальности в её распространении и изменчивости, разнообразии и проявленности. Информация — свойство материи и отражает её свойства (состояние или способность взаимодействия) и количество (мера) путём взаимодействия.

С материальной точки зрения информация — это порядок следования объектов материального мира. Например, порядок следования букв на листе бумаги по определенным правилам является письменной информацией. Порядок следования разноцветных точек на листе бумаги по определенным правилам является графической информацией. Порядок следования музыкальных нот является музыкальной информацией. Порядок следования генов в ДНК является наследственной информацией. Порядок следования битов в ЭВМ является компьютерной информацией и т. д. и т. п. Для осуществления информационного обмена требуется наличие необходимых и достаточных условий.

Необходимые условия:

  1. Наличие не менее двух различных объектов материального или нематериального мира.
  2. Наличие у объектов общего свойства, позволяющего идентифицировать объекты в качестве носителя информации.
  3. Наличие у объектов специфического свойства, позволяющего различать объекты друг от друга.
  4. Наличие свойства пространства, позволяющее определить порядок следования объектов. Например, расположение письменной информации на бумаге — это специфическое свойство бумаги, позволяющее располагать буквы слева направо и сверху вниз.

Достаточное условие одно:
Наличие субъекта, способного распознавать информацию. Это человек и человеческое общество, общества животных, роботов и т. д.

Различные объекты (буквы, символы, картинки, звуки, слова, предложения, ноты и тп.) взятые по одному разу образуют базис информации. Информационное сообщение строится путем выбора из базиса копий объектов и расположение этих объектов в пространстве в определенном порядке. Длина информационного сообщения определяется как количество копий объектов базиса и всегда выражается целым числом. Необходимо различать длину информационного сообщения, которое всегда измеряется целым числом, и количество знаний, содержащегося в информационном сообщении, которое измеряется в неизвестной единице измерения.

С математической точки зрения информация — это последовательность целых чисел, которые записаны в вектор. Числа — это номер объекта в базисе информации. Вектор называется инвариантом информации, так как он не зависит от физической природы объектов базиса. Одно и то же информационное сообщение может быть выражено буквами, словами, предложениями, файлами, картинками, нотами, песнями, видеоклипами, любой комбинацией всех ранее названных. Чем бы мы не выражали информацию — изменяется только базис, а не инвариант.

В информатике

Предметом изучения науки информатика являются именно данные: методы их создания, хранения, обработки и передачи[1]. А сама информация, зафиксированная в данных, её содержательный смысл интересны пользователям информационных систем, являющимся специалистами различных наук и областей деятельности: медика интересует медицинская информация, геолога — геологическая, предпринимателя — коммерческая и т. п. (в том числе специалиста по информатике интересует информация по вопросам работы с данными).

Системология

Работа с информацией связана с преобразованиями и всегда подтверждает её материальную природу:

Системология рассматривает информацию через связь с другими основаниями: I=S/F[MṿRṿT], где: I — информация; S — системность мироздания; F — функциональная связь; M — материя; ṿ — (v подчёркнутое) знак великого объединения (системности, единства оснований); R — пространство; T — Время.

В физике

Объекты материального мира находятся в состоянии непрерывного изменения, которое характеризуется обменом энергией объекта с окружающей средой. Изменение состояния одного объекта, всегда приводит к изменению состояния, некоторого другого объекта окружающей среды. Это явление, вне зависимости от того, как, какие именно состояния и каких именно объектов изменились, может рассматриваться, как передача сигнала от одного объекта, другому. Изменение состояния объекта при передаче ему сигнала, называется регистрацией сигнала.

Сигнал или последовательность сигналов образуют сообщение, которое может быть воспринято получателем в том или ином виде, а также в том или ином объёме. Информация в физике есть термин, качественно обобщающий понятия «сигнал» и «сообщение». Если сигналы и сообщения можно исчислять количественно, то можно сказать, что сигналы и сообщения являются единицами измерения объёма информации.

Одно и то же сообщение (сигнал) разными системами интерпретируется по-своему. Например, последовательно длинный и два коротких звуковых (а тем более в символьном кодировании -..) сигнала в терминологии азбуки Морзе — это буква Д (или D), в терминологии БИОС от фирмы AWARD — неисправность видеокарты.

В математике

В математике теория информации (математическая теория связи) — раздел прикладной математики, определяющий понятие информации, её свойства и устанавливающий предельные соотношения для систем передачи данных. Основные разделы теории информации — кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование. Математика является больше чем научной дисциплиной. Она создает единый язык всей Науки.

Предметом исследований математики являются абстрактные объекты: число, функция, вектор, множество, и другие. При этом большинство из них вводится акcиоматически (аксиома), то есть без всякой связи с другими понятиями и без какого-либо определения.

Информация не входит в число предметов исследования математики. Тем не менее, слово «информация» употребляется в математических терминах — собственная информация и взаимная информация, относящихся к абстрактной (математической) части теории информации. Однако, в математической теории понятие «информация» связано с исключительно абстрактными объектами — случайными величинами, в то время как в современной теории информации это понятие рассматривается значительно шире — как свойство материальных объектов.

Связь между этими двумя одинаковыми терминами несомненна. Именно математический аппарат случайных чисел использовал автор теории информации Клод Шеннон. Сам он подразумевает под термином «информация» нечто фундаментальное (нередуцируемое). В теории Шеннона интуитивно полагается, что информация имеет содержание. Информация уменьшает общую неопределённость и информационную энтропию. Количество информации доступно измерению. Однако он предостерегает исследователей от механического переноса понятий из его теории в другие области науки.

«Поиск путей применения теории информации в других областях науки не сводится к тривиальному переносу терминов из одной области науки в другую. Этот поиск осуществляется в длительном процессе выдвижения новых гипотез и их экспериментальной проверке.»

К. Шеннон.

В юриспруденции

Правовое определение понятия «информация» дано в федеральном законе от 27 июля 2006 года № 149-ФЗ «Об информации, информационных технологиях и о защите информации» (Статья 2): «информация — сведения (сообщения, данные) независимо от формы их представления».

Федеральный закон № 149-ФЗ определяет и закрепляет права на защиту информации и информационную безопасность граждан и организаций в ЭВМ и в информационных системах, а также вопросы информационной безопасности граждан, организаций, общества и государства.

В теории управления

В теории управления (кибернетике), предметом исследования которой являются основные законы управления, то есть развития систем управления, информацией называются сообщения, получаемые системой из внешнего мира при адаптивном управлении (приспособлении, самосохранении системы управления).

В кибернетике

Основоположник кибернетики Норберт Винер говорил об информации так:

Информация — это не материя и не энергия, информация — это информация". Но основное определение информации, которое он дал в нескольких своих книгах, следующее: информация — это обозначение содержания, полученное нами из внешнего мира в процессе приспосабливания к нему нас и наших чувств.

Н. Винер Кибернетика, или управление и связь в животном и машине; или Кибернетика и общество

Эта мысль Винера дает прямое указание на объективность информации, то есть её существование в природе независимо от сознания (восприятия) человека.

Объективную информацию современная кибернетика определяет как объективное свойство материальных объектов и явлений порождать многообразие состояний, которые посредством фундаментальных взаимодействий материи передаются от одного объекта (процесса) другому, и запечатлеваются в его структуре[2].

Материальная система в кибернетике рассматривается как множество объектов, которые сами по себе могут находиться в различных состояниях, но состояние каждого из них определяется состояниями других объектов системы. В природе множество состояний системы представляет собой информацию, сами состояния представляют собой первичный код, или код источника. Таким образом, каждая материальная система является источником информации.

Субъективную (семантическую) информацию кибернетика определяет как смысл или содержание сообщения. (см. там же) Информация — это характеристика объекта.

Информация в материальном мире

Информация — одно из общих понятий, связанных с материей. Информация существует в любом материальном объекте в виде многообразия его состояний и передается от объекта к объекту в процессе их взаимодействия. Существование информации как объективного свойства материи логически вытекает из известных фундаментальных свойств материи — структурности, непрерывного изменения (движения) и взаимодействия материальных объектов.

Структурность материи проявляется как внутренняя расчленённость целостности, закономерный порядок связи элементов в составе целого. Иными словами, любой материальный объект, от субатомной частицы до Метавселенной (Большой взрыв) в целом, представляет собой систему взаимосвязанных подсистем. Вследствие непрерывного движения, понимаемого в широком смысле как перемещение в пространстве и развитие во времени, материальные объекты изменяют свои состояния. Состояния объектов изменяется и при взаимодействиях с другими объектами.

Множество состояний материальной системы и всех её подсистем представляет информацию о системе.

Строго говоря, в силу инфинитности (неопределенности, бесконечности) свойства структурности, количество объективной информации в любом материальном объекте бесконечно. Эта информация называется полной. Однако можно выделять структурные уровни с конечными множествами состояний. Информация, существующая на структурном уровне с конечным числом состояний, называется частной. Для частной информации имеет смысл понятие количество информации.

Из приведенного представления логично и просто вытекает выбор единицы измерения количества информации. Представим себе систему, которая может находиться всего в двух равновероятных состояниях. Присвоим одному из них код «1», а другому — «0». Это минимальное количество информации, которое может содержать система. Оно и является единицей измерения информации и называется бит (от английского bit — binary digit -двоичная цифра). Существуют и другие, более сложно определяемые, способы и единицы измерения количества информации.

В зависимости от материальной формы носителя, информация бывает двух основных видов — аналоговая и дискретная. Аналоговая информация изменяется во времени непрерывно, и принимает значения из континуума значений. Дискретная информация изменяется в некоторые моменты времени и принимает значения из некоторого множества значений.

Любой материальный объект или процесс является первичным источником информации. Все возможные его состояния составляют код источника информации. Мгновенное значение состояний представляется как символ («буква») этого кода.

Для того чтобы информация могла передаваться от одного объекта другому как к приемнику, необходимо, чтобы был какой-то промежуточный материальный носитель, взаимодействующий с источником. Такими переносчиками в природе, как правило, являются быстро распространяющиеся процессы волновой структуры - космические, гамма и рентгеновские излучения, электромагнитные и звуковые волны, потенциалы (а может быть и ещё не открытые волны) гравитационного поля. При взаимодействии электромагнитного излучения с объектом в результате поглощения или отражения изменяется его спектр, то есть изменяются интенсивности некоторых длин волн. Изменяются при взаимодействиях с объектами и гармоники звуковых колебаний. Информация передаётся и при механическом взаимодействии, однако механическое взаимодействие, как правило, приводит к большим изменениям структуры объектов (вплоть до их разрушения), и информация сильно искажается. Искажение информации при её передаче называется[дезинформация].

Перенос информации источника на структуру носителя называется кодированием. При этом происходит преобразование кода источника в код носителя. Носитель с перенесенным на него кодом источника в виде кода носителя называется сигналом.

Tomato.png

Пример. Имеется объект шарообразной формы (источник), взаимодействуя с которым, видимый диапазон спектра электромагнитного излучения, отражённого от объекта, (носитель) изменяется в результате его поглощения или отражения объектом так, что наибольшую интенсивность получает его участок с частотами 484—405 терагерц (сигнал).

(Продолжение примера — в секции «Информация в живой природе»).

Приемник сигнала имеет свой набор возможных состояний, который называется кодом приемника. Сигнал, взаимодействуя с объектом-приемником, изменяет его состояния. Процесс преобразования кода сигнала в код приёмника называется декодированием.

Передачу информации от источника приемнику можно рассматривать как информационное взаимодействие. Информационное взаимодействие кардинально отличается от других взаимодействий. При всех других взаимодействиях материальных объектов происходит обмен веществом и (или) энергией. При этом один из объектов теряет вещество или энергию, а другой получает их. Это свойство взаимодействий называется симметричностью. При информационном взаимодействии приемник получает информацию, а источник не теряет её. Информационное взаимодействие несимметрично.

Объективная информация сама по себе не материальна, она является свойством материи, как, например, структурность, движение, и существует на материальных носителях в виде своих кодов.

Информация в живой природе

Живая природа сложна и разнообразна. Источниками и приемниками информации в ней являются живые организмы и их клетки. Организм обладает рядом свойств, отличающих его от неживых материальных объектов. Основные из них:

Организм, рассматриваемый как система, имеет иерархическую структуру. Эта структура относительно самого организма подразделяется на внутренние уровни: молекулярный, клеточный, уровень органов и, наконец, собственно организм. Однако организм взаимодействует и с надорганизменными живыми системами, уровнями которых являются популяция, экосистема и вся живая природа в целом (биосфера).

Между всеми этими уровнями циркулируют потоки не только вещества и энергии, но и информации.

Информационные взаимодействия в живой природе происходят так же, как и в неживой. Вместе с тем, живая природа в процессе эволюции создала широкое разнообразие источников, носителей и приёмников информации.

Реакция на воздействия внешнего мира проявляется у всех организмов, поскольку она обусловлена раздражимостью. У высших организмов адаптация к внешней среде носит характер сложной деятельности, которая эффективна лишь при достаточно полной и своевременной информации об окружающей среде. Приёмниками информации из внешней среды у них являются органы чувств, к которым относят зрение, слух, обоняние, вкус, осязание и вестибулярный аппарат, рецепторы чувства боли, рецепторы температуры, рецепторы тактильных ощущений. Во внутренней структуре организмов имеются многочисленные внутренние рецепторы, связанные с нервной системой. Нервная система состоит из нейронов, отростки которых аксоны и дендриты представляют собой аналог каналов передачи информации. Главными органами, обеспечивающими хранение и обработку информации у позвоночных, являются спинной мозг и головной мозг. В соответствии с особенностями строения органов чувств информацию, воспринимаемую организмом, можно классифицировать как визуальную, слуховую, вкусовую, обонятельную и тактильную, температурную, информацию вестибулярного аппарата.

Пример (продолжение). Попадая на сетчатку человеческого глаза, сигнал особым образом возбуждает составляющие её клетки. Нервный импульсы клеток через акcоны передаются в мозг. Мозг запоминает это ощущение в виде определенной комбинации состояний составляющих его нейронов. (Продолжение примера — в секции "Информация в человеческом обществе").

Накапливая информацию, мозг создает на своей структуре связную информационную модель окружающего мира.

В живой природе для организма — приёмника информации важной характеристикой является её доступность. Количество информации, которое нервная система человека способна подать в мозг при чтении текстов, составляет примерно 1 бит за 1/16 с.

Исследование организмов затруднено их сложностью. Допустимая для неживых объектов абстракция структуры как математического множества вряд ли допустима для живого организма, потому что для создания более или менее адекватной абстрактной модели организма необходимо учесть все иерархические уровни его структуры. Поэтому сложно ввести меру количества информации. Очень сложно определяются связи между компонентами структуры. Если известно, какой орган является источником информации, то что является сигналом и что приемником?

До появления вычислительных машин биология занимающаяся исследованиями живых организмов, применяла только качественные, т.е. описательные модели. В качественной модели учесть информационные связи между компонентами структуры практически невозможно. Электронно-вычислительная техника позволила применить в биологических исследованиях новые методы, в частности, метод машинного моделирования, предполагающий математическое описание известных явлений и процессов, происходящих в организме, добавление к ним гипотез о некоторых неизвестных процессах и расчет возможных вариантов поведения организма. Полученные варианты сравниваются с реальным поведением организма, что позволяет определить истинность или ложность выдвинутых гипотез. В таких моделях можно учесть и информационное взаимодействие.

Чрезвычайно сложными являются информационные процессы, обеспечивающие существование самой жизни. И хотя интуитивно понятно, что это свойство прямо связано с формированием, хранением и передачей полной информации о структуре организма, абстрактное описание этого феномена представлялось до некоторых пор невозможным. Тем не менее, информационные процессы, обеспечивающие существование этого свойства, частично раскрыты благодаря расшифровке генетического кода и прочтению геномов различных организмов.

Информация в человеческом обществе

Развитие материи в процессе движения направлено в сторону усложнения структуры материальных объектов. Одна из самых сложных структур – человеческий мозг. Пока это единственная известная нам структура, обладающая свойством, которое сам человек называет сознанием. Говоря об информации мы, как мыслящие существа, априорно подразумеваем, что информация, кроме её наличия в виде принимаемых нами сигналов, имеет ещё и какой-то смысл. Формируя в своем сознании модель окружающего мира как взаимосвязанную совокупность моделей его объектов и процессов, человек использует именно смысловые понятия, а не информацию. Смысл — сущность любого феномена, которая не совпадает с ним самим и связывает его с более широким контекстом реальности. Смысл — понятие, описывающее глобальное содержание некоторого высказывания (см. БСЭ. Смысл). Само слово прямо указывает, что смысловое содержание информации могут формировать только мыслящие приемники информации. В человеческом обществе решающее значение приобретает не сама информация, а её смысловое содержание.

Пример (продолжение). Испытав такое ощущение, человек присваивает объекту понятие — «помидор», а его состоянию понятие — «красный цвет». Кроме того, его сознание фиксирует связь: «помидор» — «красного цвета». Это и есть смысл принятого сигнала. (Продолжение примера: ниже в этой секции).

Способность мозга создавать смысловые понятия и связи между ними является основой сознания. Сознание можно рассматривать как саморазвивающуюся смысловую модель окружающего мира.

Смысл это не информация. Информация существует только на материальном носителе. Сознание человека считается нематериальным. Смысл существует в сознании человека в виде слов, образов и ощущений. Человек может произносить слова не только вслух, но и «про себя». Он также «про себя» может создавать (или вспоминать) образы и ощущения. Однако, он может восстановить информацию, соответствующую этому смыслу, произнеся слова или написав их.

Пример (продолжение). Если слова «помидор» и «красный цвет» — смысл понятий, то где же тогда информация? Информация содержится в мозге в виде определенных состояний его нейронов. Она содержится также в напечатанном тексте, состоящем из этих слов, и при кодировании букв трехразрядным двоичным кодом её количество равно 120 бит. Если произнести слова вслух, информации будет значительно больше, но смысл останется тем же. Наибольшее количество информации несёт зрительный образ. Это отражается даже в народном фольклоре — «лучше один раз увидеть, чем сто раз услышать».

Восстановленная таким образом информация называется семантической информацией, поскольку она кодирует смысл некоторой первичной информации (семантика).

ПОМИДОР — КРАСНЫЙ
Семантическая информация

Услышав (или увидев) фразу, произнесенную (или написанную) на языке, которого человек не знает, он получает информацию, но не может определить её смысл. Поэтому для передачи смыслового содержания информации необходимы некоторые соглашения между источником и приемником о смысловом содержании сигналов, то есть слов. Такие соглашения могут быть достигнуты в процессе общения. Общение является одним из важнейших условий существования человеческого общества. Общение включает в себя следующие информационные процессы:

Хранение информации

Хранение информации осуществляется с помощью её переноса на некоторые материальные носители. Семантическая информация, зафиксированная на материальном носителе для хранения, называется документом.

Хранить информацию человечество научилось очень давно. В наиболее древних формах хранения информации использовалось расположение предметов — раковин и камней на песке, узелков на верёвке. Существенным развитием этих способов явилась письменность — графическое изображение символов на камне, глине, папирусе, бумаге. Огромное значение в развитии этого направления имело изобретение книгопечатания. За свою историю человечество накопило огромный объём информации в библиотеках, архивах, периодических изданиях и других письменных документах.

В настоящее время особое значение получило хранение информации в виде последовательностей двоичных символов. Для реализации этих методов используются разнообразные запоминающие устройства. Они являются центральным звеном систем хранения информации. Кроме них в таких системах используются средства поиска информации (поисковая система), средства получения справок (информационно-справочные системы) и средства отображения информации (устройство вывода). Сформированные по назначению информации такие информационные системы образуют базы данных, банки данных и база знаний.

Передача информации

Передачей семантической информации называется процесс её пространственного переноса от источника к получателю (адресату). Передавать и получать информацию человек научился даже раньше, чем хранить её. Речь является способом передачи, который использовали наши далекие предки в непосредственном контакте (разговоре) — ею мы пользуемся и сейчас. Для передачи информации на большие расстояния необходимо использовать значительно более сложные информационные процессы.

Для осуществления такого процесса информация должна быть некоторым образом оформлена (представлена). Для представления информации используются различные знаковые системы — наборы заранее оговоренных смысловых символов: предметов, картинок, написанных или напечатанных слов естественного языка. Представленная с их помощью семантическая информация о каком-либо объекте, явлении или процессе называется сообщением.

Очевидно, что для передачи сообщения на расстояние информация должна быть перенесена на какой-либо мобильный носитель. Носители могут перемещаться в пространстве с помощью транспортных средств, как это происходит с письмами, посылаемыми по почте. Такой способ обеспечивает полную достоверность передачи информации, поскольку адресат получает оригинал сообщения, однако требует значительного времени для передачи. С середины XIX века получили распространение способы передачи информации, использующие естественно распространяющийся носитель информации — электромагнитные колебания (электрические колебания, радиоволны, свет). Реализация этих способов требует:

  1. предварительного переноса информации, содержащейся в сообщении, на носитель — кодирования;
  2. обеспечения передачи полученного таким образом сигнала адресату по специальному каналу связи;
  3. обратного преобразования кода сигнала в код сообщения — декодирования.

Использование электромагнитных носителей делает доставку сообщения адресату почти мгновенной, однако требует дополнительных мер по обеспечению качества (достоверности и точности) передаваемой информации, поскольку реальные каналы связи подвержены воздействию естественных и искусственных помех.

Устройства, реализующие процесс передачи данных, образуют системы связи. В зависимости от способа представления информации системы связи можно подразделять на знаковые (телеграф, телефакс), звуковые (телефон), видео и комбинированные системы (телевидение). Наиболее развитой системой связи в наше время является Интернет.

Обработка информации

Поскольку информация нематериальна, её обработка заключается в различных преобразованиях. К процессам обработки можно отнести любые переносы информации с носителя на другой носитель. Информация, предназначенная для обработки, называется данными.

Основным видом обработки первичной информации, полученной различными приборами, является преобразование в форму, обеспечивающую её восприятие органами чувств человека. Так, фотоснимки космоса, полученные в рентгеновских лучах, преобразуются в обычные цветные фотографии с использованием специальных преобразователей спектра и фотоматериалов. Приборы ночного видения преобразуют изображение, получаемое в инфракрасных (тепловых) лучах, в изображение в видимом диапазоне. Для некоторых задач связи и управления необходимо преобразование аналоговой информации в дискретную и наоборот. Для этого используются аналого-цифровые и цифро-аналоговые преобразователи сигналов.

Важнейшим видом обработки семантической информации является определение смысла (содержания), заключающегося в некотором сообщении. В отличие от первичной семантическая информация не имеет статистических характеристик, то есть количественной меры — смысл либо есть, либо его нет. А сколько его, если он есть — установить невозможно. Содержащийся в сообщении смысл описывается на искусственном языке, отражающем смысловые связи между словами исходного текста. Словарь такого языка, называемый тезаурусом, находится в приемнике сообщения. Смысл слов и словосочетаний сообщения определяется путем их отнесения к определенным группам слов или словосочетаний, смысл которых уже установлен. Тезаурус, таким образом, позволяет установить смысл сообщения и, одновременно, пополняется новыми смысловыми понятиями. Описанный вид обработки информации применяется в информационно-поисковых системах и системах машинного перевода.

Одним из широко распространенных видов обработки информации является решение вычислительных задач и задач автоматического управления с помощью вычислительных машин.

Обработка информации всегда производится с некоторой целью. Для её достижения должен быть известен порядок действий над информацией, приводящий к заданной цели. Такой порядок действий называется алгоритмом. Кроме самого алгоритма необходимо также некоторое устройство, реализующее этот алгоритм. В научных теориях такое устройство называется автоматом.

Следует отметить как важнейшую особенность информации тот факт, что в силу несимметричности информационного взаимодействия при обработке информации возникает новая информация, а исходная информация не теряется.

Информация в науке

В современном мире информация представляет собой один из важнейших ресурсов и, в то же время, одну из движущих сил развития человеческого общества. Информационные процессы, происходящие в материальном мире, живой природе и человеческом обществе изучаются (или, по крайней мере, учитываются) всеми научными дисциплинами от философии до маркетинга.

Возрастающая сложность задач научных исследований привела к необходимости привлечения к их решению больших коллективов ученых разных специальностей. Поэтому практически все рассматриваемые ниже теории являются междисциплинарными.

Исторически сложилось так, что исследованием непосредственно информации занимаются две комплексных отрасли науки — кибернетика и информатика.

Современная кибернетика — это мультидисциплинарная отрасль науки, исследующая сверхсложные системы, такие как:

Информатика, сформировавшаяся как наука в середине прошлого века, отделилась от кибернетики и занимается исследованиями в области способов получения, хранения, передачи и обработки семантической информации.

Обе эти отрасли используют несколько основополагающих научных теорий. К ним относятся теория информации и её разделы — теория кодирования, теория алгоритмов и теория автоматов.

Исследования смыслового содержания информации основываются на комплексе научных теорий под общим названием семиотика.

Теория информации

Теория информации — комплексная, в основном математическая теория, включающая в себя описание и оценки методов извлечения, передачи, хранения и классификации информации.

Рассматривает носители информации как элементы абстрактного (математического) множества, а взаимодействия между носителями как способ расположения элементов в этом множестве. Такой подход дает возможность формально описать код информации, то есть определить абстрактный код и исследовать его математическими методами. Для этих исследований применяет методы теории вероятностей, математической статистики, линейной алгебры, теории игр и других математических теорий.

Основы этой теории заложил американский учёный Э. Хартли в 1928 г., который определил меру количества информации для некоторых задач связи. Позднее теория была существенно развита американским учёным К. Шенноном, российскими учёными А. Н. Колмогоровым, В.М Глушковым и др.

Современная теория информации включает в себя как разделы теорию кодирования, теорию алгоритмов, теорию цифровых автоматов (см. ниже) и некоторые другие.

Существуют и альтернативные теории информации, например «Качественная теория информации», предложенная польским учёным М. Мазуром.

Теория алгоритмов

C понятием алгоритма знаком любой человек, даже не подозревая об этом. Вот пример неформального алгоритма:

«Помидоры нарезать кружочками или дольками. Положить в них нашинкованный лук, полить растительным маслом, затем посыпать мелко нарезанным стручковым перцем, перемешать. Перед употреблением посыпать солью, уложить в салатник и украсить зеленью петрушки.» (Салат из помидоров).

Первые в истории человечества правила решения арифметических задач были разработаны одним из известных учёных древности Аль-Хорезми в IX веке нашей эры. В его честь формализованные правила для достижения какой-либо цели называют алгоритмами (ранее употреблялся термин «алгорифм»).

Предметом теории алгоритмов является нахождение методов построения и оценки эффективных (в том числе и универсальных) вычислительных и управляющих алгоритмов для обработки информации. Для обоснования таких методов теория алгоритмов использует математический аппарат теории информации.

Современное научное понятие алгоритмов как способов обработки информации введено в работах Э. Поста и А. Тьюринга в 20-х годах ХХ века (Машина Тьюринга). Большой вклад в развитие теории алгоритмов внесли русские ученые А. Марков (Нормальный алгоритм Маркова) и А. Колмогоров.

Теория автоматов

Теория автоматов — раздел теоретической кибернетики, в котором исследуются математические модели реально существующих или принципиально возможных устройств перерабатывающих дискретную информацию в дискретные моменты времени.

Понятие автомата возникло в теории алгоритмов. Если существуют некоторые универсальные алгоритмы решения вычислительных задач, то должны существовать и устройства (пусть и абстрактные) для реализации таких алгоритмов. Собственно, абстрактная машина Тюринга, рассматриваемая в теории алгоритмов, является в то же время и неформально определённым автоматом. Теоретическое обоснование построения таких устройств является предметом теории автоматов.

Теория автоматов использует аппарат математических теорий — алгебры, математической логики, комбинаторного анализа, теории графов, теории вероятностей и др.

Теория автоматов вместе с теорией алгоритмов являются основной теоретической базой для создания электронных вычислительных машин и автоматизированных управляющих систем.

Семиотика

Семиотика — комплекс научных теорий, изучающих свойства знаковых систем. Наиболее существенные результаты достигнуты в разделе семиотики — семантике. Предметом исследований семантики является смысловое содержание информации.

Знаковой системой считается система конкретных или абстрактных объектов (знаков, слов), с каждым из которых определенным образом сопоставлено некоторое значение. В теории доказано, что таких сопоставлений может быть два. Первый вид соответствия определяет непосредственно материальный объект, который обозначает это слово и называется денотат (или, в некоторых работах, — номинат). Второй вид соответствия определяет смысл знака (слова) и называется концепт. При этом исследуются такие свойства сопоставлений как «смысл», «истинность», «определимость», «следование», «интерпретация» и др. Для исследований используется аппарат математической логики и математической лингвистики.

Идеи семантики, намеченные ещё Г. В. Лейбницем и Ф де Соссюром в XIX веке, сформулировали и развили Ч. Пирс (1839—1914), Ч. Моррис (р. 1901), Р. Карнап (1891—1970) и др.

Основным достижением теории является создание аппарата семантического анализа, позволяющего представить смысл текста на естественном языке в виде записи на некотором формализованном семантическом (смысловом) языке.

Семантический анализ является основой для создания устройств (программ) машинного перевода с одного естественного языка на другой.

Дезинформация

Дезинформацией (также дезинформированием) называется один из способов манипулирования информацией, как то введение кого-либо в заблуждение путём предоставления неполной информации или полной, но уже не нужной информации, или полной, но не в нужной области, искажения контекста, искажения части информации.

Цель такого воздействия всегда одна — оппонент должен поступить так, как это необходимо манипулятору. Поступок объекта, против которого направлена дезинформация, может заключаться в принятии нужного манипулятору решения или в отказе от принятия невыгодного для манипулятора решения. Но в любом случае конечная цель — это действие, которое будет предпринято.

См. также

wikt: Информация в Викисловаре?
b: Информация в Викиучебнике?
commons: Информация на Викискладе?

Категория информация по отраслям знаний

в информатике

в общественных науках

в других областях

Литература

Ссылки

Примечания

  1. Захаров В. П. Информационные системы (документальный поиск): Учебное пособие / В. П. Захаров. — СПб.: СПб.гос университет, 2002. — 188 с.
  2. В. М. Глушков, Н. М. Амосов и др. «Энциклопедия кибернетики». Киев. 1975 г.