Хаам — Версийн башхалла

908 байт дӀайаьккхина ,  9 шо хьалха
Нисдарах лаьцна йаздина дац
[талланза верси][талланза верси]
Нет описания правки
Нет описания правки
'''Информаци''' (лат. ''informatio'', кхетор, изложение, осведомлённость) — кепаца доьзна доцу цхьана хӀуманах лаьцна хаар. Тахана информацин юкъара Ӏилманан къастам болу бац. Тайп-тайпана Ӏилманаш информацин шайн къастамаш бо. Масала, «информаци» кхетам коьрта бу информатикехь. Цуьнан къастам кхоьчу цул цхьалха кхетамашца цабало. Коьрта кхетаман чулацам муьлха Ӏилманехь къастабо масалашца а, кхоьчу кхетаман чулацамца дуьхьалхӀоттораца а. «Информаци» кхетамаца хьал гуттара чолхе ду и кхетам массо а Ӏилманан чохь леладар бахьнехь.
'''Информаци''' (лат. ''informatio'', кхетор, изложение, осведомлённость) — сведения о чём-либо, независимо от формы их представления.
 
<!--
В настоящее время не существует единого определения информации как [[Наука|научного]] [[термин]]а. С точки зрения различных областей знания данное понятие описывается своим специфическим набором признаков.
Например, понятие «информация» является базовым в курсе [[Информатика|информатики]], и невозможно дать его определение через другие, более «простые» понятия (так же, в геометрии, например, невозможно выразить содержание базовых понятий «точка», «прямая», «плоскость» через более простые понятия). Содержание основных, базовых понятий в любой науке должно быть пояснено на примерах или выявлено путём их сопоставления с содержанием других понятий.
В случае с понятием «информация» проблема его определения ещё более сложная, так как оно является общенаучным понятием. Данное понятие используется в различных науках (информатике, кибернетике, биологии, физике и др.), при этом в каждой науке понятие «информация» связано с различными системами понятий.
 
== История понятия ==
 
по '''способу восприятия''':
* Визуальная  — воспринимаемая органами [[Зрение|зрения]].
* Аудиальная  — воспринимаемая органами [[слух]]а.
* Тактильная  — воспринимаемая [[Осязание|тактильными]] рецепторами.
* Обонятельная  — воспринимаемая [[Обоняние|обонятельными]] рецепторами.
* Вкусовая  — воспринимаемая [[вкус]]овыми рецепторами.
 
по '''форме представления''':
* [[Текстовая информация|Текстовая]]  — передаваемая в виде символов, предназначенных обозначать лексемы языка.
* [[Число]]вая  — в виде цифр и знаков, обозначающих математические действия.
* [[Графическая информация|Графическая]]  — в виде изображений, предметов, графиков.
* [[Звук]]овая  — устная или в виде записи и передачи лексем языка аудиальным путём.
 
по '''назначению''':
* [[СМИ|Массовая]]  — содержит тривиальные сведения и оперирует набором понятий, понятным большей части [[социум]]а.
* Специальная  — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.
* Секретная  — передаваемая узкому кругу лиц и по закрытым (защищённым) каналам.
* [[Личная идентификация|Личная]] (приватная)  — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.
 
по '''значению''':
* Актуальная  — информация, ценная в данный момент времени.
* Достоверная  — информация, полученная без искажений.
* Понятная  — информация, выраженная на языке, понятном тому, кому она предназначена.
* Полная  — информация, достаточная для принятия правильного решения или понимания.
* Полезная  — полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.
 
по '''истинности''':
{{Достоверность раздела под сомнением}}
Традиционализм субъективного постоянно доминировал в ранних [[Философия|философских]] определениях информации, как категории, понятия, свойства [[Материя|материального]] мира. Информация существует независимо от нашего сознания, и может иметь отражение в нашем восприятии только как результат взаимодействия: отражения, чтения, получения в виде сигнала, стимула. Информация нематериальна, как и все свойства материи. Информация стоит в ряду: материя, пространство, время, системность, функция, и др. что есть основополагающие понятия формализованного отражения объективной реальности в её распространении и изменчивости, разнообразии и проявленности.
Информация  — свойство [[Материя (физика)|материи]] и отражает её свойства (состояние или способность взаимодействия) и количество (мера) путём взаимодействия.
 
С [[Материя (философия)|материальной]] точки зрения информация  — это порядок следования объектов материального мира{{нет АИ|18|02|2013}}. Например, порядок следования букв на листе бумаги по определенным правилам является [[текст|письменной]] информацией. Порядок следования разноцветных точек на листе бумаги по определенным правилам является [[Графика|графической]] информацией. Порядок следования музыкальных нот является [[музыка]]льной информацией. Порядок следования генов в ДНК является [[Наследственная информация|наследственной]] информацией. Порядок следования битов в ЭВМ является [[Двоичная система счисления|компьютерной]] информацией и  т.  д. и  т.  п. Для осуществления информационного обмена требуется наличие необходимых и достаточных условий.
 
Необходимые условия:
# Наличие у объектов общего свойства, позволяющего идентифицировать объекты в качестве носителя информации.
# Наличие у объектов специфического свойства, позволяющего различать объекты друг от друга.
# Наличие свойства пространства, позволяющее определить порядок следования объектов. Например, расположение письменной информации на бумаге  — это специфическое свойство бумаги, позволяющее располагать буквы слева направо и сверху вниз.
Достаточное условие одно: <br />
''Наличие субъекта, способного распознавать информацию. Это человек и человеческое общество, общества животных, роботов и  т.  д.''
 
Различные объекты (буквы, символы, картинки, звуки, слова, предложения, ноты и тп.) взятые по одному разу образуют базис информации.
Необходимо различать длину информационного сообщения, которое всегда измеряется целым числом, и количество знаний, содержащегося в информационном сообщении, которое измеряется в неизвестной единице измерения.
 
С математической точки зрения информация  — это последовательность целых чисел, которые записаны в вектор. Числа  — это номер объекта в базисе информации. Вектор называется инвариантом информации, так как он не зависит от физической природы объектов базиса. Одно и то же информационное сообщение может быть выражено буквами, словами, предложениями, файлами, картинками, нотами, песнями, видеоклипами, любой комбинацией всех ранее названных. Чем бы мы ни выражали информацию  — изменяется только базис, а не инвариант.
 
=== В информатике ===
{{Falseredirect|Контент}}
Предметом изучения науки являются именно данные: методы их создания, хранения, обработки и передачи<ref>Захаров В.  П.  Информационные системы (документальный поиск): Учебное пособие / В.  П.  Захаров.  — СПб.: СПб.гос университет, 2002.  — 188 с.</ref>
 
'''Контент''' (также: «наполнение» (''в контексте''), «наполнение сайта»)  — термин, означающий все виды информации (как [[текст]]овой, так и [[Мультимедиа|мультимедийной]]  — изображения, аудио, видео), составляющей ''наполнение'' (визуализированное, для посетителя, ''содержимое'') [[веб-сайт]]а.
Применяется для отделения понятия информации, составляющей внутреннюю структуру страницы/сайта ([[Кодирование (программирование)|код]]), от той, что будет в итоге выведена на экран.
 
Работа с информацией связана с преобразованиями и всегда подтверждает её материальную природу:
 
* запись  — формирование структуры материи и модуляции потоков путём взаимодействия инструмента с носителем;
* хранение  — стабильность структуры (квазистатика) и модуляции (квазидинамика);
* чтение (изучение)  — взаимодействие зонда (инструмента, преобразователя, детектора) с субстратом или потоком материи.
 
[[Системология]] рассматривает информацию через связь с другими основаниями: I=S/F[MṿRṿT], где:
I  — информация; S  — системность мироздания; F  — функциональная связь; M  — материя; ṿ  — (v подчёркнутое) знак великого объединения (системности, единства оснований); R  — пространство; T  — Время.
 
=== В физике ===
Сигнал или последовательность сигналов образуют [[сообщение]], которое может быть воспринято получателем в том или ином виде, а также в том или ином объёме. Информация в физике есть термин, качественно обобщающий понятия «сигнал» и «сообщение». Если сигналы и сообщения можно исчислять количественно, то можно сказать, что сигналы и сообщения являются единицами измерения объёма информации.
 
Одно и то же сообщение (сигнал) разными [[система отсчёта|системами]] [[Интерпретация|интерпретируется]] [[неоднозначность|по-своему]]. Например, последовательно длинный и два коротких [[звук]]овых (а тем более в [[символ]]ьном [[Кодирование|кодировании]] [[-..]]) сигнала в [[Азбука Морзе|терминологии азбуки Морзе]]  — это буква [[Д]] (или D), в [[Звуковые сигналы ошибок BIOS|терминологии]] [[BIOS|БИОС]] от фирмы AWARD  — неисправность видеокарты.
 
=== В математике ===
{{основная статья|Собственная информация|Взаимная информация}}
В математике [[теория информации]] (''математическая теория связи'')  — раздел прикладной математики, определяющий понятие информации, её свойства и устанавливающий предельные соотношения для систем [[Передача данных|передачи данных]]. Основные разделы теории информации  — кодирование источника ([[Сжатие данных|сжимающее кодирование]]) и канальное (помехоустойчивое) кодирование. Математика является больше чем научной дисциплиной. Она создает единый язык всей Науки.
 
Предметом исследований математики являются абстрактные объекты: число, [[функция (математика)|функция]], [[вектор (математика)|вектор]], [[множество]], и другие. При этом большинство из них вводится акcиоматически ([[аксиома]]), то есть без всякой связи с другими понятиями и без какого-либо определения.
 
Информация не входит в число предметов исследования математики. Тем не менее, слово «информация» употребляется в математических терминах  — [[собственная информация]] и [[взаимная информация]], относящихся к абстрактной (математической) части теории информации. Однако, в математической теории понятие «информация» связано с исключительно абстрактными объектами  — случайными величинами, в то время как в современной теории информации это понятие рассматривается значительно шире  — как свойство материальных объектов.
 
Связь между этими двумя одинаковыми терминами несомненна. Именно математический аппарат случайных чисел использовал автор теории информации [[Клод Шеннон]]. Сам он подразумевает под термином «информация» нечто фундаментальное ([[Редукционизм|нередуцируемое]]). В теории Шеннона интуитивно полагается, что информация имеет содержание. Информация уменьшает общую [[неопределённость]] и [[информационная энтропия|информационную энтропию]]. Количество информации доступно измерению. Однако он предостерегает исследователей от механического переноса понятий из его теории в другие области науки.
 
=== В юриспруденции ===
Правовое определение понятия «информация» дано в [[Федеральный закон «Об информации, информационных технологиях и о защите информации»|федеральном законе от 27 июля 2006 года №  149-ФЗ «Об информации, информационных технологиях и о защите информации»]] (Статья 2): «информация  — сведения (сообщения, данные) независимо от формы их представления».
 
Федеральный закон №  149-ФЗ определяет и закрепляет права на защиту информации и информационную безопасность граждан и организаций в ЭВМ и в информационных системах, а также вопросы информационной безопасности граждан, организаций, общества и государства.
 
=== В теории управления ===
=== В кибернетике ===
Основоположник кибернетики [[Норберт Винер]] говорил об информации так:
{{начало цитаты}}"«Информация  — это не материя и не энергия, информация  — это информация"». Но основное определение информации, которое он дал в нескольких своих книгах, следующее: ''информация  — это обозначение содержания, полученное нами из внешнего мира в процессе приспосабливания к нему нас и наших чувств''.{{конец цитаты|источник=''Н. Винер'' Кибернетика, или управление и связь в животном и машине; или Кибернетика и общество}}
Эта мысль Винера дает прямое указание на [[объективность]] информации, то есть её существование в природе независимо от сознания (восприятия) человека.
 
Объективную информацию современная кибернетика определяет как объективное свойство материальных объектов и явлений порождать многообразие состояний, которые посредством '''фундаментальных взаимодействий''' материи передаются от одного объекта (процесса) другому и запечатлеваются в его структуре<ref>В.  М.  Глушков, Н.  М.  Амосов и др. «Энциклопедия кибернетики». Киев. 1975  г.</ref>.
 
Материальная система в кибернетике рассматривается как множество объектов, которые сами по себе могут находиться в различных состояниях, но состояние каждого из них определяется состояниями других объектов системы. В природе множество состояний системы представляет собой информацию, сами состояния представляют собой первичный '''код''', или '''код источника'''. Таким образом, каждая материальная система является источником информации.
 
Субъективную (семантическую) информацию кибернетика определяет как смысл или содержание сообщения. (см. там же)
Информация  — это характеристика объекта.
 
== Информация в материальном мире ==
{{нет источников в разделе|дата=2013-03-14}}
'''Информация'''  — одно из общих понятий, связанных с [[Материя|материей]]. Информация существует в любом материальном объекте в виде многообразия его состояний и передается от объекта к объекту в процессе их взаимодействия. Существование информации как объективного свойства материи логически вытекает из известных фундаментальных свойств материи  — структурности, непрерывного изменения (движения) и взаимодействия материальных объектов.
 
Структурность материи проявляется как внутренняя расчленённость целостности, закономерный порядок связи элементов в составе целого. Иными словами, любой материальный объект, от субатомной частицы до Метавселенной ([[Большой взрыв]]) в целом, представляет собой [[система|систему]] взаимосвязанных подсистем.
 
Из приведенного представления логично и просто вытекает выбор единицы измерения количества информации.
Представим себе систему, которая может находиться всего в двух равновероятных состояниях. Присвоим одному из них код «1», а другому  — «0». Это минимальное количество информации, которое может содержать система. Оно и является единицей измерения информации и называется [[бит]] (от английского bit  — binary digit -двоичная цифра). Существуют и другие, более сложно определяемые, способы и [[единицы измерения количества информации]].
 
В зависимости от материальной формы носителя, информация бывает двух основных видов  — аналоговая и дискретная. Аналоговая информация изменяется во времени непрерывно, и принимает значения из [[континуума значений]]. Дискретная информация изменяется в некоторые моменты времени и принимает значения из некоторого множества значений.
 
Любой материальный объект или процесс является первичным '''источником''' информации. Все возможные его состояния составляют '''код источника''' информации. Мгновенное значение состояний представляется как символ («буква») этого кода.
 
Для того чтобы информация могла передаваться от одного объекта другому как к '''приемнику''', необходимо, чтобы был какой-то промежуточный материальный '''носитель''', взаимодействующий с источником. Такими переносчиками в природе, как правило, являются быстро распространяющиеся процессы волновой структуры  — космические, гамма и рентгеновские излучения, электромагнитные и звуковые волны, потенциалы (а может быть и ещё не открытые волны) гравитационного поля. При взаимодействии электромагнитного излучения с объектом в результате поглощения или отражения изменяется его [[спектр]], то есть изменяются интенсивности некоторых длин волн. Изменяются при взаимодействиях с объектами и гармоники звуковых колебаний. Информация передаётся и при механическом взаимодействии, однако механическое взаимодействие, как правило, приводит к большим изменениям структуры объектов (вплоть до их разрушения), и информация сильно искажается. Искажение информации при её передаче называется [[дезинформация|дезинформацией]].
 
Перенос информации источника на структуру носителя называется '''кодированием'''. При этом происходит преобразование кода источника в '''код носителя'''. Носитель с перенесенным на него кодом источника в виде кода носителя называется '''сигналом.'''
[[Файл:Tomato.png|thumb]]
:: ''Пример. Имеется объект шарообразной формы (источник), взаимодействуя с которым, [[Видимое излучение|видимый диапазон]] спектра [[Электромагнитное излучение|электромагнитного излучения]], отражённого от объекта, (носитель) изменяется в результате его поглощения или отражения объектом так, что наибольшую интенсивность получает его участок с частотами 484—405 [[терагерц]] (сигнал)''.
:::::: ''(Продолжение примера  — в секции «Информация в живой природе»).''
 
Приемник сигнала имеет свой набор возможных состояний, который называется '''кодом приемника'''. Сигнал, взаимодействуя с объектом-приемником, изменяет его состояния. Процесс преобразования кода сигнала в код приёмника называется '''декодированием.'''
В соответствии с особенностями строения органов чувств информацию, воспринимаемую организмом, можно классифицировать как визуальную, слуховую, вкусовую, обонятельную и тактильную, температурную, информацию вестибулярного аппарата.
 
:::::: ''Пример (продолжение). Попадая на сетчатку человеческого глаза, сигнал особым образом возбуждает составляющие её клетки. Нервный импульсы клеток через акcоны передаются в мозг. Мозг запоминает это ощущение в виде определенной комбинации состояний составляющих его нейронов. (Продолжение примера  — в секции «Информация в человеческом обществе»).''
 
Накапливая информацию, мозг создает на своей структуре связную '''информационную модель''' окружающего мира.
 
В живой природе для организма  — приёмника информации важной характеристикой является её доступность. Количество информации, которое нервная система человека способна подать в мозг при чтении текстов, составляет примерно 1 бит за 1/16 с.
 
Исследование организмов затруднено их сложностью. Допустимая для неживых объектов абстракция структуры как математического множества вряд ли допустима для живого организма, потому что для создания более или менее адекватной абстрактной модели организма необходимо учесть все иерархические уровни его структуры. Поэтому сложно ввести меру количества информации. Очень сложно определяются связи между компонентами структуры. Если известно, какой орган является источником информации, то что является сигналом и что приемником?
 
== Информация в человеческом обществе ==
Развитие материи в процессе движения направлено в сторону усложнения структуры материальных объектов. Одна из самых сложных структур  — человеческий мозг. Пока это единственная известная нам структура, обладающая свойством, которое сам человек называет [[сознание]]м.
Говоря об информации мы, как мыслящие существа, априорно подразумеваем, что информация, кроме её наличия в виде принимаемых нами сигналов, имеет ещё и какой-то смысл.
Формируя в своем сознании модель окружающего мира как взаимосвязанную совокупность моделей его объектов и процессов, человек использует именно смысловые понятия, а не информацию.
[[Смысл]]  — сущность любого феномена, которая не совпадает с ним самим и связывает его с более широким контекстом реальности.
Смысл  — понятие, описывающее глобальное содержание некоторого высказывания (см. БСЭ. Смысл).
Само слово прямо указывает, что смысловое содержание информации могут формировать только мыслящие приемники информации. В человеческом обществе решающее значение приобретает не сама информация, а её смысловое содержание.
:::::: ''Пример (продолжение). Испытав такое ощущение, человек присваивает объекту понятие  — «помидор», а его состоянию понятие  — «красный цвет». Кроме того, его сознание фиксирует связь: «помидор»  — «красного цвета». Это и есть смысл принятого сигнала. (Продолжение примера: ниже в этой секции)''.
 
Способность мозга создавать смысловые понятия и связи между ними является основой сознания. Сознание можно рассматривать как саморазвивающуюся '''смысловую модель''' окружающего мира.
 
Смысл это не информация. Информация существует только на материальном носителе. Сознание человека считается нематериальным. Смысл существует в сознании человека в виде слов, образов и ощущений. Человек может произносить слова не только вслух, но и «про себя». Он также «про себя» может создавать (или вспоминать) образы и ощущения. Однако, он может восстановить информацию, соответствующую этому смыслу, произнеся слова или написав их.
:::::: ''Пример (продолжение). Если слова «помидор» и «красный цвет»  — смысл понятий, то где же тогда информация? Информация содержится в мозге в виде определенных состояний его нейронов. Она содержится также в напечатанном тексте, состоящем из этих слов, и при кодировании букв трехразрядным двоичным кодом её количество равно 120 бит. Если произнести слова вслух, информации будет значительно больше, но смысл останется тем же. Наибольшее количество информации несёт зрительный образ. Это отражается даже в народном фольклоре  — «лучше один раз увидеть, чем сто раз услышать».''
 
Восстановленная таким образом информация называется семантической информацией, поскольку она кодирует смысл некоторой первичной информации ([[семантика]]).
{| class="wikitable"
|-
|<FONT color="red"><big>'''ПОМИДОР  — КРАСНЫЙ'''</big>
|-
| Семантическая информация
Хранение информации осуществляется с помощью её переноса на некоторые [[Носитель информации|материальные носители]]. Семантическая информация, зафиксированная на материальном носителе для хранения, называется [[документ]]ом.
 
Хранить информацию человечество научилось очень давно. В наиболее древних формах хранения информации использовалось расположение предметов  — раковин и камней на песке, узелков на верёвке. Существенным развитием этих способов явилась письменность  — графическое изображение символов на камне, глине, папирусе, бумаге. Огромное значение в развитии этого направления имело изобретение книгопечатания. За свою историю человечество накопило огромный объём информации в библиотеках, архивах, периодических изданиях и других письменных документах.
 
В настоящее время особое значение получило хранение информации в виде последовательностей двоичных символов. Для реализации этих методов используются разнообразные [[запоминающие устройства]]. Они являются центральным звеном систем хранения информации. Кроме них в таких системах используются средства поиска информации ([[поисковая система]]), средства получения справок (информационно-справочные системы) и средства отображения информации ([[устройство вывода]]). Сформированные по назначению информации такие информационные системы образуют [[База данных|базы данных]], [[банки данных]] и [[База знаний|базы знаний]].
 
=== Передача информации ===
''Передачей'' семантической информации называется процесс её пространственного переноса от источника к получателю (адресату). Передавать и получать информацию человек научился даже раньше, чем хранить её. [[Речь]] является способом передачи, который использовали наши далекие предки в непосредственном контакте (разговоре)  — ею мы пользуемся и сейчас. Для передачи информации на большие расстояния необходимо использовать значительно более сложные [[информационные процессы]].
 
Для осуществления такого процесса информация должна быть некоторым образом оформлена (представлена). Для [[представление информации|представления информации]] используются различные [[Знаковая система|знаковые системы]]  — наборы заранее оговоренных [[Знак|смысловых символов]]: предметов, картинок, [[Письменность|написанных]] или напечатанных слов [[естественный язык|естественного языка]]. Представленная с их помощью семантическая информация о каком-либо объекте, явлении или процессе называется [[сообщение]]м.
 
Очевидно, что для передачи сообщения на расстояние информация должна быть перенесена на какой-либо мобильный [[Носитель информации|носитель]]. Носители могут перемещаться в пространстве с помощью транспортных средств, как это происходит с письмами, посылаемыми по [[Почта|почте]]. Такой способ обеспечивает полную достоверность передачи информации, поскольку адресат получает оригинал сообщения, однако требует значительного времени для передачи. С середины [[XIX век]]а получили распространение способы передачи информации, использующие естественно распространяющийся носитель информации  — [[электромагнитные колебания]] (электрические колебания, радиоволны, свет). Реализация этих способов требует:
# предварительного переноса информации, содержащейся в сообщении, на носитель  — [[Кодирование|кодирования]];
# обеспечения [[Передача данных|передачи]] полученного таким образом [[сигнал]]а адресату по специальному [[Канал связи|каналу связи]];
# обратного преобразования кода сигнала в код сообщения  — [[Декодирование|декодирования]].
Использование электромагнитных носителей делает доставку сообщения адресату почти мгновенной, однако требует дополнительных мер по обеспечению качества (достоверности и точности) передаваемой информации, поскольку реальные каналы связи подвержены воздействию естественных и искусственных [[Электромагнитная помеха|помех]].
 
Основным видом обработки ''первичной информации'', полученной различными приборами, является преобразование в форму, обеспечивающую её восприятие органами чувств человека. Так, фотоснимки космоса, полученные в рентгеновских лучах, преобразуются в обычные цветные фотографии с использованием специальных преобразователей спектра и фотоматериалов. Приборы ночного видения преобразуют изображение, получаемое в инфракрасных (тепловых) лучах, в изображение в видимом диапазоне. Для некоторых задач связи и управления необходимо преобразование аналоговой информации в дискретную и наоборот. Для этого используются аналого-цифровые и цифро-аналоговые преобразователи сигналов.
 
Важнейшим видом обработки ''семантической информации'' является определение смысла (содержания), заключающегося в некотором сообщении. В отличие от первичной семантическая информация не имеет статистических характеристик, то есть количественной меры  — смысл либо есть, либо его нет. А сколько его, если он есть  — установить невозможно. Содержащийся в сообщении смысл описывается на искусственном языке, отражающем смысловые связи между словами исходного текста. Словарь такого языка, называемый [[тезаурус]]ом, находится в приемнике сообщения. Смысл слов и словосочетаний сообщения определяется путем их отнесения к определенным группам слов или словосочетаний, смысл которых уже установлен. Тезаурус, таким образом, позволяет установить смысл сообщения и, одновременно, пополняется новыми смысловыми понятиями. Описанный вид обработки информации применяется в информационно-поисковых системах и [[машинный перевод|системах машинного перевода]].
 
Одним из широко распространенных видов обработки информации является решение вычислительных задач и задач автоматического управления с помощью вычислительных машин.
Возрастающая сложность задач научных исследований привела к необходимости привлечения к их решению больших коллективов ученых разных специальностей. Поэтому практически все рассматриваемые ниже теории являются междисциплинарными.
 
Исторически сложилось так, что исследованием непосредственно информации занимаются две комплексных отрасли науки  — [[кибернетика]] и [[информатика]].
 
Современная '''кибернетика'''  — это мультидисциплинарная отрасль науки, исследующая сверхсложные системы, такие как:
* человеческое общество (социальная кибернетика),
* экономика (экономическая кибернетика),
* живой организм (биологическая кибернетика),
* человеческий мозг и его функция  — сознание ([[искусственный интеллект]]).
 
'''Информатика''', сформировавшаяся как наука в середине прошлого века, отделилась от кибернетики и занимается исследованиями в области способов получения, хранения, передачи и обработки семантической информации.
 
Обе эти отрасли используют несколько основополагающих научных теорий. К ним относятся теория информации и её разделы  — [[теория кодирования]], [[теория алгоритмов]] и [[теория автоматов]].
 
Исследования смыслового содержания информации основываются на комплексе научных теорий под общим названием [[семиотика]].
 
=== Теория информации ===
[[Теория информации]]  — комплексная, в основном математическая теория, включающая в себя описание и оценки методов извлечения, передачи, хранения и классификации информации.
 
Рассматривает носители информации как элементы абстрактного (математического) множества, а взаимодействия между носителями как способ расположения элементов в этом множестве. Такой подход дает возможность формально описать код информации, то есть определить абстрактный код и исследовать его математическими методами. Для этих исследований применяет методы [[теория вероятностей|теории вероятностей]], [[математическая статистика|математической статистики]], [[линейная алгебра|линейной алгебры]], [[теория игр|теории игр]] и других математических теорий.
 
Основы этой теории заложил американский учёный Э. Хартли в 1928  г., который определил меру количества информации для некоторых задач связи. Позднее теория была существенно развита американским учёным К. Шенноном, российскими учёными А.  Н.  Колмогоровым, В.М Глушковым и др.
 
Современная теория информации включает в себя как разделы теорию кодирования, теорию алгоритмов, теорию цифровых автоматов (см. ниже) и некоторые другие.
 
=== Теория автоматов ===
[[Теория автоматов]]  — раздел теоретической [[Кибернетика|кибернетики]], в котором исследуются математические модели реально существующих или принципиально возможных устройств перерабатывающих дискретную информацию в дискретные моменты времени.
 
Понятие автомата возникло в теории алгоритмов. Если существуют некоторые универсальные алгоритмы решения вычислительных задач, то должны существовать и устройства (пусть и абстрактные) для реализации таких алгоритмов. Собственно, абстрактная машина Тюринга, рассматриваемая в теории алгоритмов, является в то же время и неформально определённым автоматом. Теоретическое обоснование построения таких устройств является предметом теории автоматов.
 
Теория автоматов использует аппарат математических теорий  — алгебры, математической логики, комбинаторного анализа, теории графов, теории вероятностей и др.
 
Теория автоматов вместе с теорией алгоритмов являются основной теоретической базой для создания электронных вычислительных машин и автоматизированных управляющих систем.
 
=== Семиотика ===
[[Семиотика]]  — комплекс научных теорий, изучающих свойства [[знак]]овых систем. Наиболее существенные результаты достигнуты в разделе семиотики  — [[семантика|семантике]]. Предметом исследований семантики является смысловое содержание информации.
 
Знаковой системой считается система конкретных или абстрактных объектов (знаков, слов), с каждым из которых определенным образом сопоставлено некоторое значение. В теории доказано, что таких сопоставлений может быть два. Первый вид соответствия определяет непосредственно материальный объект, который обозначает это слово и называется денотат (или, в некоторых работах,  — номинат). Второй вид соответствия определяет смысл знака (слова) и называется концепт. При этом исследуются такие свойства сопоставлений как «смысл», «истинность», «определимость», «следование», «интерпретация» и др. Для исследований используется аппарат математической логики и математической лингвистики.
 
Идеи семантики, намеченные ещё Г.  В.  Лейбницем и Ф де Соссюром в XIX веке, сформулировали и развили Ч. Пирс (1839—1914), Ч. Моррис (р. 1901), Р. Карнап (1891—1970) и др.
 
Основным достижением теории является создание аппарата семантического анализа, позволяющего представить смысл текста на естественном языке в виде записи на некотором формализованном семантическом (смысловом) языке.
Дезинформацией (также дезинформированием) называется один из способов манипулирования информацией, как то введение кого-либо в заблуждение путём предоставления неполной информации или полной, но уже не нужной информации, или полной, но не в нужной области, искажения контекста, искажения части информации.
 
Цель такого воздействия всегда одна  — оппонент должен поступить так, как это необходимо манипулятору. Поступок объекта, против которого направлена дезинформация, может заключаться в принятии нужного манипулятору решения или в отказе от принятия невыгодного для манипулятора решения. Но в любом случае конечная цель  — это действие, которое будет предпринято.
 
== Регистрация ==
{{Main|Регистрация}}
Регистрация  — запись, фиксация [[факт]]ов или явлений с целью учёта и придания им статуса официально признанных актов (регистрация рождения или [[Брачный союз|брака]]); внесение в список, в книгу учёта.
 
Регистрация в различных сферах человеческой деятельности:
* Регистрация по месту жительства и месту пребывания (см., например, [[регистрационный учёт в Российской Федерации]]).
* [[Регистрация ионизирующих излучений]]
* [[Регистрация кандидата]]  — этап избирательного процесса.
* [[Регистрация незаконных сделок с землёй]]
* [[Государственная регистрация юридических лиц и индивидуальных предпринимателей]]
В Интернете:
* [[Регистрация доменов]]
* [[Регистрация пользователя сайта]]  — процедура регистрации пользователя.
* [[Регистрация в каталогах]]  — один из методов продвижения (раскрутки) сайта в сети [[Интернет]].
 
== Ошибка ==
Ошибка  — несоответствие между [[объект]]ом или [[явление]]м, принятым за [[эталон]] (материальный объект, решение задачи, действие, которое привело бы к желаемому результату), и объектом/явлением, сопоставленным первому.
{{Main|Ошибка}}
Ошибка — несоответствие между [[объект]]ом или [[явление]]м, принятым за [[эталон]] (материальный объект, решение задачи, действие, которое привело бы к желаемому результату), и объектом/явлением, сопоставленным первому.
 
Ошибки встречаются как в [[Природа|природе]], так и во всех сферах человеческой деятельности. Известно много исторических примеров, в которых ошибки привели к катастрофическим последствиям. Ошибкам посвящено множество афоризмов, их осмысляют [[философ]]ы, поэты, писатели, историки и представители других дисциплин. Так, с утверждением «на ошибках учатся» согласны многие философы-[[Диалектика|диалектики]]. [[Скептик]]и же и [[агностик]]и полагают, что все наши представления, скорее всего, ошибочны. Зачастую грань между «правильностью» и «ошибочностью» того или иного явления столь тонка, что их невозможно различить.
 
== Литература ==
* ''Стратонович Р. Л.'' [http://www.polytech.poltava.ua/lib/resurs/tik/stratonovich.pdf Теория информации] М.: Сов. радио, 1975.  — 424 с.
* ''Урсул А. Д.'' Природа информации.  — М.: Политиздат, 1968.  — 288 с.
* ''Урсул А. Д.'' Проблема информации в современной науке.  — М.: Наука, 1975.  — 288 с.
* ''Чернавский Д. С.'' Синергетика и информация (динамическая теория информации)  — М.:Едиториал УРСС, 2004.  — 288 с ISBN 5-354-00241-9.
 
== Хьажорагаш ==
26 200

нисдарш