Информация

Материал из Википедии — свободной энциклопедии
Это старая версия этой страницы, сохранённая Qbli2mHd (обсуждение | вклад) в 16:09, 9 сентября 2024 (Суть и границы явления: дополнение). Она может серьёзно отличаться от текущей версии.
Перейти к навигации Перейти к поиску
Схема генетического кода

Информа́ция (от лат. informātiō «разъяснение, представление, понятие о чём-либо» ← informare «придавать вид, форму, обучать; мыслить, воображать»[1]) — све­де­ния (со­об­ще­ния, данные) не­за­ви­си­мо от фор­мы их пред­став­ле­ния[2][3].

В международных и российских стандартах даются следующие определения:

  • обработанные, организованные и связанные данные, которые порождают смысл (значение) (ISO 5127:2017)[4];
  • знания о предметах, фактах, идеях и т. д., которыми могут обмениваться люди в рамках конкретного контекста (ISO/IEC 10746-2:1996)[5];
  • знания относительно фактов, событий, вещей, идей и понятий, которые в определённом контексте имеют конкретный смысл (ISO/IEC 2382:2015)[6];
  • сведения, воспринимаемые человеком и (или) специальными устройствами как отражение фактов материального или духовного мира в процессе коммуникации (ГОСТ 7.0-99)[7].

Хотя информация должна обрести некоторую форму представления (то есть превратиться в данные), чтобы ею можно было обмениваться, информация есть в первую очередь интерпретация (смысл) такого представления (ISO/IEC/IEEE 24765:2010)[8]. Поэтому в строгом смысле информация отличается от данных, хотя в неформальном контексте эти два термина очень часто используют как синонимы.

Первоначально «информация» — сведения, передаваемые людьми устным, письменным или каким-либо другим способом (с помощью условных сигналов, технических средств и т. д.); с середины XX века термин «информация» превратился в общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом; обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетке, от организма к организму (например, генетическая информация); одно из основных понятий кибернетики[9].

В современных производных терминах, таких как информатика, информатизация, подразумевается уже не просто приобщение к обмену сведениями, но и оснащение новейшими технологиями — ИТ.

Несмотря на широкую распространённость, понятие информации остаётся одним из самых дискуссионных в науке, а термин может иметь различные значения в разных отраслях человеческой деятельности[10], так, академик Н. Н. Моисеев даже полагал, что в силу широты этого понятия нет и не может быть строгого и достаточно универсального определения информации[11].

История понятия

До XX века

Для античных философов вся материя существовала в виде четырёх элементов: воды, земли, воздуха и огня. Соответственно, свойства всех вещей были определены той формой, в которую соединена материя[12]. Informatio — «формирование» — понималось как процесс, в результате которого идея получает воплощение: при наблюдении за лошадью в сознании формируется идея о ней; процесс обучения создаёт ученика; художник делает скульптуру, придавая желаемую форму куску мрамора[13]. Историк Джон Дарем Питерс[англ.] предлагает передавать это понятие термином «морфогенезис»[14]. Слово informatio использовалось Цицероном и Августином при переводе на латынь таких понятий греческой философии, как эйдос, идея, форма, пролепсис[15]. Фома Аквинский использует для описания гилеморфизма словосочетание informatio materiae («формирование материи»)[13].

Со Средних веков слово «информация» в европейских языках используют в отношении человека образованного, имеющего отношение к науке[13].

Исчезновение концепции морфогенезиса из философского дискурса связано с развитием эмпиризма, не допускающего существования форм за пределами чувственного восприятия. Фрэнсис Бэкон критикует диалектиков, которые «успокаиваются на непосредственных данных (informationibus) хорошо расположенного чувства»[16][14]. Обращаясь к наследию Платона, Джон Локк использует слово «идея» «для выражения того, что подразумевают под словами „фантом“, „понятие“, „вид“, или всего, чем может быть занята душа во время мышления»[17][18]. Для эмпириков поток идей был сырым материалом, на основании которого может быть построено знание, для рационалистов — покровом иллюзий, стоящим на пути разума[14].

Понятие информации как сведений, подлежащих хранению и передаче, возникает в XIX веке[13]. Если для эмпириков информация была связана с чувственным опытом, то с появлением статистики и ростом государственной бюрократии она стала подразумевать знание за пределами опыта конкретного индивида[14]. Такой смысловой переход также связывают с развитием способов коммуникации: массовый выпуск газет, словарей, энциклопедий, распространение почтовых услуг, изобретение телеграфа и телефона привели к восприятию информации как самостоятельного явления, представленного в конкретной форме и обладающего истинностью. Понятие стало относиться не к знаниям, а к определённому способу их приобретения — утверждениям, объективность которых проистекает из факта их публикации в книге или ином авторитетном источнике[19]. Как отмечает социолог Алвин Уорд Гоулднер, знание в виде информации — «это скорее атрибут культуры, чем личности; его значение, его отыскание и его последствия — всё является деперсонализованным… Культура может помогать или препятствовать осознанию, но культура сама по себе не может осознавать»[20]. По мнению Мишеля де Серто, переход читателя в положение пассивного потребителя стал шагом в развитии идей Просвещения о преобразовании общества посредством популяризации знания[21][22].

Математическая теория информации

Модель коммуникации Шеннона — Уивера

В середине XX века слово «информация» приобретает новый смысл, связанный с понятием энтропии. В 1948 году выходит книга Норберта Винера «Кибернетика, или управление и связь в животном и машине», где об информации говорится как о третьем фундаментальном понятии природы наряду с материей и энергией. В то же время Клод Шеннон, развивая идеи Харри Нюквиста и Ральфа Хартли, вводит понятие бита как единицы измерения количества информации. Рассматривая проблему оптимизации передачи сигнала по каналу связи, он предлагает свою модель коммуникации, будучи уверенным в том, что «семантические аспекты связи не имеют отношения к инженерной стороне вопроса»[12]. Уоррен Уивер[англ.] уточняет, что в рамках их теории слово «информация» используется не в общепринятом значении, а как характеристика передаваемого сигнала, не подразумевающая наличия смысла.[23][22][24] Этот термин ложится в основу таких концепций, как обработка информации и информационные технологии[19].

Ларс Квортруп[дат.] отмечает, что информация в теории Шеннона и Уивера описывается противоречиво: и как объективная количественная величина, и как субъективный выбор отправителя сообщения[25][26]. С точки зрения семиотики, математическая теория информации описывает только синтаксис (взаимосвязь знаков между собой), но не касается семантики (связи знаков и смысла) и прагматики (связи знаков и людей).[24] В 1952 году семантическая теория информации была представлена Йегошуа Бар-Хиллелом и Рудольфом Карнапом[27]. В 1980-е годы теория Шеннона разрабатывается Фредом Дрецке с точки зрения эпистемологии и Джоном Барвайзом[англ.] и Джоном Перри[англ.] в рамках философии языка[18][15].

Дальнейшее распространение термина

С распространением вычислительной техники теория информации оказывает большое влияние на другие сферы деятельности, которые в послевоенные годы всё больше перенимают позитивистские методы естественных наук.[24] Во второй половине XX века закрепляется понимание информации как абстрактного явления, существующего в отрыве от её истинности и конкретной формы представления[19]. Лингвист Джеффри Нанберг[англ.] в 1996 году отмечал, что связанная с современными технологиями концепция начинает ретроактивно применяться по отношению к событиям прошлого: «Нас убеждают, что передаваемая компьютерами субстанция — „информация“ в техническом смысле — по сути то же, что привело к Реформации и Французской революции»[22].

В терминах работы с информацией начинают определять себя такие сферы деятельности, как информатика, электротехника, библиотековедение, психолингвистика, менеджмент, экономика, журналистика, коммуникативистика[14]. С когнитивной революцией эта концепция занимает центральное место в психологии, где начинает доминировать функционализм, рассматривающий сознание по аналогии с обработкой информации вычислительными машинами. За дисциплиной, прежде известной как документалистика, закрепляется название «информационная наука».[28] В 1964 году Мартин Хайдеггер говорил о том, что науки «начинают определяться и направляться новой основной наукой» — кибернетикой, которая «преображает речь в обмен сообщениями», а «искусства становятся направленно-направляющими инструментами [передачи] информации»[29]. В опубликованной в 1983 году работе экономиста Фрица Махлупа отмечается, что представители гуманитарных наук используют в своих теориях общепринятое определение информации, накладывая на него для своих нужд некоторые ограничения: «Требование истинности или правильности должно исключить ложные или неправильные сообщения; требование ценности или полезности должно исключить сообщения, бесполезные для принятия решений; требование новизны должно исключить повторные или избыточные сообщения; требование неожиданности должно исключить сообщения, ожидаемые получателем; требование уменьшения неопределенности должно исключить сообщения, которые не меняют или увеличивают состояние неопределенности получателя; и так далее… Специалисты в ряде дисциплин… ввели удобные для своих целей ограничения, осложнив для неспециалистов понимание того, что имеется в виду». Использование термина «информация» в контекстах, не подразумевающих наличие разумного получателя, Махлуп считает метафорическим (когда речь идёт о биологических системах или группах организмов) или просто некорректным (когда речь идёт о воздействии на механизм или коммуникациях)[30].

Суть и границы явления

Не существует универсального определения информации, которое объединяло бы смыслы, вкладываемые в это понятие в рамках различных теорий: физики, теории связи, кибернетики, статистической теории информации, психологии, семантики, индуктивной логики.[33]

Гернот Версиг[нем.] выделяет шесть подходов к определению информации[34]:

  • характеристика объектов материального мира или их взаимоотношений, существующая независимо от наблюдателя;
  • знание, полученное посредством восприятия;
  • сообщение;
  • смысл, выражаемый знаками;
  • результат процесса;
  • процесс.

Согласно трилемме Капурро[нем.] ответ на вопрос об определении информации предполагает выбор одной из трёх позиций[35]:

  1. Однозначность: информация имеет одно и то же значение во всех контекстах.
  2. Аналогия: информация имеет одно правильное значение в определенном контексте, но может применяться в других контекстах как аналогия.
  3. Неоднозначность: информация может иметь множество определений, зависящих от контекста.
Четыре аспекта информации[32]
Нематериальный Материальный
Явление Информация как знание Информация как объект (данные, документ, записанные сведения)
Процесс Информация как процесс (информирование) Обработка информации (обработка данных, документов, инженерия знаний)

Майкл Бакленд выделяет три категории информации: знания, процесс информирования и объекты информации. К последним он относит все объекты и события, из которых можно получить знания, высказываясь против определения информации как обработанных данных, собранных в осмысленном виде[a]: «Во-первых, это оставляет без ответа вопрос о том, как следует называть другие информативные явления, такие как окаменелости, следы и крики ужаса. Во-вторых, возникает дополнительный вопрос о том, какой объем обработки и/или сбора необходим для того, чтобы данные могли называться информацией»[37].

Грегори Бейтсон определял информацию как «различимое различие» (англ. a difference which makes a difference)[38], то есть такой феномен реальности, который влияет на воспринимающего субъекта. Для животного, адаптированного к жизни в своей экологической нише, информативными будут те свойства среды, изменения в которых воспринимаются его органами чувств. Для людей информативность зависит от культурных и социальных факторов[12]. Бенни Карпачоф определял информацию как эмерджентный феномен, связанный с конкретным механизмом высвобождения (англ. release mechanism), устроенным таким образом, чтобы специфическим образом высвобождать запасённую потенциальную энергию при получении определённого сигнала извне[39].

Для исследований самоорганизации динамических систем Генри Кастлер предложил следующее определение: «Информация есть запомненный выбор одного варианта из нескольких возможных и равноправных»[40]. Доктор философских наук И. В. Мелик-Гайказян дополняет его: «Запомнить — значит каким-либо образом фиксировать результат выбора, что обычно выражается в изменении упорядоченности системы»[41].

Н. М. Амосов считал, что «информация — это сведения о системе, о её структуре и функции, выраженные моделью», а «переработка информации заключается в превращении одних моделей в другие»[42].

Классификация информации

Информацию можно разделить на виды по различным критериям:

  • По способу восприятия:
    • Визуальная — воспринимаемая органами зрения.
    • Звуковая — воспринимаемая органами слуха.
    • Тактильная — воспринимаемая тактильными рецепторами.
    • Обонятельная — воспринимаемая обонятельными рецепторами.
    • Вкусовая — воспринимаемая вкусовыми рецепторами.
  • По форме представления:
    • Текстовая — передаваемая в виде символов, предназначенных обозначать лексемы языка.
    • Числовая — в виде цифр и знаков (символов), обозначающих математические действия.
    • Графическая — в виде изображений, предметов, графиков.
    • Звуковая — устная или в виде записи и передачи лексем языка аудиальным путём.
    • Видеоинформация — передаваемая в виде видеозаписи.
  • По назначению:
    • Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.
    • Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.
    • Секретная — передаваемая узкому кругу лиц и по закрытым (защищённым и адаптивным) каналам.
    • Личная (приватная) — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.
  • По значению:
    • Актуальная — информация, ценная в данный момент времени.
    • Достоверная — информация, полученная без искажений с надежных источников.
    • Понятная — информация, выраженная на языке, понятном тому, кому она предназначена.
    • Полная — информация, достаточная для принятия правильного решения или понимания.
    • Ценная — полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

В основу классификации положено пять общих признаков:

  • Место возникновения.
  • Стадия обработки.
  • Способ отображения.
  • Стабильность.
  • Функция управления.

Информация в различных областях деятельности

В математике

В математике информация — общее наименование фундаментальных понятий в информатике, теории информации, кибернетике, а также в математической статистике, в которых обобщённое интуитивное представление об информации относительно каких-либо величин или явлений конкретизируется и формализуется[43].

В информатике

Предметом изучения информатики являются именно данные: методы их создания, хранения, обработки и передачи[44]. Данные представляют собой информацию в формализованном виде (в цифровой форме), позволяющем автоматизировать её сбор, хранение и дальнейшую обработку в ЭВМ. С этой точки зрения информация является абстрактным понятием, рассматриваемым безотносительно к её семантическому аспекту, а под количеством информации обычно понимается соответствующий объём данных. Однако одни и те же данные могут быть закодированы различным образом и иметь при этом различный объём, поэтому иногда рассматривается также понятие «ценность информации», которое связано с понятием информационной энтропии и является предметом изучения теории информации.

В теории информации

Теория информации (математическая теория связи) — изучает процессы хранения, преобразования и передачи информации. Она основана на научных методах измерения количества информации[45]. Теория информации развилась из потребностей теории связи. Основополагающими считаются «Передача информации[46]» Ральфа Хартли опубликованные в 1928 году и «Работы по теории информации и кибернетике[47]» Клода Шеннона, опубликованные в 1948 году. Теория информации изучает пределы возможностей систем передачи данных, а также основные принципы их проектирования и технической реализации[48].

С теорией информации связаны радиотехника (теория обработки сигналов) и информатика, относящиеся к измерению количества передаваемой информации, её свойства и устанавливающие предельные соотношения для систем. Основные разделы теории информации — кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование. Информация не входит в число предметов исследования математики. Тем не менее, слово «информация» употребляется в математических терминах — собственная информация и взаимная информация, относящихся к абстрактной (математической) части теории информации. Однако, в математической теории понятие «информация» связано с исключительно абстрактными объектами — случайными величинами, в то время как в современной теории информации это понятие рассматривается значительно шире — как свойство материальных объектов[источник не указан 3574 дня].

Связь между этими двумя одинаковыми терминами несомненна. Именно математический аппарат случайных чисел использовал автор теории информации Клод Шеннон. Сам он подразумевает под термином «информация» нечто фундаментальное (нередуцируемое). В теории Шеннона интуитивно полагается, что информация имеет содержание. Информация уменьшает общую неопределённость и информационную энтропию. Количество информации доступно измерению. Однако он предостерегает исследователей от механического переноса понятий из его теории в другие области науки[источник не указан 3574 дня].

В теории управления (кибернетике)

Основоположник кибернетики Норберт Винер дал следующее определение информации: «Информация — это обозначение содержания, полученное нами из внешнего мира в процессе приспосабливания к нему нас и наших чувств»[49].

Кибернетика рассматривает машины и живые организмы как системы, воспринимающие, накапливающие и передающие информацию, а также перерабатывающие её в сигналы, определяющие их собственную деятельность[43].

Материальная система в кибернетике рассматривается как множество объектов, которые сами по себе могут находиться в различных состояниях, но состояние каждого из них определяется состояниями других объектов системы. В природе множество состояний системы представляет собой информацию, сами состояния представляют собой первичный код или код источника. Таким образом, каждая материальная система является источником информации.

Субъективную (семантическую) информацию кибернетика определяет как смысл или содержание сообщения. Информация — это характеристика объекта.

Алгоритмическая теория информации

Как область математики — алгоритмическая теория информации была создана А. Н. Колмогоровым[50]. Две основополагающие статьи по ней были опубликованы в журнале «Проблемы передачи информации» в 1965 и 1969 годах[51][52][53]. Центральным в этой теории является понятие алгоритмической (также называемой колмогоровской) сложности информационного объекта, то есть алгоритмического способа его описания (формирования); эта сложность определяется как минимальная длина алгоритма, формирующего такой объект. Теорема Колмогорова устанавливает, что среди алгоритмов, формирующий информационный объект существуют оптимальные, хотя такие алгоритмы не единственные и отличаются для разных способов представления алгоритмов, тем не менее для заданных двух оптимальных способов их длина (сложность) отличается не более чем на аддитивную константу. Задача вычисления алгоритмической сложности объекта является алгоритмически неразрешимой.

В семиотике

Семиотика — комплекс научных теорий, изучающих свойства знаковых систем. Наиболее существенные результаты достигнуты в разделе семиотики — семантике. Предметом исследований семантики является значение единиц языка, то есть информация, передаваемая посредством языка.

Знаковой системой считается система конкретных или абстрактных объектов (знаков, слов), с каждым из которых определённым образом сопоставлено некоторое значение. В теории доказано, что таких сопоставлений может быть два. Первый вид соответствия определяет непосредственно материальный объект, который обозначает это слово и называется денотат (или, в некоторых работах, — номинат). Второй вид соответствия определяет смысл знака (слова) и называется концепт. При этом исследуются такие свойства сопоставлений как «смысл», «истинность», «определимость», «следование», «интерпретация» и др. Для исследований используется аппарат математической логики и математической лингвистики.

Идеи семантики, намеченные ещё Г. В. Лейбницем и Ф. де Соссюром в XIX веке, сформулировали и развили Ч. Пирс (1839—1914), Ч. Моррис (1901—1979), Р. Карнап (1891—1970) и др.

Основным достижением теории является создание аппарата семантического анализа, позволяющего представить смысл текста на естественном языке в виде записи на некотором формализованном семантическом (смысловом) языке.

Семантический анализ является основой для создания устройств (программ) машинного перевода с одного естественного языка на другой.

В юриспруденции

Любые сведения, сообщения, данные, независимо от их оформления, являются информацией — материальным или нематериальным объектом, участвующим в любых отношениях. Развитие технологических возможностей переработки и передачи информации выделило её в самостоятельный предмет производственных, управленческих, идеологических и личных отношений. Информация стала товаром, продукцией, предметом труда и объектом услуг. В системе правовых отношений её рассматривает информационное право. Некоторые международные правовые акты и законодательства ряда стран (в том числе России) провозглашают право человека на свободный поиск, получение, передачу, производство и распространение информации любым способом, не нарушающим законы[3].

В квантовой физике

Квантовая теория информации рассматривает общие закономерности передачи, хранения и преобразования информации в системах, изменяющихся по законам квантовой механики[54].

Измерение информации

Измерения в байтах
ГОСТ 8.417—2002 Приставки СИ Приставки МЭК
Название Обозначение Степень Название Степень Название Обозначение Степень
байт Б 100 100 байт B Б 20
килобайт Кбайт 103 кило- 103 кибибайт KiB КиБ 210
мегабайт Мбайт 106 мега- 106 мебибайт MiB МиБ 220
гигабайт Гбайт 109 гига- 109 гибибайт GiB ГиБ 230
терабайт Тбайт 1012 тера- 1012 тебибайт TiB ТиБ 240
петабайт Пбайт 1015 пета- 1015 пебибайт PiB ПиБ 250
эксабайт Эбайт 1018 экса- 1018 эксбибайт EiB ЭиБ 260
зеттабайт Збайт 1021 зетта- 1021 зебибайт ZiB ЗиБ 270
йоттабайт Ибайт 1024 йотта- 1024 йобибайт YiB ЙиБ 280
роннабайт - 1027 ронна- 1027 - - - -
кветтабайт - 1030 кветта- 1030 - - - -

Пионером в области информационной теории был Ральф Хартли. Он ввёл понятие «информации» (энтропии) как случайной переменной и был первым, кто попытался определить «меру информации».

Простейшей единицей измерения информации является бит — единица измерения количества информации, принимающая 2 логических значения: да или нет, истина или ложь, включено или выключено; 1 или 0 в двоичной системе счисления.

В современных вычислительных системах одномоментно обрабатываются 8 бит информации, называемые байтом. Байт может принимать одно из 256 (28) различных значений (состояний, кодов). Производные от байта десятичные единицы измерения, соответственно, именуются килобайт (103 = 1000 байт), мегабайт (106 = 1 000 000 байт), гигабайт (109 = 1 000 000 000 байт) и т. д.[55]

Производные от байта двоичные (бинарные) единицы измерения именуются кибибайт (210 = 1024 байт), мебибайт (220 = 1 048 576 байт), гибибайт (230 = 1 073 741 824 байт) и так далее[55].

Также, информацию измеряют такими единицами как трит, Хартдит (децит) и Нат.


Символ информации

Обычно[где?] информацию обозначают маленькой буквой i в кружочке

Символ Юникод Название
U+2139 information source
U+24D8 circled latin small letter i

Дезинформация

Дезинформацией (также дезинформированием) называется один из способов манипулирования информацией, как то введение кого-либо в заблуждение путём предоставления неполной информации или полной, но уже не нужной информации, или полной, но не в нужной области, искажения контекста, искажения части информации.

Цель такого воздействия всегда одна — оппонент должен поступить так, как это необходимо манипулятору. Поступок объекта, против которого направлена дезинформация, может заключаться в принятии нужного манипулятору решения или в отказе от принятия невыгодного для манипулятора решения. Но в любом случае конечная цель — это действие, которое будет предпринято.

См. также

Категория информации по отраслям знаний
В информатике
В общественных науках
В физиологии и медицине
В других областях

Примечания

Комментарии

  1. Такое определение распространено в тех областях, где данные и информация предстают в виде овеществлённых объектов: информационной науке, проектировании баз данных и информационных систем, теории принятия решений[36].

Источники

  1. Большая Советская Энциклопедия
  2. Когаловский М. Р. и др. Глоссарий по информационному обществу Архивная копия от 31 марта 2020 на Wayback Machine / Под общ. ред. Ю. Е. Хохлова. — М.: Институт развития информационного общества, 2009. — 160 с.
  3. 1 2 Информация в праве : [арх. 15 июня 2024] / И. Л. Бачило // Излучение плазмы — Исламский фронт спасения. — М. : Большая российская энциклопедия, 2008. — С. 495. — (Большая российская энциклопедия : [в 35 т.] / гл. ред. Ю. С. Осипов ; 2004—2017, т. 11). — ISBN 978-5-85270-342-2.
  4. ISO 5127:2017(en) Information and documentation — Foundation and vocabulary: data that are processed, organized and correlated to produce meaning
  5. ISO/IEC 10746-2:1996, Information technology — Open Distributed Processing — Reference Model: Foundations.3.2.5: knowledge that is exchangeable amongst users about things, facts, concepts, and so on, in a universe of discourse
  6. ISO/IEC 2382:2015 Information technology — Vocabulary Архивная копия от 17 июня 2016 на Wayback Machine: knowledge concerning objects, such as facts, events, things, processes, or ideas, including concepts, that within a certain context has a particular meaning
  7. ГОСТ 7.0-99 Архивная копия от 2 апреля 2015 на Wayback Machine Информационно-библиотечная деятельность, библиография. Термины и определения
  8. ISO/IEC/IEEE 24765:2010 Systems and software engineering — Vocabulary Архивная копия от 17 июня 2016 на Wayback Machine: Although information will necessarily have a representation form to make it communicable, it is the interpretation of this representation (the meaning) that is relevant in the first place
  9. Информация // Большой Энциклопедический словарь. — 2000. // Большой энциклопедический словарь / 2-е изд., перераб. и доп. — М.: Большая Российская энциклопедия, 2000. — 1434 с.
  10. Информация // Казахстан. Национальная энциклопедия. — Алматы: Қазақ энциклопедиясы, 2005. — Т. II. — ISBN 9965-9746-3-2. (CC BY-SA 3.0)
  11. Хургин, 2007.
  12. 1 2 3 Hjørland, Birger. Information // ISKO Encyclopedia of Knowledge Organization.
  13. 1 2 3 4 Pieter Adriaans. Information // The Stanford Encyclopedia of Philosophy / Edward N. Zalta, Uri Nodelman. — Metaphysics Research Lab, Stanford University, 2024.
  14. 1 2 3 4 5 John Durham Peters. Information: Notes Toward a Critical History (англ.) // Journal of Communication Inquiry. — 1988. — Vol. 12, iss. 2. — P. 9–23. — ISSN 0196-8599. — doi:10.1177/019685998801200202.
  15. 1 2 Rafael Capurro. Past, present, and future of the concept of information (англ.) // tripleC: Communication, Capitalism & Critique. Open Access Journal for a Global Sustainable Information Society. — 2009. — Vol. 7, iss. 2. — P. 125–141. — ISSN 1726-670X. — doi:10.31269/vol7iss2pp125-141.
  16. Бэкон Ф. Великое Восстановление Наук // Сочинения в двух томах. — 2-е испр. и доп. изд. — М.: Мысль, 1977. — Т. 1. — С. 72. — (Философское наследие).
  17. Джон Локк. Опыт о человеческом разумении.
  18. 1 2 P. Adriaans, J. van Benthem. Introduction: Information is what information does // Philosophy of information (англ.). — Amsterdam: North Holland, 2008. — ISBN 978-0-444-51726-5.
  19. 1 2 3 Philosophy of Information. — Elsevier, 2008. — ISBN 978-0-444-51726-5.
  20. Гоулднер А. Наступающий кризис западной социологии. — Наука, 2003. — С. 550.
  21. Серто М. де. Изобретение повседневности. — Издательство Европейского университета в Санкт-Петербурге, 2013. — С. 281.
  22. 1 2 3 Geoffrey Nunberg. Farewell to the Information Age // The future of the book (англ.). — Berkeley: University of California Press, 1996. — P. 103—138. — ISBN 978-0-520-20451-5, 978-0-520-20450-8.
  23. Claude E. Shannon, Warren Weaver. The Mathematical Theory of Communication. — University of Illinois Press, 1949. — 148 с. — ISBN 978-0-252-72548-7.
  24. 1 2 3 Gernot Wersig. Information theory // International encyclopedia of information and library science (англ.) / John Feather, Rodney P. Sturges. — 2. ed. — London: Routledge, 2003. — 688 p. — ISBN 978-0-415-25901-9.
  25. Lars Qvortrup. The Controversy over the Concept of Information. An Overview and a Selected and Annotated Bibliography (англ.) // Cybernetics & Human Knowing. — 1993. — Vol. 1, no. 4.
  26. Birger Hjørland. Information: Objective or subjective/situational? (англ.) // Journal of the American Society for Information Science and Technology. — 2007. — Vol. 58, iss. 10. — P. 1448–1456. — ISSN 1532-2882. — doi:10.1002/asi.20620.
  27. Yehoshua Bar-Hillel, Rudolf Carnap. SEMANTIC INFORMATION (англ.) // The British Journal for the Philosophy of Science. — 1953. — Vol. 4, iss. 14. — P. 147–157. — ISSN 0007-0882. — doi:10.1093/bjps/IV.14.147.
  28. Rafael Capurro, Birger Hjørland. The concept of information (англ.) // Annual Review of Information Science and Technology. — 2003. — Vol. 37, iss. 1. — P. 343–411. — ISSN 0066-4200. — doi:10.1002/aris.1440370109.
  29. Мартин Хайдеггер. Конец философии и задача мышления // Vox. Философский журнал. — 2008. — № 5.
  30. Machlup, F. Semantic quirks in studies of information // The Study of Information: Interdisciplinary Messages (англ.). — Wiley, 1983. — P. 641—671. — ISBN 978-0-471-88717-1.
  31. Goguen, J. A. Towards a Social, Ethical Theory of Information // Social Science, Technical Systems, and Cooperative Work: Beyond the Great Divide (англ.). — Psychology Press, 1997. — P. 27—56. — ISBN 978-1-317-77875-2.
  32. 1 2 Michael Buckland. Information and Information Systems (англ.). — Bloomsbury Publishing USA, 1991. — ISBN 978-0-313-39041-8.
  33. Bogdan, Radu J. Information // Handbook of metaphysics and ontology (англ.) / Hans Burkhardt and Barry Smith. — München: Philosophia, 1991. — P. 394. — (Analytica). — ISBN 978-3-88405-080-4.
  34. Wersig, G. and Neveling, U. The phenomena of interest to Information Science (англ.) // Information Scientist. — 1975. — Vol. 9, no. 4. — P. 127–40.
  35. Peter Fleissner, Wolfgang Hofkirchner. In-formatio revisited (нем.) // Informatik Forum. — 1995. — Bd. 8, Nr. 3.
  36. Luciano Floridi. Is Semantic Information Meaningful Data? (англ.) // Philosophy and Phenomenological Research. — 2005. — Vol. 70, iss. 2. — P. 351–370. — ISSN 0031-8205. — doi:10.1111/j.1933-1592.2005.tb00531.x.
  37. Michael K. Buckland. Information as thing (англ.) // Journal of the American Society for Information Science. — 1991. — Vol. 42, iss. 5. — P. 351–360. — ISSN 0002-8231. — doi:10.1002/(SICI)1097-4571(199106)42:5<351::AID-ASI5>3.0.CO;2-3.
  38. Грегори Бейтсон. Шаги в направлении экологии разума: избранные статьи по теории эволюции и эпистемологии. — Изд. 2-е, испр. и доп. — Москва: Ленанд, 2005. — ISBN 978-5-484-00228-3.
  39. Benny Karpatschof. Human Activity: Contributions to the Anthropological Sciences from a Perspective of Activity Theory (англ.). — Dansk psykologisk Forlag, 2000. — 536 p. — ISBN 978-87-7706-311-4.
  40. Кастлер Г. Возникновение биологической организации = The Emergence of Biological Organization. — М.: Мир, 1967.
  41. Информационный подход в междисциплинарной перспективе // «Вопросы философии».[1] Архивная копия от 9 октября 2015 на Wayback Machine
  42. Амосов Н. М. Моделирование сложных систем. — Киев: Наукова думка, 1968. — 88 с. — 20 000 экз.
  43. 1 2 Информация в математике : [арх. 3 января 2023] / Ю. В. Прохоров // Излучение плазмы — Исламский фронт спасения. — М. : Большая российская энциклопедия, 2008. — (Большая российская энциклопедия : [в 35 т.] / гл. ред. Ю. С. Осипов ; 2004—2017, т. 11). — ISBN 978-5-85270-342-2.
  44. Захаров В. П. Информационные системы (документальный поиск): Учебное пособие / В. П. Захаров. — СПб.: СПб.гос университет, 2002. — 188 с.
  45. Информации теория : [арх. 6 декабря 2022] / Ю. В. Прохоров // Излучение плазмы — Исламский фронт спасения. — М. : Большая российская энциклопедия, 2008. — (Большая российская энциклопедия : [в 35 т.] / гл. ред. Ю. С. Осипов ; 2004—2017, т. 11). — ISBN 978-5-85270-342-2.
  46. Hartley, R.V.L., „Transmission of Information“ Архивная копия от 1 августа 2020 на Wayback Machine, Bell System Technical Journal, July 1928, pp. 535—563
  47. C. E. Shannon „A Mathematical Theory of Communication“ (Перевод в сборнике Шеннон К. „Работы по теории информации и кибернетике“. — М.: ИЛ, 1963. — 830 с., С. 243—322). Дата обращения: 24 марта 2015. Архивировано 13 мая 2015 года.
  48. Теория информации // «Энциклопедия Кругосвет».[2] Архивная копия от 23 марта 2009 на Wayback Machine
  49. Винер Н. Кибернетика, или управление и связь в животном и машине; или Кибернетика и общество/ 2-е издание. — М.: Наука; Главная редакция изданий для зарубежных стран, 1983. — 344 с.
  50. Боголюбов Н. Н., Гнеденко Б. В., Соболев С. Л. Андрей Николаевич Колмогоров (К восьмидесятилетию со дня рождения) /Пред. к книге: Колмогоров А. Н. Теория информации и теория алгоритмов. — М.: Наука, 1987. — Стр. 16. — 304 с.
  51. Колмогоров А. Н. Три подхода к определению понятия «Количество информации». — Проблемы передачи информации, 1965, т. 1, с. 3-11.
  52. Колмогоров А. Н. К логическим основам теории информации и теории вероятности. — Проблемы передачи информации, 1969, т. 5, с. 3-7.
  53. Колмогоров А. Н. Теория информации и теория алгоритмов. — М.: Наука, 1987. — Стр. 213—223, 232—237. — 304 с.
  54. Квантовая теория информации : [арх. 21 октября 2022] / А. С. Холево // Канцелярия конфискации — Киргизы. — М. : Большая российская энциклопедия, 2009. — (Большая российская энциклопедия : [в 35 т.] / гл. ред. Ю. С. Осипов ; 2004—2017, т. 13). — ISBN 978-5-85270-344-6.
  55. 1 2 International Standard IEC 80000-13 Quantities and Units — Part 13: Information science and technology, International Electrotechnical Commission (2008).

Литература

Ссылки