Информация: различия между версиями
[непроверенная версия] | [непроверенная версия] |
EyeBot (обсуждение | вклад) м автоматическая отмена правки участника 176.59.57.134 - R:1 ORES: 0.9562 Метка: откат |
Jet Jerry (обсуждение | вклад) убран вандализм |
||
(не показана 41 промежуточная версия 13 участников) | |||
Строка 1: | Строка 1: | ||
[[Файл:DNA translation example.jpg|мини|Схема [[генетический код|генетического кода]]]] |
|||
{{Врезка|Ширина=180px|Выравнивание=right||Содержание=Информация — это не материя и не энергия, информация — это информация.|Подпись=[[Норберт Винер]]<ref name="Винер">''[[Норберт Винер|Винер Н.]]'' Кибернетика, или управление и связь в животном и машине; или Кибернетика и общество/ 2-е издание. — М.: Наука; Главная редакция изданий для зарубежных стран, 1983. — 344 с.</ref>}} |
|||
[[File:DNA translation example.jpg|мини|Схема [[генетический код|генетического кода]]]] |
|||
В повседневной речи '''информа́ция''' (от {{lang-lat|[[wikt:informatio#Латинский|informātiō]]}} «представление, понятие о чём-либо» ← {{lang-lat2|[[wikt:en:informare#Latin|informare]]}} «придавать вид, формировать, изображать»<ref>{{Статья|ссылка=https://cyberleninka.ru/article/n/o-semanticheskoy-istorii-slova-informatsiya|автор=Крюкова О.|заглавие=О семантической истории слова "информация"|год=2019|издание=Социальные и гуманитарные науки. Отечественная и зарубежная литература. Сер. 6, Языкознание: Реферативный журнал|выпуск=3|страницы=143–148|issn=2219-8776}}</ref>) — это абстрактные осмысленные представления суждений о каком-либо объекте. Информация может передаваться, способна наделять знанием и обуславливать действия, обладать количественным измерением<ref>{{Статья|ссылка=https://linkinghub.elsevier.com/retrieve/pii/0306457385900032|автор=Richard L. Derr|заглавие=The concept of information in ordinary discourse|год=1985|язык=en|издание=Information Processing & Management|том=21|выпуск=6|страницы=489–499|doi=10.1016/0306-4573(85)90003-2}}</ref>. |
|||
'''Информа́ция''' (от {{lang-lat|[[wikt:informatio#Латинский|informātiō]]}} «разъяснение, представление, понятие о чём-либо» ← {{lang-lat2|[[wikt:en:informare#Latin|informare]]}} «придавать вид, форму, обучать; мыслить, воображать»<ref>Большая Советская Энциклопедия</ref>) — сведения (сообщения, данные) независимо от формы их представления<ref>''[[Когаловский, Михаил Рувимович|Когаловский М. Р.]] и др.'' [http://www.iis.ru/docs/is.glossary.2009.pdf Глоссарий по информационному обществу] {{Wayback|url=http://www.iis.ru/docs/is.glossary.2009.pdf |date=20200331134157 }} / Под общ. ред. Ю. Е. Хохлова. — М.: Институт развития информационного общества, 2009. — 160 с.</ref><ref name="БРЭ право"/>. |
|||
Смысл, вкладываемый в понятие информации, зависит от области применения. Не существует универсального определения, которое объединяло бы концепции информации из разных сфер деятельности. |
|||
В международных и российских стандартах даются следующие определения: |
В международных и российских стандартах даются следующие определения: |
||
* обработанные, организованные и связанные данные, которые порождают смысл (значение) (ISO 5127:2017)<ref>ISO 5127:2017(en) Information and documentation — Foundation and vocabulary: ''data that are processed, organized and correlated to produce meaning''</ref>; |
* обработанные, организованные и связанные данные, которые порождают смысл (значение) (ISO 5127:2017)<ref name=":8">ISO 5127:2017(en) Information and documentation — Foundation and vocabulary: ''data that are processed, organized and correlated to produce meaning''</ref>; |
||
* знания о предметах, фактах, идеях и т. д., которыми могут обмениваться люди в рамках конкретного контекста (ISO/IEC 10746-2:1996)<ref>ISO/IEC 10746-2:1996, Information technology — Open Distributed Processing — Reference Model: Foundations.3.2.5: ''knowledge that is exchangeable amongst users about things, facts, concepts, and so on, in a universe of discourse''</ref>; |
* знания о предметах, фактах, идеях и т. д., которыми могут обмениваться люди в рамках конкретного контекста (ISO/IEC 10746-2:1996)<ref>ISO/IEC 10746-2:1996, Information technology — Open Distributed Processing — Reference Model: Foundations.3.2.5: ''knowledge that is exchangeable amongst users about things, facts, concepts, and so on, in a universe of discourse''</ref>; |
||
* знания относительно фактов, событий, вещей, идей и понятий, которые в определённом контексте имеют конкретный смысл (ISO/IEC 2382:2015)<ref>[https://www.iso.org/obp/ui/#iso:std:iso-iec:2382:ed-1:v1:en ISO/IEC 2382:2015 Information technology — Vocabulary] {{Wayback|url=https://www.iso.org/obp/ui/#iso:std:iso-iec:2382:ed-1:v1:en |date=20160617031837 }}: ''knowledge concerning objects, such as facts, events, things, processes, or ideas, including concepts, that within a certain context has a particular meaning''</ref>; |
* знания относительно фактов, событий, вещей, идей и понятий, которые в определённом контексте имеют конкретный смысл (ISO/IEC 2382:2015)<ref>[https://www.iso.org/obp/ui/#iso:std:iso-iec:2382:ed-1:v1:en ISO/IEC 2382:2015 Information technology — Vocabulary] {{Wayback|url=https://www.iso.org/obp/ui/#iso:std:iso-iec:2382:ed-1:v1:en |date=20160617031837 }}: ''knowledge concerning objects, such as facts, events, things, processes, or ideas, including concepts, that within a certain context has a particular meaning''</ref>; |
||
* сведения, воспринимаемые человеком и (или) специальными устройствами как отражение фактов материального или духовного мира в процессе коммуникации (ГОСТ 7.0-99)<ref>[http://www.docload.ru/Basesdoc/33/33922/index.htm#i222082 ГОСТ 7.0-99] {{Wayback|url=http://www.docload.ru/Basesdoc/33/33922/index.htm#i222082 |date=20150402140019 }} Информационно-библиотечная деятельность, библиография. Термины и определения</ref>. |
* сведения, воспринимаемые человеком и (или) специальными устройствами как отражение фактов материального или духовного мира в процессе коммуникации (ГОСТ 7.0-99)<ref>[http://www.docload.ru/Basesdoc/33/33922/index.htm#i222082 ГОСТ 7.0-99] {{Wayback|url=http://www.docload.ru/Basesdoc/33/33922/index.htm#i222082 |date=20150402140019 }} Информационно-библиотечная деятельность, библиография. Термины и определения</ref>. |
||
Хотя информация должна обрести некоторую форму представления (то есть превратиться в [[данные]]), чтобы |
Хотя информация должна обрести некоторую форму представления (то есть превратиться в [[данные]]), чтобы ей можно было обмениваться, информация есть, в первую очередь, интерпретация (смысл) такого представления (ISO/IEC/IEEE 24765:2010)<ref name="ISO/IEC/IEEE 24765:2010">[https://www.iso.org/obp/ui/#iso:std:iso-iec-ieee:24765:ed-1:v1:en ISO/IEC/IEEE 24765:2010 Systems and software engineering — Vocabulary] {{Wayback|url=https://www.iso.org/obp/ui/#iso:std:iso-iec-ieee:24765:ed-1:v1:en |date=20160617031837 }}: ''Although information will necessarily have a representation form to make it communicable, it is the interpretation of this representation (the meaning) that is relevant in the first place''</ref>. Поэтому в строгом смысле ''информация'' отличается от ''данных'', хотя в неформальном контексте эти два термина очень часто используют как синонимы. |
||
Первоначально «информация» — сведения, передаваемые людьми устным, письменным или каким-либо другим способом (с помощью условных [[сигнал]]ов, технических средств и т. д.); с середины |
Первоначально «информация» — сведения, передаваемые людьми устным, письменным или каким-либо другим способом (с помощью условных [[сигнал]]ов, технических средств и т. д.); с середины ХХ века термин «информация» превратился в общенаучное понятие, включающее обмен сведениями между людьми, человеком и [[Автоматон|автоматом]], автоматом и автоматом; обмен сигналами в животном и растительном мире; передачу признаков от [[Клетка|клетки]] к клетке, от организма к организму (например, [[генетическая информация]]); одно из основных понятий [[кибернетика|кибернетики]]<ref>{{книга|заглавие=Большой Энциклопедический словарь|часть=Информация|год=2000|автор=|язык=ru}} // [[Большой энциклопедический словарь]] / 2-е изд., перераб. и доп. — М.: [[Большая Российская энциклопедия (издательство)|Большая Российская энциклопедия]], 2000. — 1434 с.</ref>. |
||
В современных производных терминах, таких как [[информатика]], ''информатизация'', подразумевается уже не просто приобщение к обмену сведениями, но и оснащение новейшими технологиями — [[ИТ]]. |
В современных производных терминах, таких, как [[информатика]], ''информатизация'', подразумевается уже не просто приобщение к обмену сведениями, но и оснащение новейшими технологиями — [[ИТ]]. |
||
Несмотря на широкую распространённость, понятие информации остаётся одним из самых дискуссионных в науке, а термин может иметь различные значения в разных отраслях человеческой деятельности<ref>{{Из КНЭ|2|485|Информация}}</ref>, так, академик [[Моисеев, Никита Николаевич|Н. Н. Моисеев]] даже полагал, что в силу широты этого понятия нет и не может быть строгого и достаточно универсального определения информации{{sfn|Хургин|2007}}. |
|||
== История понятия == |
== История понятия == |
||
=== До XX века === |
|||
В представлении античных философов вся [[Субстрат (философия)|материя]] существовала в виде [[Стихии (философия)|четырёх элементов]]: воды, земли, воздуха и огня. Соответственно, свойства всех вещей были определены той [[Форма (философия)|формой]], в которую материя соединена<ref name=":7">{{Статья|ссылка=https://www.isko.org/cyclo/information|автор=Hjørland, Birger|заглавие=Information|издание=ISKO Encyclopedia of Knowledge Organization}}</ref>. {{Lang-la2|Informatio}} — «формирование» — понималось как процесс, в результате которого идея получает воплощение: при наблюдении за лошадью в сознании образуется идея о ней; процесс обучения создаёт ученика; художник изготавливает скульптуру, придавая желаемую форму куску мрамора<ref name=":0">{{Статья|ссылка=https://plato.stanford.edu/archives/sum2024/entries/information/|автор=Pieter Adriaans|заглавие=Information|год=2024|ответственный=Edward N. Zalta, Uri Nodelman|издание=The Stanford Encyclopedia of Philosophy|издательство=Metaphysics Research Lab, Stanford University}}</ref>. Историк {{Iw|Джон Дарем Питерс|4=John Durham Peters}} предлагает передавать эту концепцию термином «морфогенезис»<ref name=":4">{{Статья|ссылка=http://journals.sagepub.com/doi/10.1177/019685998801200202|автор=John Durham Peters|заглавие=Information: Notes Toward a Critical History|год=1988|язык=en|издание=Journal of Communication Inquiry|том=12|выпуск=2|страницы=9–23|issn=0196-8599|doi=10.1177/019685998801200202}}</ref>. Слово {{Lang-la2|informatio}} использовалось [[Цицерон]]ом и [[Аврелий Августин|Августином]] при переводе на латынь таких понятий [[Древнегреческая философия|греческой философии]], как [[эйдос]], [[идея]], форма, [[пролепсис]]<ref name=":5">{{Статья|ссылка=https://www.triple-c.at/index.php/tripleC/article/view/113|автор=Rafael Capurro|заглавие=Past, present, and future of the concept of information|год=2009|язык=en|издание=tripleC: Communication, Capitalism & Critique. Open Access Journal for a Global Sustainable Information Society|том=7|выпуск=2|страницы=125–141|issn=1726-670X|doi=10.31269/vol7iss2pp125-141}}</ref>. [[Фома Аквинский]] использует для описания [[гилеморфизм]]а словосочетание {{Lang-la2|informatio materiae}} («формирование материи»)<ref name=":0" />. |
|||
Со Средних веков слово «информация» в европейских языках используют в отношении человека образованного, имеющего отношение к науке<ref name=":0" />. |
|||
Исчезновение концепции морфогенезиса из философского дискурса связано с развитием [[эмпиризм]]а, не допускающего существования форм за пределами чувственного восприятия. [[Бэкон, Фрэнсис|Фрэнсис Бэкон]] критикует [[Диалектика#Диалектика в Средние века|диалектиков]], которые «успокаиваются на непосредственных данных ({{Lang-la2|informationibus}}) хорошо расположенного чувства»<ref>{{Книга|ссылка=|автор=Бэкон Ф.|заглавие=Сочинения в двух томах|год=1977|часть=Великое Восстановление Наук|издание=2-е испр. и доп. изд|место=М.|издательство=Мысль|том=1|страницы=72|серия=Философское наследие}}</ref><ref name=":4" />. Обращаясь к наследию [[Платон]]а, [[Джон Локк]] использует слово «идея» «для выражения того, что подразумевают под словами „фантом“, „понятие“, „вид“, или всего, чем может быть занята душа во время мышления»<ref>{{Книга|автор=[[Джон Локк]]|заглавие=[[Опыт о человеческом разумении]]}}</ref><ref name=":3">{{Книга|ссылка=|автор=P. Adriaans, J. van Benthem|заглавие=Philosophy of information|год=2008|часть=Introduction: Information is what information does|ссылка часть=http://www.illc.uva.nl/Publications/ResearchReports/X-2008-10.text.pdf|язык=en|место=Amsterdam|издательство=North Holland|isbn=978-0-444-51726-5}}</ref>. Для эмпириков поток идей был сырым материалом, на основании которого может быть построено знание, для [[Рационализм (философия)|рационалистов]] — покровом иллюзий, стоящим на пути разума<ref name=":4" />. |
|||
Понятие информации как сведений, подлежащих хранению и передаче, возникает в XIX веке<ref name=":0" />. Если для эмпириков информация была связана с чувственным опытом, то с появлением [[Статистика|статистики]]{{efn|Первоначально статистикой называли сведения об экономическом и демографическом состоянии государств ({{Lang-la|status}}).}} и ростом государственной бюрократии она стала подразумевать знание за пределами опыта конкретного индивида<ref name=":4" />. Такой смысловой переход также связывают с развитием способов коммуникации: массовый выпуск газет, словарей, энциклопедий, [[История почты#Новое время|распространение почтовых услуг]], изобретение [[телеграф]]а и [[телефон]]а привели к восприятию информации как самостоятельного явления, представленного в конкретной форме и обладающего истинностью. Понятие стало относиться не к знаниям, а к определённому способу их приобретения — утверждениям, объективность которых проистекает из факта их публикации в книге или ином авторитетном источнике<ref name=":1">{{Статья|ссылка=https://linkinghub.elsevier.com/retrieve/pii/B9780444517265500212|автор=Keith Devlin, Duska Rosenberg|заглавие=INFORMATION IN THE STUDY OF HUMAN INTERACTION|год=2008|язык=en|издание=Philosophy of Information|издательство=Elsevier|страницы=685–709|isbn=978-0-444-51726-5|doi=10.1016/b978-0-444-51726-5.50021-2}}</ref>. Как отмечает социолог [[Гоулднер, Алвин Уорд|Алвин Уорд Гоулднер]], знание в виде информации — «это скорее атрибут культуры, чем личности; его значение, его отыскание и его последствия — всё является деперсонализованным… Культура может помогать или препятствовать осознанию, но культура сама по себе не может осознавать»<ref>{{Книга|автор=Гоулднер А.|заглавие=Наступающий кризис западной социологии|год=2003|издательство=Наука|страницы=550}}</ref>. По мнению [[Серто, Мишель де|Мишеля де Серто]], переход читателя в положение пассивного потребителя стал шагом в развитии идей Просвещения о преобразовании общества посредством популяризации знания<ref>{{Книга|ссылка=|автор={{nobr|Серто М. де}}|заглавие=Изобретение повседневности|год=2013|издательство=Издательство Европейского университета в Санкт-Петербурге|страницы=281}}</ref><ref name=":2" />. |
|||
=== Математическая теория информации === |
|||
[[Файл:Shannon-Weaver model of communication.svg|мини|upright=1.6|[[Шумовая модель коммуникации Шеннона — Уивера|Модель коммуникации Шеннона — Уивера]]]] |
|||
В середине XX века слово «информация» приобретает новый смысл, связанный с понятием [[Энтропия|энтропии]]. В 1948 году выходит книга [[Винер, Норберт|Норберта Винера]] «[[Кибернетика, или управление и связь в животном и машине]]», где об информации говорится как о третьем фундаментальном понятии природы наряду с материей и энергией. В то же время [[Шеннон, Клод|Клод Шеннон]], развивая идеи [[Найквист, Гарри|Гарри Найквиста]] и [[Хартли, Ральф|Ральфа Хартли]], вводит понятие [[бит]]а как единицы измерения [[Количество информации|количества информации]]. Рассматривая проблему оптимизации передачи сигнала по каналу связи, он предлагает [[Шумовая модель коммуникации Шеннона — Уивера|свою модель коммуникации]], будучи уверенным в том, что «[[Семантическая информация|семантические]] аспекты связи не имеют отношения к инженерной стороне вопроса»<ref name=":7" />. {{Iw|Уоррен Уивер|4=Warren Weaver}} уточняет, что в рамках их теории слово «информация» используется не в общепринятом значении, а как характеристика передаваемого сигнала, не подразумевающая наличия смысла.<ref>{{Книга|ссылка=https://books.google.ru/books/about/The_Mathematical_Theory_of_Communication.html?id=dk0n_eGcqsUC&redir_esc=y|автор=Claude E. Shannon, Warren Weaver|заглавие=The Mathematical Theory of Communication|год=1949|издательство=University of Illinois Press|страниц=148|isbn=978-0-252-72548-7}}</ref><ref name=":2" /><ref name=":6">{{Книга|автор=Gernot Wersig|заглавие=International encyclopedia of information and library science|ответственный=John Feather, Rodney P. Sturges|год=2003|часть=Information theory|язык=en|издание=2. ed|место=London|издательство=Routledge|страниц=688|isbn=978-0-415-25901-9}}</ref> Такое понимание термина ложится в основу таких концепций, как [[обработка информации]] и [[информационные технологии]]<ref name=":1" />. |
|||
{{Iw|Ларс Квортруп|3=da|4=Lars Qvortrup}} отмечает, что информация в теории Шеннона и Уивера описывается противоречиво: и как объективная количественная величина, и как субъективный выбор отправителя сообщения<ref>{{Статья|автор=Lars Qvortrup|заглавие=The Controversy over the Concept of Information. An Overview and a Selected and Annotated Bibliography|год=1993|язык=en|издание=Cybernetics & Human Knowing|том=1|номер=4}}</ref><ref>{{Статья|ссылка=https://onlinelibrary.wiley.com/doi/10.1002/asi.20620|автор=Birger Hjørland|заглавие=Information: Objective or subjective/situational?|год=2007|язык=en|издание=Journal of the American Society for Information Science and Technology|том=58|выпуск=10|страницы=1448–1456|issn=1532-2882|doi=10.1002/asi.20620}}</ref>. С точки зрения [[Семиотика|семиотики]], [[Теория информации|математическая теория информации]] описывает только [[синтаксис]] (взаимосвязь знаков между собой), но не касается [[Семантика|семантики]] (связи знаков и смысла) и [[Прагматика|прагматики]] (связи знаков и людей).<ref name=":6" /> Философ {{Iw|Петер Яних|3=de|4=Peter Janich}} видит в этом влияние идей семиотика [[Моррис, Чарлз Уильям|Чарлза Морриса]], который считал, что решение проблем синтаксиса создаст предпосылки для решения проблем семантики и прагматики<ref>{{Книга|автор=Peter Janich|заглавие=Was ist Information? Kritik einer Legende|год=2006|язык=de|издание=|место=Frankfurt am Main|издательство=Suhrkamp|isbn=978-3-518-58470-5}}</ref>. В 1952 году семантическая теория информации была представлена [[Бар-Хиллел, Йегошуа|Йегошуа Бар-Хиллелом]] и [[Карнап, Рудольф|Рудольфом Карнапом]]<ref>{{Статья|ссылка=https://www.journals.uchicago.edu/doi/10.1093/bjps/IV.14.147|автор=Yehoshua Bar-Hillel, Rudolf Carnap|заглавие=SEMANTIC INFORMATION|год=1953|язык=en|издание=The British Journal for the Philosophy of Science|том=4|выпуск=14|страницы=147–157|issn=0007-0882|doi=10.1093/bjps/IV.14.147}}</ref>. В 1980-е годы теория Шеннона разрабатывается [[Дрецке, Фред|Фредом Дрецке]] с точки зрения [[Эпистемология|эпистемологии]] и {{Iw|Барвайз, Джон|Джоном Барвайзом|4=Jon Barwise}} и {{Iw|Перри, Джон (философ)|Джоном Перри|4=John Perry (philosopher)}} в рамках [[Философия языка|философии языка]]<ref name=":3" /><ref name=":5" />. Теории семантической информации проводят разграничение между [[Данные|данными]] (последовательностью звуков или символов) и их смысловым содержанием<ref name=":10">{{Статья|ссылка=https://asistdl.onlinelibrary.wiley.com/doi/10.1002/aris.2010.1440440111|автор=Jonathan Furner|заглавие=Philosophy and information studies|год=2010|язык=en|издание=Annual Review of Information Science and Technology|том=44|выпуск=1|страницы=159–200|issn=0066-4200|doi=10.1002/aris.2010.1440440111}}</ref>. |
|||
=== Дальнейшее распространение термина === |
|||
С распространением вычислительной техники математическая теория информации оказывает большое влияние на другие сферы деятельности, которые в послевоенные годы всё больше перенимают [[Позитивизм|позитивистские]] методы естественных наук.<ref name=":6" /> Во второй половине XX века закрепляется понимание информации как абстрактного явления, существующего в отрыве от её истинности и конкретной формы представления<ref name=":1" />. Лингвист {{Iw|Джеффри Нанберг|4=Geoffrey Nunberg}} отмечал, что связанная с современными технологиями концепция начинает ретроактивно применяться по отношению к событиям прошлого: «Нас убеждают, что передаваемая компьютерами субстанция — „информация“ в техническом смысле — по сути то же, что привело к [[Реформация|Реформации]] и [[Великая французская революция|Французской революции]]»<ref name=":2">{{Книга|ссылка=https://archive.org/details/futureofbook0000unse/|автор=Geoffrey Nunberg|заглавие=The future of the book|ответственный=|год=1996|часть=Farewell to the Information Age|ссылка часть=https://citeseerx.ist.psu.edu/document?repid=rep1&type=pdf&doi=a5fc3ec302dd3fe2a7cfb1a78346c2ed23d7d888|язык=en|место=Berkeley|издательство=University of California Press|страницы=103—138|страниц=|isbn=978-0-520-20451-5, 978-0-520-20450-8}}</ref>. |
|||
В терминах работы с информацией начинают определять себя такие сферы деятельности, как [[информатика]], [[электротехника]], [[библиотековедение]], [[психолингвистика]], [[менеджмент]], [[экономика]], [[журналистика]], [[коммуникативистика]]<ref name=":4" />. С [[Когнитивная революция|когнитивной революцией]] эта концепция занимает центральное место в [[Психология|психологии]], где начинает доминировать [[Функционализм (философия сознания)|функционализм]], рассматривающий сознание по аналогии с обработкой информации вычислительными машинами. За дисциплиной, прежде известной как документалистика, закрепляется название «[[информационная наука]]».<ref>{{Статья|ссылка=https://www.capurro.de/Capurro_Hjoerland.pdf|автор=Rafael Capurro, Birger Hjørland|заглавие=The concept of information|год=2003|язык=en|издание=Annual Review of Information Science and Technology|том=37|выпуск=1|страницы=343–411|issn=0066-4200|doi=10.1002/aris.1440370109}}</ref> В 1964 году [[Хайдеггер, Мартин|Мартин Хайдеггер]] говорил о том, что науки «начинают определяться и направляться новой основной наукой» — [[Кибернетика|кибернетикой]], которая «преображает речь в обмен сообщениями», а «искусства становятся направленно-направляющими инструментами [передачи] информации»<ref>{{Статья|ссылка=https://vox-journal.org/content/vox5haidegger.pdf|автор=Мартин Хайдеггер|заглавие=Конец философии и задача мышления|год=2008|издание=Vox. Философский журнал|номер=5}}</ref>. В опубликованной в 1983 году работе экономиста [[Махлуп, Фриц|Фрица Махлупа]] отмечается, что представители [[Гуманитарные науки|гуманитарных наук]] используют в своих теориях общепринятое определение информации, накладывая на него для своих нужд некоторые ограничения: «Требование истинности или правильности должно исключить ложные или неправильные сообщения; требование ценности или полезности должно исключить сообщения, бесполезные для принятия решений; требование новизны должно исключить повторные или избыточные сообщения; требование неожиданности должно исключить сообщения, ожидаемые получателем; требование уменьшения неопределенности должно исключить сообщения, которые не меняют или увеличивают состояние неопределенности получателя; и так далее… Специалисты в ряде дисциплин… ввели удобные для своих целей ограничения, осложнив для неспециалистов понимание того, что имеется в виду». Использование термина «информация» в контекстах, не подразумевающих наличие разумного получателя, Махлуп считает метафорическим (когда речь идёт о биологических системах или группах организмов) или просто некорректным (когда речь идёт о воздействии на механизм или коммуникациях)<ref>{{Книга|ссылка=|автор=Machlup, F.|заглавие=The Study of Information: Interdisciplinary Messages|год=1983|часть=Semantic quirks in studies of information|язык=en|издательство=Wiley|страницы=641—671|isbn=978-0-471-88717-1}}</ref>. |
|||
Понятие [[Информационная экономика|информационной экономики]] закрепилось в связи с опубликованной в 1977 году одноимённой работой {{Iw|Порат, Марк|Марка Пората|4=Marc Porat}} и Майкла Рубина. Они обосновывали предложенную ранее Махлупом идею о переходе экономики развитых стран от промышленного производства к [[Экономика знаний|знаниям]], оценивая [[Четвертичный сектор экономики|четвертичный сектор]] в 46 % [[Валовой национальный доход|ВНД]] [[Экономика США|США]]<ref name=":9" /><ref>{{Книга|ссылка=https://www.degruyter.com/document/doi/10.1515/9783110236101/html|автор=Frank Linde, Wolfgang Stock|заглавие=Information Markets: A Strategic Guideline for the I-Commerce|год=2011|язык=en|издательство=DE GRUYTER SAUR|isbn=978-3-11-023609-5}}</ref>. По мнению историка {{Iw|Бенигер, Джеймс|Джеймса Бенигера|4=James R. Beniger}}, парадигмы кибернетики и математической теории информации помогли решить вызванный [[Индустриализация|индустриализацией]] кризис управления производством, распространением и потреблением товаров. Распространение новых технологий обработки и передачи информации обусловило переход от [[Индустриальное общество|индустриального общества]] к [[Информационное общество|информационному]]<ref>{{Книга|автор=James R. Beniger|заглавие=The control revolution: technological and economic origins of the information society|год=1986|язык=en|место=Cambridge, Mass|издательство=Harvard University Press|страниц=493|isbn=978-0-674-16985-2}}</ref>. |
|||
== Суть и границы явления == |
|||
{{Врезка |
{{Врезка |
||
|содержание=Утверждается, что мы живём в эпоху информации, но при этом очевиден возмутительный факт: у нас нет ни теории, ни даже определения информации, которое было бы достаточно широким и чётким, чтобы придать этому утверждению смысл. |
|содержание=Утверждается, что мы живём в [[Информационная эра|эпоху информации]], но при этом очевиден возмутительный факт: у нас нет ни теории, ни даже определения информации, которое было бы достаточно широким и чётким, чтобы придать этому утверждению смысл. |
||
|оригинал=It is said that we live in an "Age of Information," but it is an open scandal that there is no theory, nor even definition, of information that is both broad and precise enough to make such an assertion meaningful. |
|оригинал=It is said that we live in an "Age of Information," but it is an open scandal that there is no theory, nor even definition, of information that is both broad and precise enough to make such an assertion meaningful. |
||
|источник оригинала=<ref>{{Книга|ссылка=|автор=Goguen, J. A.|заглавие=Social Science, Technical Systems, and Cooperative Work: Beyond the Great Divide|год=1997|часть=Towards a Social, Ethical Theory of Information|ссылка часть=https://cseweb.ucsd.edu/~goguen/ps/sti.pdf|язык=en|издательство=Psychology Press|страницы=27—56|страниц=|isbn=978-1-317-77875-2}}</ref> |
|источник оригинала=<ref>{{Книга|ссылка=|автор=Goguen, J. A.|заглавие=Social Science, Technical Systems, and Cooperative Work: Beyond the Great Divide|год=1997|часть=Towards a Social, Ethical Theory of Information|ссылка часть=https://cseweb.ucsd.edu/~goguen/ps/sti.pdf|язык=en|издательство=Psychology Press|страницы=27—56|страниц=|isbn=978-1-317-77875-2}}</ref> |
||
|язык оригинала=en |
|язык оригинала=en |
||
|ширина= |
|макс. ширина=24em|автор={{iw|Джозеф Гоген|||Joseph Goguen}}}} |
||
{{Врезка |
|||
В античной философии {{Lang-la2|informatio}} — «формирование» — понималось как процесс, в результате которого идея получает воплощение: при наблюдении за лошадью в сознании формируется идея о ней; процесс обучения создаёт ученика; художник делает скульптуру, придавая желаемую форму куску мрамора<ref name=":0">{{Статья|ссылка=https://plato.stanford.edu/archives/sum2024/entries/information/|автор=Pieter Adriaans|заглавие=Information|год=2024|ответственный=Edward N. Zalta, Uri Nodelman|издание=The Stanford Encyclopedia of Philosophy|издательство=Metaphysics Research Lab, Stanford University}}</ref>. Историк {{Iw|Джон Дарем Питерс|4=John Durham Peters}} предлагает передавать это понятие термином «морфогенезис»<ref name=":4">{{Статья|ссылка=http://journals.sagepub.com/doi/10.1177/019685998801200202|автор=John Durham Peters|заглавие=Information: Notes Toward a Critical History|год=1988|язык=en|издание=Journal of Communication Inquiry|том=12|выпуск=2|страницы=9–23|issn=0196-8599|doi=10.1177/019685998801200202}}</ref>. Слово {{Lang-la2|informatio}} использовалось [[Цицерон]]ом и [[Аврелий Августин|Августином]] при переводе на латынь таких понятий [[Древнегреческая философия|греческой философии]], как [[эйдос]], [[идея]], [[Форма (философия)|форма]], [[пролепсис]]<ref name=":5">{{Статья|ссылка=https://www.triple-c.at/index.php/tripleC/article/view/113|автор=Rafael Capurro|заглавие=Past, present, and future of the concept of information|год=2009|язык=en|издание=tripleC: Communication, Capitalism & Critique. Open Access Journal for a Global Sustainable Information Society|том=7|выпуск=2|страницы=125–141|issn=1726-670X|doi=10.31269/vol7iss2pp125-141}}</ref>. [[Фома Аквинский]] использует для описания [[гилеморфизм]]а словосочетание {{Lang-la2|informatio materiae}} («формирование материи»)<ref name=":0" />. |
|||
|содержание=Слово «информация» получило множество определений от различных авторов в рамках теории информации… Едва ли следует ожидать, что единое понятие информации сможет удовлетворить все потребности этой дисциплины. |
|||
|оригинал=The word «information» has been given many different meanings by various writers in the general field of information theory… It is hardly to be expected that a single concept of information would satisfactorily account for the numerous possible applications of this general field. |
|||
|источник оригинала=<ref>{{Статья|ссылка=http://ieeexplore.ieee.org/document/1188572/|автор=C. Shannon|заглавие=The lattice theory of information|год=1953|язык=en|издание=Transactions of the IRE Professional Group on Information Theory|том=1|выпуск=1|страницы=105–107|issn=2168-2690|doi=10.1109/TIT.1953.1188572}}</ref> |
|||
|язык оригинала=en |
|||
|макс. ширина=24em|автор=Клод Шеннон}} |
|||
{{Врезка |
|||
Со Средних веков словом «информация» в европейских языках обозначают состояние человека образованного, имеющего отношение к науке<ref name=":0" />. |
|||
| макс. ширина = 19em |
|||
| содержание = ...нельзя уверенно сказать о чём-либо, что оно не может быть информацией. |
|||
| автор = [[Майкл Бакленд]] |
|||
| оригинал = ...we are unable to say confidently of anything that it could not be information. |
|||
| язык оригинала = en |
|||
| источник оригинала = <ref name="buckland">{{Книга|ссылка=https://www.google.com/books/edition/Information_and_Information_Systems/4OrEEAAAQBAJ?gbpv=1&pg=PA6|автор=Michael Buckland|заглавие=Information and Information Systems|год=1991|язык=en|издательство=Bloomsbury Publishing USA|isbn=978-0-313-39041-8}}</ref> |
|||
}} |
|||
Не существует универсального определения информации, которое объединяло бы смыслы, вкладываемые в это понятие в рамках различных теорий: физики, [[Теория связи|теории связи]], кибернетики, статистической теории информации, психологии, семантики, [[Индуктивная логика|индуктивной логики]]<ref>{{Книга|автор=Bogdan, Radu J|заглавие=Handbook of metaphysics and ontology|ответственный=Hans Burkhardt and Barry Smith|год=1991|часть=Information|язык=en|место=München|издательство=Philosophia|страницы=394|серия=Analytica|isbn=978-3-88405-080-4}}</ref>. Некоторые исследователи скептически оценивают возможность сформулировать такое определение<ref>{{Статья|ссылка=https://onlinelibrary.wiley.com/doi/10.1002/9780470757017.ch4|автор=[[Luciano Floridi]]|заглавие=Information|год=2004|ответственный=Luciano Floridi|язык=en|издание=The Blackwell Guide to the Philosophy of Computing and Information|издательство=Wiley|страницы=40–61|isbn=978-0-631-22918-6|doi=10.1002/9780470757017.ch4}}</ref><ref name=":9">{{Книга|ссылка=https://www.worldcat.org/title/505911833|автор=M. S. Burgin|заглавие=Theory of information: fundamentality, diversity and unification|год=2010|язык=en|место=Hackensack, NJ|издательство=World Scientific Pub Co Inc|том=|страниц=672|серия=World Scientific series in information studies|isbn=978-981-283-548-2}}</ref>. |
|||
Исчезновение концепции морфогенезиса из философского дискурса связано с развитием [[эмпиризм]]а. [[Бэкон, Фрэнсис|Фрэнсис Бэкон]] критикует [[Диалектика#Диалектика в Средние века|диалектиков]], которые «успокаиваются на непосредственных данных ({{Lang-la2|informationibus}}) хорошо расположенного чувства»<ref>{{Книга|ссылка=|автор=Бэкон Ф.|заглавие=Сочинения в двух томах|год=1977|часть=Великое Восстановление Наук|издание=2-е испр. и доп. изд|место=М.|издательство=Мысль|том=1|страницы=72|серия=Философское наследие}}</ref><ref name=":4" />. Обращаясь к наследию [[Платон]]а, [[Джон Локк]] использует слово «идея» «для выражения того, что подразумевают под словами „фантом“, „понятие“, „вид“, или всего, чем может быть занята душа во время мышления»<ref>{{Книга|автор=[[Джон Локк]]|заглавие=[[Опыт о человеческом разумении]]}}</ref><ref name=":3">{{Книга|ссылка=|автор=P. Adriaans, J. van Benthem|заглавие=Philosophy of information|год=2008|часть=Introduction: Information is what information does|ссылка часть=http://www.illc.uva.nl/Publications/ResearchReports/X-2008-10.text.pdf|язык=en|место=Amsterdam|издательство=North Holland|isbn=978-0-444-51726-5}}</ref>. Для эмпириков поток идей был сырым материалом, на основании которого может быть построено знание, для [[Рационализм (философия)|рационалистов]] — покровом иллюзий, стоящим на пути разума<ref name=":4" />. |
|||
Согласно трилемме {{Iw|Капурро, Рафаэль|Капурро|de|Rafael Capurro}} ответ на вопрос об определении информации предполагает выбор одной из трёх позиций<ref>{{Статья|ссылка=http://igw.tuwien.ac.at/igw/menschen/hofkirchner/papers/InfoConcept/Informatio_revisited/in-format.html|автор=Peter Fleissner, Wolfgang Hofkirchner|заглавие=In-formatio revisited|год=1995|язык=de|издание=Informatik Forum|месяц=|том=8|номер=3}}</ref>: |
|||
Понятие информации как сведений, подлежащих хранению и передаче, возникает в XIX веке<ref name=":0" />. Если для эмпириков информация была связана с чувственным опытом, то с появлением [[Статистика|статистики]] и ростом государственной бюрократии она стала подразумевать знание за пределами опыта конкретного индивида<ref name=":4" />. Такой смысловой переход также связывают с развитием способов коммуникации: массовый выпуск газет, словарей, энциклопедий, [[История почты#Новое время|распространение почтовых услуг]], изобретение [[телеграф]]а и [[телефон]]а привели к восприятию информации как самостоятельного явления, представленного в конкретной форме и обладающего истинностью. Понятие стало относиться не к осведомлённости, а к определённому способу её получения — утверждениям, объективность которых проистекает из факта их публикации в книге или ином авторитетном источнике<ref name=":1">{{Книга|ссылка=https://linkinghub.elsevier.com/retrieve/pii/C20090164814|заглавие=Philosophy of Information|год=2008|издательство=Elsevier|isbn=978-0-444-51726-5}}</ref>. По мнению [[Серто, Мишель де|Мишеля де Серто]], переход читателя в положение пассивного потребителя стал шагом в развитии идей Просвещения о преобразовании общества посредством популяризации знания<ref>{{Книга|ссылка=|автор={{nobr|Серто М. де}}|заглавие=Изобретение повседневности|год=2013|издательство=Издательство Европейского университета в Санкт-Петербурге|страницы=281}}</ref><ref name=":2" />. |
|||
# Однозначность: информация имеет одно и то же значение во всех контекстах. |
|||
[[Файл:Shannon-Weaver model of communication.svg|мини|upright=1.6|[[Шумовая модель коммуникации Шеннона — Уивера|Модель коммуникации Шеннона — Уивера]]]] |
|||
# Аналогия: информация имеет одно правильное значение в определённом контексте, но может применяться в других контекстах как аналогия. |
|||
# Неоднозначность: информация может иметь множество определений, зависящих от контекста. |
|||
{{Iw|Гернот Версиг|3=de|4=Gernot Wersig}} отмечает, что под информацией могут подразумевать<ref>{{Статья|ссылка=https://sigir.org/files/museum/pub-13/18.pdf|автор=Wersig, G. and Neveling, U|заглавие=The phenomena of interest to Information Science|год=1975|язык=en|издание=Information Scientist|том=9|номер=4|страницы=127–40}}</ref>: |
|||
В середине XX века в рамках [[Теория связи|теории связи]] слово «информация» приобретает новый смысл, связанный с понятием [[Энтропия|энтропии]]. В 1948 году [[Шеннон, Клод|Клод Шеннон]] вводит понятие [[бит]]а как единицы измерения [[Количество информации|количества информации]]. Он предлагает [[Шумовая модель коммуникации Шеннона — Уивера|свою модель коммуникации]], будучи уверенным в том, что «[[Семантическая информация|семантические]] аспекты связи не имеют отношения к инженерной стороне вопроса«»». {{Iw|Уоррен Уивер|4=Warren Weaver}} уточняет, что в рамках их теории слово «информация» используется не в общепринятом значении, а как характеристика передаваемого сигнала, не подразумевающая наличия смысла<ref>{{Книга|ссылка=https://books.google.ru/books/about/The_Mathematical_Theory_of_Communication.html?id=dk0n_eGcqsUC&redir_esc=y|автор=Claude E. Shannon, Warren Weaver|заглавие=The Mathematical Theory of Communication|год=1949|издательство=University of Illinois Press|страниц=148|isbn=978-0-252-72548-7}}</ref><ref name=":2" />. Этот термин ложится в основу таких концепций, как [[обработка информации]] и [[информационные технологии]]<ref name=":1" />. {{Iw|Ларс Квортруп|3=da|4=Lars Qvortrup}} отмечает, что информация в теории Шеннона и Уивера описывается противоречиво: и как объективная количественная величина, и как субъективный выбор отправителя сообщения<ref>{{Статья|автор=Lars Qvortrup|заглавие=The Controversy over the Concept of Information. An Overview and a Selected and Annotated Bibliography|год=1993|язык=en|издание=Cybernetics & Human Knowing|том=1|номер=4}}</ref><ref>{{Статья|ссылка=https://onlinelibrary.wiley.com/doi/10.1002/asi.20620|автор=Birger Hjørland|заглавие=Information: Objective or subjective/situational?|год=2007|язык=en|издание=Journal of the American Society for Information Science and Technology|том=58|выпуск=10|страницы=1448–1456|issn=1532-2882|doi=10.1002/asi.20620}}</ref>. В 1952 году семантическая теория информации была представлена [[Бар-Хиллел, Йегошуа|Йегошуа Бар-Хиллелом]] и [[Карнап, Рудольф|Рудольфом Карнапом]]<ref>{{Статья|ссылка=https://www.journals.uchicago.edu/doi/10.1093/bjps/IV.14.147|автор=Yehoshua Bar-Hillel, Rudolf Carnap|заглавие=SEMANTIC INFORMATION|год=1953|язык=en|издание=The British Journal for the Philosophy of Science|том=4|выпуск=14|страницы=147–157|issn=0007-0882|doi=10.1093/bjps/IV.14.147}}</ref>. В 1980-е годы теория Шеннона разрабатывается [[Дрецке, Фред|Фредом Дрецке]] с точки зрения [[Эпистемология|эпистемологии]] и {{Iw|Барвайз, Джон|Джоном Барвайзом|4=Jon Barwise}} и {{Iw|Перри, Джон (философ)|Джоном Перри|4=John Perry (philosopher)}} в рамках [[Философия языка|философии языка]]<ref name=":3" /><ref name=":5" />. |
|||
* характеристику объектов материального мира или их взаимоотношений, существующая независимо от наблюдателя; |
|||
В связи с распространением вычислительной техники во второй половине XX века закрепляется понимание информации как абстрактного явления, существующего в отрыве от её истинности и конкретной формы представления<ref name=":1" />. Лингвист {{Iw|Джеффри Нанберг|4=Geoffrey Nunberg}} в 1996 году отмечал, что связанная с современными технологиями концепция начинает ретроактивно применяться по отношению к событиям прошлого: «Нас убеждают, что передаваемая компьютерами субстанция — „информация“ в техническом смысле — по сути то же, что привело к [[Реформация|Реформации]] и [[Великая французская революция|Французской революции]]»<ref name=":2">{{Книга|ссылка=https://archive.org/details/futureofbook0000unse/|автор=Geoffrey Nunberg|заглавие=The future of the book|ответственный=|год=1996|часть=Farewell to the Information Age|ссылка часть=https://citeseerx.ist.psu.edu/document?repid=rep1&type=pdf&doi=a5fc3ec302dd3fe2a7cfb1a78346c2ed23d7d888|язык=en|место=Berkeley|издательство=University of California Press|страницы=103—138|страниц=|isbn=978-0-520-20451-5, 978-0-520-20450-8}}</ref>. |
|||
* знание, полученное посредством восприятия; |
|||
* сообщение; |
|||
* смысл, выражаемый знаками; |
|||
* результат процесса; |
|||
* процесс. |
|||
[[Флориди, Лучано|Лучано Флориди]] выделяет три подхода к определению информации<ref name=":11">{{Статья|ссылка=https://linkinghub.elsevier.com/retrieve/pii/B9780444517265500091|автор=Luciano Floridi|заглавие=TRENDS IN THE PHILOSOPHY OF INFORMATION|год=2008|язык=en|издание=Philosophy of Information|издательство=Elsevier|страницы=113–131|isbn=978-0-444-51726-5|doi=10.1016/b978-0-444-51726-5.50009-1}}</ref>: |
|||
* информация как реальность (вид физического сигнала, к которому не применим критерий истинности); |
|||
В терминах работы с информацией начинают определять себя такие сферы деятельности, как [[информатика]], [[электротехника]], [[библиотековедение]], [[психолингвистика]], [[менеджмент]], [[экономика]], [[журналистика]], [[коммуникативистика]]<ref name=":4" />. В 1964 году [[Хайдеггер, Мартин|Мартин Хайдеггер]] говорил о том, что науки «начинают определяться и направляться новой основной наукой» — [[Кибернетика|кибернетикой]], которая «преображает речь в обмен сообщениями», а «искусства становятся направленно-направляющими инструментами [передачи] информации»<ref>{{Статья|ссылка=https://vox-journal.org/content/vox5haidegger.pdf|автор=Мартин Хайдеггер|заглавие=Конец философии и задача мышления|год=2008|издание=Vox. Философский журнал|номер=5}}</ref>. В опубликованной в 1983 году работе экономиста [[Махлуп, Фриц|Фрица Махлупа]] отмечается, что представители [[Гуманитарные науки|гуманитарных наук]] используют в своих теориях общепринятое определение информации, накладывая на него для своих нужд некоторые ограничения: «Требование истинности или правильности должно исключить ложные или неправильные сообщения; требование ценности или полезности должно исключить сообщения, бесполезные для принятия решений; требование новизны должно исключить повторные или избыточные сообщения; требование неожиданности должно исключить сообщения, ожидаемые получателем; требование уменьшения неопределенности должно исключить сообщения, которые не меняют или увеличивают состояние неопределенности получателя; и так далее… Специалисты в ряде дисциплин… ввели удобные для своих целей ограничения, осложнив для неспециалистов понимание того, что имеется в виду». Использование термина «информация» в контекстах, не подразумевающих наличие разумного получателя, Махлуп считает метафорическим (когда речь идёт о биологических системах или группах организмов) или просто некорректным (когда речь идёт о воздействии на механизм или коммуникациях)<ref>{{Книга|ссылка=|автор=Machlup, F.|заглавие=The Study of Information: Interdisciplinary Messages|год=1983|часть=Semantic quirks in studies of information|язык=en|издательство=Wiley|страницы=641—671|isbn=978-0-471-88717-1}}</ref>. |
|||
* информация о реальности (семантическая информация, к которой применим критерий истинности и на основе которой конструируется знание); |
|||
* информация для реальности (инструкции — генетическая информация, алгоритмы, рецепты). |
|||
Джонатан Фёрнер классифицирует определения информации следующим образом<ref name=":10" />: |
|||
В [[Россия|России]] философская проблематика понятия «информация» разрабатывалась, начиная с [[1960-е годы|1960-х годов]], когда вышла статья [[Урсул, Аркадий Дмитриевич|А. Д. Урсула]] «Природа информации». С тех пор, явно или неявно, рассматриваются в основном две концепции информации: ''атрибутивная'', по которой информация свойственна всем физическим системам и процессам (А. Д. Урсул, И. Б. Новик, Л. Б. Баженов, Л. А. Петрушенко и другие), и ''функциональная'' — информация присуща лишь самоорганизующимся системам ([[Копнин, Павел Васильевич|П. В. Копнин]], А. М. Коршунов, [[Тюхтин, Виктор Степанович|В. С. Тюхтин]], Б. С. Украинцев и другие)<ref>Материалы «круглого стола» [http://vphil.ru/index.php?option=com_content&task=view&id=103&Itemid=52 Информационный подход в междисциплинарной перспективе] {{Wayback|url=http://vphil.ru/index.php?option=com_content&task=view&id=103&Itemid=52 |date=20151009054436 }}//ред. В. В. Пирожков, Вопросы философии, 2010.</ref>. |
|||
* семиотические определения предполагают разграничение между фактами реального мира, мысленными представлениями о них и языковыми выражениями этих представлений, относя понятие информации к одной из этих категорий; |
|||
Но если, например, провести даже неглубокий анализ содержания наиболее распространенных сегодня атрибутивной и функциональной концепций в отношении информации, то станет ясным, что обе эти концепции, в конечном счете, опираются на объективное свойство материи, установленное ещё в XIX веке и обозначаемое философской категорией «отражение». Однако в обеих концепциях не уделяется достаточного внимания изучению очевидной реальности, проявляющейся в том, что информация в тех формах, в которых она существует сегодня, есть продукт человеческого [[Сознание|сознания]], которое само есть продукт высшей формы (из известных нам форм) материи. |
|||
* социокогнитивные определения понимают информацию как действие или событие, связанное с изменением представлений индивида о реальности, которые зависят от индивидуальных, социальных и культурных факторов; |
|||
* эпистемические определения направлены на выявление свойств, которыми должен обладать источник информации, чтобы обосновать некое утверждение в достаточной степени, чтобы его можно было считать знанием. |
|||
Другими словами, сторонники обеих концепций, игнорируя человека, игнорируя природу человеческого сознания, сразу относят информацию (продукт сознания) к свойству материи и тут же называют её «атрибутом материи». Вследствие этой ошибки обе концепции не могут представить нам строгое определение информации как понятия, поскольку человеческие понятия наполняются содержанием в результате общения человека с объективной реальностью, а не в результате оперирования, пусть и изощренного, внешне убедительного, правдоподобного в умозаключениях, другими понятиями. Попытки представить информацию в качестве категории также обречены на неудачу. Достаточно принять во внимание, что человеческая практика за последние десятилетия столь быстро изменяла формы и содержание понятий, а также свои представления и отношения к тому, что сегодня принято называть «информацией», что природа, сущность информации и, естественно, содержание этого понятия (если по-прежнему считать его понятием) существенно изменялись со временем<ref>{{Статья|автор=Петриченко Е. А.|заглавие=ИНФОРМАЦИЯ И ФИЛОСОФСКИЕ КАТЕГОРИИ «ЯВЛЕНИЕ И СУЩНОСТЬ»|ссылка=https://science-education.ru/ru/article/view?id=12131|язык=|издание=Современные проблемы науки и образования. – 2014. – № 1|тип=журнал|год=2014|месяц=|число=|том=|номер=1|страницы=|issn=|archivedate=2017-09-09|archiveurl=https://web.archive.org/web/20170909205510/http://www.science-education.ru/ru/article/view?id=12131}}</ref>. |
|||
[[Теория связи]] рассматривает информацию как физический феномен с точки зрения синтаксиса. Она касается сложности и частоты передаваемых сигналов в отрыве от их интерпретации. [[Алгоритмическая теория информации]] также рассматривает информацию как количественную характеристику, исходя из необходимых для её кодирования вычислительных ресурсов<ref name=":11" />. |
|||
== Суть и границы явления == |
|||
{{Заготовка раздела}} |
|||
{| class="wikitable floatright" style="max-width:34em;" |
{| class="wikitable floatright" style="max-width:34em;" |
||
|+ |
|+ |
||
! colspan="3" |Четыре аспекта информации<ref name="buckland" /> |
|||
! colspan="3" |Четыре аспекта информации<ref>{{Книга|ссылка=https://www.google.com/books/edition/Information_and_Information_Systems/4OrEEAAAQBAJ?gbpv=1&pg=PA6|автор=[[Michael Buckland]]|заглавие=Information and Information Systems|год=1991|язык=en|издательство=Bloomsbury Publishing USA|страницы=6|страниц=|isbn=978-0-313-39041-8}}</ref> |
|||
|- |
|- |
||
! |
! |
||
Строка 66: | Строка 110: | ||
|Обработка информации (обработка данных, документов, [[инженерия знаний]]) |
|Обработка информации (обработка данных, документов, [[инженерия знаний]]) |
||
|} |
|} |
||
Согласно современным представлениям, информация считается нематериальной, а то, что содержится в структуре объектов, принято называть [[Данные|данными]] (''representation form'' — ISO/IEC/IEEE 24765:2010). |
|||
Майкл Бакленд выделяет три категории информации: знания, процесс информирования и объекты информации. К последним он относит все объекты и события, из которых можно получить знания, высказываясь против определения информации как обработанных данных, собранных в осмысленном виде{{efn|Такое определение распространено в тех областях, где данные и информация предстают в виде овеществлённых объектов: информационной науке, [[Проектирование баз данных|проектировании баз данных]] и [[Информационная система|информационных систем]], [[Теория принятия решений|теории принятия решений]]<ref>{{Статья|ссылка=https://onlinelibrary.wiley.com/doi/10.1111/j.1933-1592.2005.tb00531.x|автор=[[Luciano Floridi]]|заглавие=Is Semantic Information Meaningful Data?|год=2005|язык=en|издание=Philosophy and Phenomenological Research|том=70|выпуск=2|страницы=351–370|issn=0031-8205|doi=10.1111/j.1933-1592.2005.tb00531.x}}</ref>. Понимание информации как одного из уровней [[DIKW|иерархической модели]] приводит к появлению циклических определений: например, стандарт ISO 5127:2017 определяет информацию как «данные, которые отобраны, организованы и сопоставлены с возникновением смысла», а данные, в свою очередь, как «подлежащее интерпретации представление информации»<ref name=":8" /><ref name=":7" />.}}: «Во-первых, это оставляет без ответа вопрос о том, как следует называть другие информативные явления, такие как окаменелости, следы и крики ужаса. Во-вторых, возникает дополнительный вопрос о том, какой объем обработки и/или сбора необходим для того, чтобы данные могли называться информацией»<ref>{{Статья|ссылка=https://ppggoc.eci.ufmg.br/downloads/bibliografia/Buckland1991.pdf|автор=Michael K. Buckland|заглавие=Information as thing|год=1991|язык=en|издание=Journal of the American Society for Information Science|том=42|выпуск=5|страницы=351–360|issn=0002-8231|doi=10.1002/(SICI)1097-4571(199106)42:5<351::AID-ASI5>3.0.CO;2-3}}</ref>. |
|||
Для исследований [[самоорганизация|самоорганизации]] [[Динамическая система|динамических систем]] Генри Кастлер предложил следующее определение: «''Информация есть запомненный выбор одного варианта из нескольких возможных и равноправных''»<ref>{{книга |
|||
| автор = {{nobr|Кастлер Г.}} |
|||
| заглавие = Возникновение биологической организации |
|||
| оригинал = The Emergence of Biological Organization |
|||
| место = М. |
|||
| издательство = Мир |
|||
| год = 1967 |
|||
|ref=Кастлер |
|||
}}</ref>. Доктор философских наук И. В. Мелик-Гайказян дополняет его: «''Запомнить — значит каким-либо образом фиксировать результат выбора, что обычно выражается в изменении упорядоченности системы''»<ref>Информационный подход в междисциплинарной перспективе // «Вопросы философии».[http://vphil.ru/index.php?option=com_content&task=view&id=103&Itemid=52] {{Wayback|url=http://vphil.ru/index.php?option=com_content&task=view&id=103&Itemid=52|date=20151009054436}}</ref>. |
|||
[[Бейтсон, Грегори|Грегори Бейтсон]] определял информацию как «различимое различие» ({{Lang-en|a difference which makes a difference}})<ref>{{Книга|ссылка=|автор=Грегори Бейтсон|заглавие=[[Шаги в направлении экологии разума|Шаги в направлении экологии разума: избранные статьи по теории эволюции и эпистемологии]]|год=2005|издание=Изд. 2-е, испр. и доп|место=Москва|издательство=Ленанд|страниц=|isbn=978-5-484-00228-3}}</ref>, то есть такой феномен реальности, который влияет на воспринимающего субъекта. Для животного, адаптированного к жизни в своей экологической нише, информативными будут те свойства среды, изменения в которых воспринимаются его органами чувств. Для людей информативность зависит от культурных и социальных факторов<ref name=":7" />. Бенни Карпачоф определял информацию как [[Эмерджентность|эмерджентный]] феномен, связанный с конкретным механизмом, устроенным таким образом, чтобы специфическим образом высвобождать запасённую потенциальную энергию при получении определённого сигнала извне<ref>{{Книга|ссылка=https://informationr.net/ir/12-3/Karpatschof/Karp00.html|автор=Benny Karpatschof|заглавие=Human Activity: Contributions to the Anthropological Sciences from a Perspective of Activity Theory|год=2000|язык=en|издательство=Dansk psykologisk Forlag|страниц=536|isbn=978-87-7706-311-4}}</ref>. В таком представлении базовой функцией информации является управление действиями в организованной системе, состоящей из взаимозависимых элементов или подсистем, и любую такую систему (живой организм, сообщество, рукотворный механизм) можно рассматривать как информационный процессор<ref>{{Статья|ссылка=https://academic.oup.com/comjnl/article-lookup/doi/10.1093/comjnl/32.3.262|автор=G. G. Scarrott|заглавие=The Nature of Information|год=1989|язык=en|издание=The Computer Journal|том=32|выпуск=3|страницы=262–266|issn=0010-4620|doi=10.1093/comjnl/32.3.262}}</ref><ref name=":9" />. |
|||
[[Амосов Николай Михайлович|Н. М. Амосов]] считал, что «информация — это сведения о системе, о её структуре и функции, выраженные моделью», а «переработка информации заключается в превращении одних моделей в другие»<ref>{{книга |
|||
| автор = {{nobr|Амосов Н. М.}} |
|||
== Информационные процессы == |
|||
| заглавие = Моделирование сложных систем |
|||
Марк Бургин предлагает следующую классификацию информационных процессов по отношению к участвующей в них системе<ref name=":9" />: |
|||
| место = Киев |
|||
| издательство = Наукова думка |
|||
* Информирование (воздействие информации на систему) |
|||
|год=1968 |страниц=88 |тираж={{nobr|20 000}} |
|||
** Приём информации (получение системой информации от источника) |
|||
|ref=Амосов |
|||
** Добыча информации (работа системы, направленная на получение существующей информации) |
|||
}}</ref>. |
|||
** Производство информации |
|||
* Обработка информации (воздействие системы на информацию) |
|||
** Преобразование информации (изменение информации или её представления) |
|||
** Передача информации (перемещение носителя информации в пространстве) |
|||
** Хранение информации (перемещение носителя информации во времени) |
|||
* Применение информации (воздействие одной системы на другую посредством информации) |
|||
== Классификация информации == |
== Классификация информации == |
||
Строка 107: | Строка 148: | ||
** Секретная — передаваемая узкому кругу лиц и по закрытым (защищённым и адаптивным) каналам. |
** Секретная — передаваемая узкому кругу лиц и по закрытым (защищённым и адаптивным) каналам. |
||
** [[Личная идентификация|Личная]] (приватная) — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции. |
** [[Личная идентификация|Личная]] (приватная) — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции. |
||
* По '''значению:''' |
* По '''значению:''' |
||
** Актуальная — информация, ценная в данный момент времени. |
** Актуальная — информация, ценная в данный момент времени. |
||
Строка 114: | Строка 154: | ||
** Полная — информация, достаточная для принятия правильного решения или понимания. |
** Полная — информация, достаточная для принятия правильного решения или понимания. |
||
** [[Ценность информации|Ценная]] — полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования. |
** [[Ценность информации|Ценная]] — полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования. |
||
* По '''истинности:''' |
* По '''истинности:''' |
||
** [[Истина|Истинная]]. |
** [[Истина|Истинная]]. |
||
Строка 129: | Строка 168: | ||
== Информация в различных областях деятельности == |
== Информация в различных областях деятельности == |
||
{{переработать}} |
{{переработать}} |
||
=== В математике === |
|||
{{also|Собственная информация|Взаимная информация}} |
|||
В математике информация — общее наименование фундаментальных понятий в информатике, теории информации, кибернетике, а также в математической статистике, в которых обобщённое интуитивное представление об информации относительно каких-либо величин или явлений конкретизируется и формализуется<ref name="брэ">{{БРЭ|статья= Информация в математике |автор= Ю. В. Прохоров|том= 11|страницы= |ссылка= https://old.bigenc.ru/mathematics/text/2016089|архив= https://web.archive.org/web/20230103222150/https://bigenc.ru/mathematics/text/2016089|архив дата= 2023-01-03}}</ref>. |
|||
=== В информатике === |
=== В информатике === |
||
{{Falseredirect|Контент}} |
{{Falseredirect|Контент}} |
||
{{Заготовка раздела}} |
|||
Предметом изучения информатики являются именно [[данные]]: методы их создания, хранения, обработки и передачи<ref>Захаров В. П. Информационные системы (документальный поиск): Учебное пособие / В. П. Захаров. — СПб.: СПб.гос университет, 2002. — 188 с.</ref>. Данные представляют собой информацию в формализованном виде (в цифровой форме), позволяющем автоматизировать её сбор, хранение и дальнейшую обработку в ЭВМ. С этой точки зрения информация является абстрактным понятием, рассматриваемым безотносительно к её семантическому аспекту, а под количеством информации обычно понимается соответствующий [[Единицы измерения ёмкости носителей и объёма информации|объём данных]]. Однако одни и те же данные могут быть закодированы различным образом и иметь при этом различный объём, поэтому иногда рассматривается также понятие «ценность информации», которое связано с понятием [[информационная энтропия|информационной энтропии]] и является предметом изучения [[Теория информации|теории информации]]. |
Предметом изучения информатики являются именно [[данные]]: методы их создания, хранения, обработки и передачи<ref>Захаров В. П. Информационные системы (документальный поиск): Учебное пособие / В. П. Захаров. — СПб.: СПб.гос университет, 2002. — 188 с.</ref>. Данные представляют собой информацию в формализованном виде (в цифровой форме), позволяющем автоматизировать её сбор, хранение и дальнейшую обработку в ЭВМ. С этой точки зрения информация является абстрактным понятием, рассматриваемым безотносительно к её семантическому аспекту, а под количеством информации обычно понимается соответствующий [[Единицы измерения ёмкости носителей и объёма информации|объём данных]]. Однако одни и те же данные могут быть закодированы различным образом и иметь при этом различный объём, поэтому иногда рассматривается также понятие «ценность информации», которое связано с понятием [[информационная энтропия|информационной энтропии]] и является предметом изучения [[Теория информации|теории информации]]. |
||
{{Заготовка раздела}} |
|||
{{также|Пользовательский контент}} |
|||
=== В теории информации === |
=== В теории информации === |
||
[[Теория информации]] (''математическая теория связи'') — изучает процессы хранения, преобразования и передачи информации. Она основана на научных методах измерения количества информации<ref name="БРЭ">{{БРЭ|статья= Информации теория |автор= Ю. |
[[Теория информации]] (''математическая теория связи'') — изучает процессы хранения, преобразования и передачи информации. Она основана на научных методах измерения количества информации<ref name="БРЭ">{{БРЭ|статья= Информации теория |автор= Ю. В. Прохоров|том= 11|страницы= |ссылка= https://old.bigenc.ru/mathematics/text/2015835|архив= https://web.archive.org/web/20221206134319/https://bigenc.ru/mathematics/text/2015835|архив дата= 2022-12-06}}</ref>. Теория информации развилась из потребностей теории связи. Основополагающими считаются «Передача информации<ref>Hartley, R.V.L., [http://www.dotrose.com/etext/90_Miscellaneous/transmission_of_information_1928b.pdf „Transmission of Information“] {{Wayback|url=http://www.dotrose.com/etext/90_Miscellaneous/transmission_of_information_1928b.pdf |date=20200801192155 }}, ''Bell System Technical Journal'', July 1928, pp. 535—563</ref>» [[Хартли, Ральф|Ральфа Хартли]] опубликованные в 1928 году и «Работы по теории информации и кибернетике<ref>{{Cite web |url=http://www.mast.queensu.ca/~math474/shannon1948.pdf |title=C. E. Shannon „A Mathematical Theory of Communication“ (Перевод в сборнике ''Шеннон К.'' „Работы по теории информации и кибернетике“. — М.: ИЛ, 1963. — 830 с., С. 243—322) |access-date=2015-03-24 |archive-date=2015-05-13 |archive-url=https://web.archive.org/web/20150513212015/http://www.mast.queensu.ca/~math474/shannon1948.pdf |deadlink=no }}</ref>» [[Шеннон, Клод|Клода Шеннона]], опубликованные в 1948 году. Теория информации изучает пределы возможностей систем [[Передача данных|передачи данных]], а также основные принципы их проектирования и технической реализации<ref>Теория информации // «[[Энциклопедия Кругосвет]]».[http://www.krugosvet.ru/articles/15/1001541/1001541a1.htm] {{Wayback|url=http://www.krugosvet.ru/articles/15/1001541/1001541a1.htm|date=20090323042006}}</ref>. |
||
С теорией информации связаны [[радиотехника]] (теория [[Обработка сигналов|обработки сигналов]]) и [[информатика]], относящиеся к измерению количества передаваемой информации, её свойства и устанавливающие предельные соотношения для систем. Основные разделы теории информации — кодирование источника ([[Сжатие данных|сжимающее кодирование]]) и канальное (помехоустойчивое) кодирование. |
С теорией информации связаны [[радиотехника]] (теория [[Обработка сигналов|обработки сигналов]]) и [[информатика]], относящиеся к измерению количества передаваемой информации, её свойства и устанавливающие предельные соотношения для систем. Основные разделы теории информации — кодирование источника ([[Сжатие данных|сжимающее кодирование]]) и канальное (помехоустойчивое) кодирование. |
||
Строка 149: | Строка 183: | ||
=== В теории управления (кибернетике) === |
=== В теории управления (кибернетике) === |
||
Основоположник кибернетики [[Норберт Винер]] дал следующее определение информации: «Информация — это обозначение содержания, полученное нами из внешнего мира в процессе приспосабливания к нему нас и наших чувств»<ref name="Винер"/>. |
Основоположник кибернетики [[Норберт Винер]] дал следующее определение информации: «Информация — это обозначение содержания, полученное нами из внешнего мира в процессе приспосабливания к нему нас и наших чувств»<ref name="Винер">''[[Норберт Винер|Винер Н.]]'' Кибернетика, или управление и связь в животном и машине; или Кибернетика и общество/ 2-е издание. — М.: Наука; Главная редакция изданий для зарубежных стран, 1983. — 344 с.</ref>. |
||
Кибернетика рассматривает [[машины]] и живые [[организмы]] как [[системы]], воспринимающие, накапливающие и передающие информацию, а также перерабатывающие её в сигналы, определяющие их собственную деятельность<ref name="брэ" />. |
Кибернетика рассматривает [[машины]] и живые [[организмы]] как [[системы]], воспринимающие, накапливающие и передающие информацию, а также перерабатывающие её в сигналы, определяющие их собственную деятельность<ref name="брэ">{{БРЭ|статья=Информация в математике|автор=Ю. В. Прохоров|том=11|страницы=|ссылка=https://old.bigenc.ru/mathematics/text/2016089|архив=https://web.archive.org/web/20230103222150/https://bigenc.ru/mathematics/text/2016089|архив дата=2023-01-03}}</ref>. |
||
Материальная система в кибернетике рассматривается как множество объектов, которые сами по себе могут находиться в различных состояниях, но состояние каждого из них определяется состояниями других объектов системы. В природе множество состояний системы представляет собой информацию, сами состояния представляют собой первичный ''код'' или ''код источника''. Таким образом, каждая материальная система является источником информации. |
Материальная система в кибернетике рассматривается как множество объектов, которые сами по себе могут находиться в различных состояниях, но состояние каждого из них определяется состояниями других объектов системы. В природе множество состояний системы представляет собой информацию, сами состояния представляют собой первичный ''код'' или ''код источника''. Таким образом, каждая материальная система является источником информации. |
||
Строка 160: | Строка 194: | ||
{{main|Алгоритмическая теория информации}} |
{{main|Алгоритмическая теория информации}} |
||
{{seealso|Колмогоровская сложность}} |
{{seealso|Колмогоровская сложность}} |
||
Как область математики — алгоритмическая теория информации была создана [[Колмогоров, Андрей Николаевич|А. Н. Колмогоровым]]<ref>[[Боголюбов, Николай Николаевич|Боголюбов Н. Н.]], [[Гнеденко, Борис Владимирович|Гнеденко Б. В.]], [[Соболев, Сергей Львович|Соболев С. Л.]] Андрей Николаевич Колмогоров (К восьмидесятилетию со дня рождения) /Пред. к книге: Колмогоров А. Н. Теория информации и теория алгоритмов. — М.: Наука, 1987. — Стр. 16. — 304 с.</ref>. Две основополагающие статьи по ней были опубликованы в журнале «Проблемы передачи информации» в 1965 и 1969 годах<ref>Колмогоров А. Н. Три подхода к определению понятия «Количество информации». — Проблемы передачи информации, 1965, т. 1, с. 3-11.</ref><ref>Колмогоров А. Н. К логическим основам теории информации и теории вероятности. — Проблемы передачи информации, 1969, т. 5, с. 3-7.</ref><ref> |
Как область математики — алгоритмическая теория информации была создана [[Колмогоров, Андрей Николаевич|А. Н. Колмогоровым]]<ref>[[Боголюбов, Николай Николаевич|Боголюбов Н. Н.]], [[Гнеденко, Борис Владимирович|Гнеденко Б. В.]], [[Соболев, Сергей Львович|Соболев С. Л.]] Андрей Николаевич Колмогоров (К восьмидесятилетию со дня рождения) /Пред. к книге: Колмогоров А. Н. Теория информации и теория алгоритмов. — М.: Наука, 1987. — Стр. 16. — 304 с.</ref>. Две основополагающие статьи по ней были опубликованы в журнале «Проблемы передачи информации» в 1965 и 1969 годах<ref>Колмогоров А. Н. Три подхода к определению понятия «Количество информации». — Проблемы передачи информации, 1965, т. 1, с. 3-11.</ref><ref>Колмогоров А. Н. К логическим основам теории информации и теории вероятности. — Проблемы передачи информации, 1969, т. 5, с. 3-7.</ref><ref>Колмогоров А. Н. Теория информации и теория алгоритмов. — М.: Наука, 1987. — Стр. 213—223, 232—237. — 304 с.</ref>. Центральным в этой теории является понятие алгоритмической (также называемой колмогоровской) сложности информационного объекта, то есть алгоритмического способа его описания (формирования); эта сложность определяется как минимальная длина алгоритма, формирующего такой объект. Теорема Колмогорова устанавливает, что среди алгоритмов, формирующий информационный объект существуют оптимальные, хотя такие алгоритмы не единственные и отличаются для разных способов представления алгоритмов, тем не менее для заданных двух оптимальных способов их длина (сложность) отличается не более чем на аддитивную константу. Задача вычисления алгоритмической сложности объекта является [[Алгоритмически неразрешимая задача|алгоритмически неразрешимой]]. |
||
=== В семиотике === |
=== В семиотике === |
||
Строка 174: | Строка 208: | ||
=== В юриспруденции === |
=== В юриспруденции === |
||
Любые сведения, сообщения, данные, независимо от их оформления, являются информацией — материальным или нематериальным объектом, участвующим в любых отношениях. Развитие технологических возможностей переработки и передачи информации выделило её в самостоятельный предмет производственных, управленческих, идеологических и личных отношений. Информация стала товаром, продукцией, предметом труда и объектом услуг. В системе правовых отношений её рассматривает [[информационное право]]. Некоторые международные правовые акты и законодательства ряда стран (в том числе России) провозглашают право человека на свободный поиск, получение, передачу, производство и распространение информации любым способом, не нарушающим законы<ref name="БРЭ право">{{БРЭ|статья= Информация в праве |автор= И. |
Любые сведения, сообщения, данные, независимо от их оформления, являются информацией — материальным или нематериальным объектом, участвующим в любых отношениях. Развитие технологических возможностей переработки и передачи информации выделило её в самостоятельный предмет производственных, управленческих, идеологических и личных отношений. Информация стала товаром, продукцией, предметом труда и объектом услуг. В системе правовых отношений её рассматривает [[информационное право]]. Некоторые международные правовые акты и законодательства ряда стран (в том числе России) провозглашают право человека на свободный поиск, получение, передачу, производство и распространение информации любым способом, не нарушающим законы<ref name="БРЭ право">{{БРЭ|статья= Информация в праве |автор= И. Л. Бачило|том= 11|страницы= 495|ссылка= https://old.bigenc.ru/law/text/2016203|архив= https://web.archive.org/web/20240615202148/https://old.bigenc.ru/law/text/2016203|архив дата= 2024-06-15}}</ref>. |
||
=== В квантовой физике === |
=== В квантовой физике === |
||
{{главная|Квантовая информация}} |
{{главная|Квантовая информация}} |
||
[[Квантовая теория информации]] рассматривает общие закономерности передачи, хранения и преобразования информации в системах, изменяющихся по законам квантовой механики<ref name="бр">{{БРЭ|статья= Квантовая теория информации |автор= А. С. Холево|том= 13|страницы= |ссылка= https://old.bigenc.ru/mathematics/text/2056297|архив= https://web.archive.org/web/20221021002631/https://bigenc.ru/mathematics/text/2056297|архив дата= 2022-10-21}}</ref>. |
|||
{{В планах|дата=2017-01-31}} |
|||
[[Квантовая теория информации]] рассматривает общие закономерности передачи, хранения и преобразования информации в системах, изменяющихся по законам квантовой механики<ref name="бр">{{БРЭ|статья= Квантовая теория информации |автор= А. С. Холево|том= 13|страницы= |ссылка= https://old.bigenc.ru/mathematics/text/2056297|архив= https://web.archive.org/web/20221021002631/https://bigenc.ru/mathematics/text/2056297|архив дата= 2022-10-21}}</ref>. |
|||
=== Информационная политика в организациях === |
|||
Можно выделить следующие модели информационной политики в организациях<ref>{{Статья|ссылка=https://academic.oup.com/book/52122/chapter/421066396|автор=Thomas H Davenport, Laurence Prusak|заглавие=Information Politics|год=1997-06-26|язык=en|издание=Information Ecology|издательство=Oxford University PressNew York, NY|страницы=67–82|isbn=978-0-19-511168-2|doi=10.1093/oso/9780195111682.003.0005}}</ref>: |
|||
* Анархия: отсутствие общей политики управления информацией. |
|||
* Феодализм: подразделения организации самостоятельно принимают решения по управлению информацией, предоставляя её руководству в ограниченном виде. |
|||
* Федерализм: поиск консенсуса по управлению информацией между структурами организации. |
|||
* Монархизм: руководство организации контролирует потоки информации и может ограничивать доступ к ней. |
|||
* Техноутопизм: поиск технологического решения для категоризации и моделирования информации. |
|||
== Измерение информации == |
== Измерение информации == |
||
Строка 187: | Строка 229: | ||
Простейшей единицей измерения информации является [[бит]] — [[единицы измерения информации|единица измерения]] [[Количество информации|количества информации]], принимающая 2 логических значения: да или нет, истина или ложь, включено или выключено; 1 или 0 в двоичной системе счисления. |
Простейшей единицей измерения информации является [[бит]] — [[единицы измерения информации|единица измерения]] [[Количество информации|количества информации]], принимающая 2 логических значения: да или нет, истина или ложь, включено или выключено; 1 или 0 в двоичной системе счисления. |
||
В современных [[Компьютер|вычислительных системах]] одномоментно обрабатываются 8 |
В современных [[Компьютер|вычислительных системах]] одномоментно обрабатываются 8 бит информации, называемые [[байт]]ом. Байт может принимать одно из 256 (2<sup>8</sup>) различных значений (состояний, [[код]]ов). Производные от байта десятичные единицы измерения, соответственно, именуются [[килобайт]] (10<sup>3</sup> = 1000 байт), [[мегабайт]] (10<sup>6</sup> = 1 000 000 байт), [[гигабайт]] (10<sup>9</sup> = 1 000 000 000 байт) и т. д.<ref name="IEC80000">International Standard [[IEC 80000-13]] Quantities and Units — Part 13: Information science and technology, International Electrotechnical Commission (2008).</ref> |
||
Производные от байта двоичные (бинарные) единицы измерения именуются [[кибибайт]] (2<sup>10</sup> = 1024 байт), [[мебибайт]] (2<sup>20</sup> = 1 048 576 [[байт]]), [[гибибайт]] (2<sup>30</sup> = 1 073 741 824 байт) и так далее<ref name="IEC80000" />. |
Производные от байта двоичные (бинарные) единицы измерения именуются [[кибибайт]] (2<sup>10</sup> = 1024 байт), [[мебибайт]] (2<sup>20</sup> = 1 048 576 [[байт]]), [[гибибайт]] (2<sup>30</sup> = 1 073 741 824 байт) и так далее<ref name="IEC80000" />. |
||
Строка 221: | Строка 263: | ||
|{{Smallcaps|circled latin small letter i}} |
|{{Smallcaps|circled latin small letter i}} |
||
|} |
|} |
||
Хотя также она может обозначаться [[Вопросительный знак|знаком вопроса]] в кружочке([[Файл:Font Awesome 5 regular question-circle.svg|16px]]) |
|||
== Дезинформация == |
== Дезинформация == |
||
Строка 242: | Строка 283: | ||
* [[База данных]] |
* [[База данных]] |
||
* [[Квантовая информация]] |
* [[Квантовая информация]] |
||
'''Категория информации по отраслям знаний''' |
|||
* [[Аэронавигационная информация]] |
* [[Аэронавигационная информация]] |
||
* [[Геоинформационная система|Географическая информация]] |
* [[Геоинформационная система|Географическая информация]] |
||
Строка 249: | Строка 290: | ||
* [[Секретная информация]] |
* [[Секретная информация]] |
||
* [[Генетическая информация]] |
* [[Генетическая информация]] |
||
'''В информатике:''' |
|||
* [[Предмет исследования]] |
* [[Предмет исследования]] |
||
* [[Единицы измерения информации]] |
* [[Единицы измерения информации]] |
||
Строка 260: | Строка 301: | ||
* [[Информационная безопасность]] |
* [[Информационная безопасность]] |
||
* [[Информационное право]] |
* [[Информационное право]] |
||
'''В общественных науках:''' |
|||
* [[Асимметричность информации]] |
* [[Асимметричность информации]] |
||
* [[Общение]] |
* [[Общение]] |
||
Строка 266: | Строка 307: | ||
* [[Обязательное раскрытие информации]] |
* [[Обязательное раскрытие информации]] |
||
* [[Средства массовой информации]] |
* [[Средства массовой информации]] |
||
'''В физиологии и медицине:''' |
|||
* [[Биоинформатика]] |
* [[Биоинформатика]] |
||
* [[Нейроинформатика]] |
* [[Нейроинформатика]] |
||
Строка 272: | Строка 313: | ||
* [[Интероцепция]] |
* [[Интероцепция]] |
||
* [[Фильтрация сенсорной информации]] |
* [[Фильтрация сенсорной информации]] |
||
'''В других областях:''' |
|||
* [[Игра с полной информацией]] |
* [[Игра с полной информацией]] |
||
* [[Свобода информации]] |
* [[Свобода информации]] |
||
Строка 280: | Строка 321: | ||
== Примечания == |
== Примечания == |
||
=== Комментарии === |
|||
{{комментарии}} |
|||
=== Источники === |
|||
{{примечания}} |
{{примечания}} |
||
Строка 285: | Строка 331: | ||
* Pieter Adriaans. [http://plato.stanford.edu/entries/information/ Information]. // [[Стэнфордская философская энциклопедия]], 2012.{{ref-en}} |
* Pieter Adriaans. [http://plato.stanford.edu/entries/information/ Information]. // [[Стэнфордская философская энциклопедия]], 2012.{{ref-en}} |
||
* Adriaans, Pieter, van Benthem, Johan. [http://www.illc.uva.nl/Research/Publications/Reports/X-2008-10.text.pdf Introduction: Information is what information does]. // Dov M. Gabbay, Pieter Adriaans, Paul Thagard, Johan van Benthem, John Woods (ред.): Philosophy of Information. Amsterdam. С. 4.{{ref-en}} |
* Adriaans, Pieter, van Benthem, Johan. [http://www.illc.uva.nl/Research/Publications/Reports/X-2008-10.text.pdf Introduction: Information is what information does]. // Dov M. Gabbay, Pieter Adriaans, Paul Thagard, Johan van Benthem, John Woods (ред.): Philosophy of Information. Amsterdam. С. 4.{{ref-en}} |
||
* {{книга|автор = Глик Д.|заглавие = Информация. История. Теория. Поток|место = М.| |
* {{книга|автор = Глик Д.|заглавие = Информация. История. Теория. Поток|место = М.|издательство = Corpus|год - 2013|страниц = 576|isbn = 978-5-17-080465-8}} |
||
* ''[[Стратонович, Руслан Леонтьевич|Стратонович Р. Л.]]'' [https://web.archive.org/web/20160626120311/http://profbeckman.narod.ru/Informat.files/straton.pdf Теория информации] М.: Сов. радио, 1975. — 424 с. |
* ''[[Стратонович, Руслан Леонтьевич|Стратонович Р. Л.]]'' [https://web.archive.org/web/20160626120311/http://profbeckman.narod.ru/Informat.files/straton.pdf Теория информации] М.: Сов. радио, 1975. — 424 с. |
||
* {{книга|автор = Урсул А. Д.|заглавие = Природа информации|место = М.|издательство = [[Политиздат]]|год = 1968|страниц = 288}} |
* {{книга|автор = Урсул А. Д.|заглавие = Природа информации|место = М.|издательство = [[Политиздат]]|год = 1968|страниц = 288}} |
Текущая версия от 22:52, 13 ноября 2024
В повседневной речи информа́ция (от лат. informātiō «представление, понятие о чём-либо» ← informare «придавать вид, формировать, изображать»[1]) — это абстрактные осмысленные представления суждений о каком-либо объекте. Информация может передаваться, способна наделять знанием и обуславливать действия, обладать количественным измерением[2].
Смысл, вкладываемый в понятие информации, зависит от области применения. Не существует универсального определения, которое объединяло бы концепции информации из разных сфер деятельности.
В международных и российских стандартах даются следующие определения:
- обработанные, организованные и связанные данные, которые порождают смысл (значение) (ISO 5127:2017)[3];
- знания о предметах, фактах, идеях и т. д., которыми могут обмениваться люди в рамках конкретного контекста (ISO/IEC 10746-2:1996)[4];
- знания относительно фактов, событий, вещей, идей и понятий, которые в определённом контексте имеют конкретный смысл (ISO/IEC 2382:2015)[5];
- сведения, воспринимаемые человеком и (или) специальными устройствами как отражение фактов материального или духовного мира в процессе коммуникации (ГОСТ 7.0-99)[6].
Хотя информация должна обрести некоторую форму представления (то есть превратиться в данные), чтобы ей можно было обмениваться, информация есть, в первую очередь, интерпретация (смысл) такого представления (ISO/IEC/IEEE 24765:2010)[7]. Поэтому в строгом смысле информация отличается от данных, хотя в неформальном контексте эти два термина очень часто используют как синонимы.
Первоначально «информация» — сведения, передаваемые людьми устным, письменным или каким-либо другим способом (с помощью условных сигналов, технических средств и т. д.); с середины ХХ века термин «информация» превратился в общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом; обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетке, от организма к организму (например, генетическая информация); одно из основных понятий кибернетики[8].
В современных производных терминах, таких, как информатика, информатизация, подразумевается уже не просто приобщение к обмену сведениями, но и оснащение новейшими технологиями — ИТ.
История понятия
[править | править код]До XX века
[править | править код]В представлении античных философов вся материя существовала в виде четырёх элементов: воды, земли, воздуха и огня. Соответственно, свойства всех вещей были определены той формой, в которую материя соединена[9]. Informatio — «формирование» — понималось как процесс, в результате которого идея получает воплощение: при наблюдении за лошадью в сознании образуется идея о ней; процесс обучения создаёт ученика; художник изготавливает скульптуру, придавая желаемую форму куску мрамора[10]. Историк Джон Дарем Питерс[англ.] предлагает передавать эту концепцию термином «морфогенезис»[11]. Слово informatio использовалось Цицероном и Августином при переводе на латынь таких понятий греческой философии, как эйдос, идея, форма, пролепсис[12]. Фома Аквинский использует для описания гилеморфизма словосочетание informatio materiae («формирование материи»)[10].
Со Средних веков слово «информация» в европейских языках используют в отношении человека образованного, имеющего отношение к науке[10].
Исчезновение концепции морфогенезиса из философского дискурса связано с развитием эмпиризма, не допускающего существования форм за пределами чувственного восприятия. Фрэнсис Бэкон критикует диалектиков, которые «успокаиваются на непосредственных данных (informationibus) хорошо расположенного чувства»[13][11]. Обращаясь к наследию Платона, Джон Локк использует слово «идея» «для выражения того, что подразумевают под словами „фантом“, „понятие“, „вид“, или всего, чем может быть занята душа во время мышления»[14][15]. Для эмпириков поток идей был сырым материалом, на основании которого может быть построено знание, для рационалистов — покровом иллюзий, стоящим на пути разума[11].
Понятие информации как сведений, подлежащих хранению и передаче, возникает в XIX веке[10]. Если для эмпириков информация была связана с чувственным опытом, то с появлением статистики[a] и ростом государственной бюрократии она стала подразумевать знание за пределами опыта конкретного индивида[11]. Такой смысловой переход также связывают с развитием способов коммуникации: массовый выпуск газет, словарей, энциклопедий, распространение почтовых услуг, изобретение телеграфа и телефона привели к восприятию информации как самостоятельного явления, представленного в конкретной форме и обладающего истинностью. Понятие стало относиться не к знаниям, а к определённому способу их приобретения — утверждениям, объективность которых проистекает из факта их публикации в книге или ином авторитетном источнике[16]. Как отмечает социолог Алвин Уорд Гоулднер, знание в виде информации — «это скорее атрибут культуры, чем личности; его значение, его отыскание и его последствия — всё является деперсонализованным… Культура может помогать или препятствовать осознанию, но культура сама по себе не может осознавать»[17]. По мнению Мишеля де Серто, переход читателя в положение пассивного потребителя стал шагом в развитии идей Просвещения о преобразовании общества посредством популяризации знания[18][19].
Математическая теория информации
[править | править код]В середине XX века слово «информация» приобретает новый смысл, связанный с понятием энтропии. В 1948 году выходит книга Норберта Винера «Кибернетика, или управление и связь в животном и машине», где об информации говорится как о третьем фундаментальном понятии природы наряду с материей и энергией. В то же время Клод Шеннон, развивая идеи Гарри Найквиста и Ральфа Хартли, вводит понятие бита как единицы измерения количества информации. Рассматривая проблему оптимизации передачи сигнала по каналу связи, он предлагает свою модель коммуникации, будучи уверенным в том, что «семантические аспекты связи не имеют отношения к инженерной стороне вопроса»[9]. Уоррен Уивер[англ.] уточняет, что в рамках их теории слово «информация» используется не в общепринятом значении, а как характеристика передаваемого сигнала, не подразумевающая наличия смысла.[20][19][21] Такое понимание термина ложится в основу таких концепций, как обработка информации и информационные технологии[16].
Ларс Квортруп[дат.] отмечает, что информация в теории Шеннона и Уивера описывается противоречиво: и как объективная количественная величина, и как субъективный выбор отправителя сообщения[22][23]. С точки зрения семиотики, математическая теория информации описывает только синтаксис (взаимосвязь знаков между собой), но не касается семантики (связи знаков и смысла) и прагматики (связи знаков и людей).[21] Философ Петер Яних[нем.] видит в этом влияние идей семиотика Чарлза Морриса, который считал, что решение проблем синтаксиса создаст предпосылки для решения проблем семантики и прагматики[24]. В 1952 году семантическая теория информации была представлена Йегошуа Бар-Хиллелом и Рудольфом Карнапом[25]. В 1980-е годы теория Шеннона разрабатывается Фредом Дрецке с точки зрения эпистемологии и Джоном Барвайзом[англ.] и Джоном Перри[англ.] в рамках философии языка[15][12]. Теории семантической информации проводят разграничение между данными (последовательностью звуков или символов) и их смысловым содержанием[26].
Дальнейшее распространение термина
[править | править код]С распространением вычислительной техники математическая теория информации оказывает большое влияние на другие сферы деятельности, которые в послевоенные годы всё больше перенимают позитивистские методы естественных наук.[21] Во второй половине XX века закрепляется понимание информации как абстрактного явления, существующего в отрыве от её истинности и конкретной формы представления[16]. Лингвист Джеффри Нанберг[англ.] отмечал, что связанная с современными технологиями концепция начинает ретроактивно применяться по отношению к событиям прошлого: «Нас убеждают, что передаваемая компьютерами субстанция — „информация“ в техническом смысле — по сути то же, что привело к Реформации и Французской революции»[19].
В терминах работы с информацией начинают определять себя такие сферы деятельности, как информатика, электротехника, библиотековедение, психолингвистика, менеджмент, экономика, журналистика, коммуникативистика[11]. С когнитивной революцией эта концепция занимает центральное место в психологии, где начинает доминировать функционализм, рассматривающий сознание по аналогии с обработкой информации вычислительными машинами. За дисциплиной, прежде известной как документалистика, закрепляется название «информационная наука».[27] В 1964 году Мартин Хайдеггер говорил о том, что науки «начинают определяться и направляться новой основной наукой» — кибернетикой, которая «преображает речь в обмен сообщениями», а «искусства становятся направленно-направляющими инструментами [передачи] информации»[28]. В опубликованной в 1983 году работе экономиста Фрица Махлупа отмечается, что представители гуманитарных наук используют в своих теориях общепринятое определение информации, накладывая на него для своих нужд некоторые ограничения: «Требование истинности или правильности должно исключить ложные или неправильные сообщения; требование ценности или полезности должно исключить сообщения, бесполезные для принятия решений; требование новизны должно исключить повторные или избыточные сообщения; требование неожиданности должно исключить сообщения, ожидаемые получателем; требование уменьшения неопределенности должно исключить сообщения, которые не меняют или увеличивают состояние неопределенности получателя; и так далее… Специалисты в ряде дисциплин… ввели удобные для своих целей ограничения, осложнив для неспециалистов понимание того, что имеется в виду». Использование термина «информация» в контекстах, не подразумевающих наличие разумного получателя, Махлуп считает метафорическим (когда речь идёт о биологических системах или группах организмов) или просто некорректным (когда речь идёт о воздействии на механизм или коммуникациях)[29].
Понятие информационной экономики закрепилось в связи с опубликованной в 1977 году одноимённой работой Марка Пората[англ.] и Майкла Рубина. Они обосновывали предложенную ранее Махлупом идею о переходе экономики развитых стран от промышленного производства к знаниям, оценивая четвертичный сектор в 46 % ВНД США[30][31]. По мнению историка Джеймса Бенигера[англ.], парадигмы кибернетики и математической теории информации помогли решить вызванный индустриализацией кризис управления производством, распространением и потреблением товаров. Распространение новых технологий обработки и передачи информации обусловило переход от индустриального общества к информационному[32].
Суть и границы явления
[править | править код]Утверждается, что мы живём в эпоху информации, но при этом очевиден возмутительный факт: у нас нет ни теории, ни даже определения информации, которое было бы достаточно широким и чётким, чтобы придать этому утверждению смысл.
Слово «информация» получило множество определений от различных авторов в рамках теории информации… Едва ли следует ожидать, что единое понятие информации сможет удовлетворить все потребности этой дисциплины.
...нельзя уверенно сказать о чём-либо, что оно не может быть информацией.
Не существует универсального определения информации, которое объединяло бы смыслы, вкладываемые в это понятие в рамках различных теорий: физики, теории связи, кибернетики, статистической теории информации, психологии, семантики, индуктивной логики[36]. Некоторые исследователи скептически оценивают возможность сформулировать такое определение[37][30].
Согласно трилемме Капурро[нем.] ответ на вопрос об определении информации предполагает выбор одной из трёх позиций[38]:
- Однозначность: информация имеет одно и то же значение во всех контекстах.
- Аналогия: информация имеет одно правильное значение в определённом контексте, но может применяться в других контекстах как аналогия.
- Неоднозначность: информация может иметь множество определений, зависящих от контекста.
Гернот Версиг[нем.] отмечает, что под информацией могут подразумевать[39]:
- характеристику объектов материального мира или их взаимоотношений, существующая независимо от наблюдателя;
- знание, полученное посредством восприятия;
- сообщение;
- смысл, выражаемый знаками;
- результат процесса;
- процесс.
Лучано Флориди выделяет три подхода к определению информации[40]:
- информация как реальность (вид физического сигнала, к которому не применим критерий истинности);
- информация о реальности (семантическая информация, к которой применим критерий истинности и на основе которой конструируется знание);
- информация для реальности (инструкции — генетическая информация, алгоритмы, рецепты).
Джонатан Фёрнер классифицирует определения информации следующим образом[26]:
- семиотические определения предполагают разграничение между фактами реального мира, мысленными представлениями о них и языковыми выражениями этих представлений, относя понятие информации к одной из этих категорий;
- социокогнитивные определения понимают информацию как действие или событие, связанное с изменением представлений индивида о реальности, которые зависят от индивидуальных, социальных и культурных факторов;
- эпистемические определения направлены на выявление свойств, которыми должен обладать источник информации, чтобы обосновать некое утверждение в достаточной степени, чтобы его можно было считать знанием.
Теория связи рассматривает информацию как физический феномен с точки зрения синтаксиса. Она касается сложности и частоты передаваемых сигналов в отрыве от их интерпретации. Алгоритмическая теория информации также рассматривает информацию как количественную характеристику, исходя из необходимых для её кодирования вычислительных ресурсов[40].
Четыре аспекта информации[35] | ||
---|---|---|
Нематериальный | Материальный | |
Явление | Информация как знание | Информация как объект (данные, документ, записанные сведения) |
Процесс | Информация как процесс (информирование) | Обработка информации (обработка данных, документов, инженерия знаний) |
Майкл Бакленд выделяет три категории информации: знания, процесс информирования и объекты информации. К последним он относит все объекты и события, из которых можно получить знания, высказываясь против определения информации как обработанных данных, собранных в осмысленном виде[b]: «Во-первых, это оставляет без ответа вопрос о том, как следует называть другие информативные явления, такие как окаменелости, следы и крики ужаса. Во-вторых, возникает дополнительный вопрос о том, какой объем обработки и/или сбора необходим для того, чтобы данные могли называться информацией»[42].
Грегори Бейтсон определял информацию как «различимое различие» (англ. a difference which makes a difference)[43], то есть такой феномен реальности, который влияет на воспринимающего субъекта. Для животного, адаптированного к жизни в своей экологической нише, информативными будут те свойства среды, изменения в которых воспринимаются его органами чувств. Для людей информативность зависит от культурных и социальных факторов[9]. Бенни Карпачоф определял информацию как эмерджентный феномен, связанный с конкретным механизмом, устроенным таким образом, чтобы специфическим образом высвобождать запасённую потенциальную энергию при получении определённого сигнала извне[44]. В таком представлении базовой функцией информации является управление действиями в организованной системе, состоящей из взаимозависимых элементов или подсистем, и любую такую систему (живой организм, сообщество, рукотворный механизм) можно рассматривать как информационный процессор[45][30].
Информационные процессы
[править | править код]Марк Бургин предлагает следующую классификацию информационных процессов по отношению к участвующей в них системе[30]:
- Информирование (воздействие информации на систему)
- Приём информации (получение системой информации от источника)
- Добыча информации (работа системы, направленная на получение существующей информации)
- Производство информации
- Обработка информации (воздействие системы на информацию)
- Преобразование информации (изменение информации или её представления)
- Передача информации (перемещение носителя информации в пространстве)
- Хранение информации (перемещение носителя информации во времени)
- Применение информации (воздействие одной системы на другую посредством информации)
Классификация информации
[править | править код]В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
Информацию можно разделить на виды по различным критериям:
- По способу восприятия:
- Визуальная — воспринимаемая органами зрения.
- Звуковая — воспринимаемая органами слуха.
- Тактильная — воспринимаемая тактильными рецепторами.
- Обонятельная — воспринимаемая обонятельными рецепторами.
- Вкусовая — воспринимаемая вкусовыми рецепторами.
- По форме представления:
- Текстовая — передаваемая в виде символов, предназначенных обозначать лексемы языка.
- Числовая — в виде цифр и знаков (символов), обозначающих математические действия.
- Графическая — в виде изображений, предметов, графиков.
- Звуковая — устная или в виде записи и передачи лексем языка аудиальным путём.
- Видеоинформация — передаваемая в виде видеозаписи.
- По назначению:
- Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.
- Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.
- Секретная — передаваемая узкому кругу лиц и по закрытым (защищённым и адаптивным) каналам.
- Личная (приватная) — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.
- По значению:
- Актуальная — информация, ценная в данный момент времени.
- Достоверная — информация, полученная без искажений с надежных источников.
- Понятная — информация, выраженная на языке, понятном тому, кому она предназначена.
- Полная — информация, достаточная для принятия правильного решения или понимания.
- Ценная — полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.
- По истинности:
В основу классификации положено пять общих признаков:
- Место возникновения.
- Стадия обработки.
- Способ отображения.
- Стабильность.
- Функция управления.
Информация в различных областях деятельности
[править | править код]Эта статья или раздел нуждается в переработке. |
В информатике
[править | править код]Этот раздел не завершён. |
Предметом изучения информатики являются именно данные: методы их создания, хранения, обработки и передачи[46]. Данные представляют собой информацию в формализованном виде (в цифровой форме), позволяющем автоматизировать её сбор, хранение и дальнейшую обработку в ЭВМ. С этой точки зрения информация является абстрактным понятием, рассматриваемым безотносительно к её семантическому аспекту, а под количеством информации обычно понимается соответствующий объём данных. Однако одни и те же данные могут быть закодированы различным образом и иметь при этом различный объём, поэтому иногда рассматривается также понятие «ценность информации», которое связано с понятием информационной энтропии и является предметом изучения теории информации.
В теории информации
[править | править код]Теория информации (математическая теория связи) — изучает процессы хранения, преобразования и передачи информации. Она основана на научных методах измерения количества информации[47]. Теория информации развилась из потребностей теории связи. Основополагающими считаются «Передача информации[48]» Ральфа Хартли опубликованные в 1928 году и «Работы по теории информации и кибернетике[49]» Клода Шеннона, опубликованные в 1948 году. Теория информации изучает пределы возможностей систем передачи данных, а также основные принципы их проектирования и технической реализации[50].
С теорией информации связаны радиотехника (теория обработки сигналов) и информатика, относящиеся к измерению количества передаваемой информации, её свойства и устанавливающие предельные соотношения для систем. Основные разделы теории информации — кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование. Информация не входит в число предметов исследования математики. Тем не менее, слово «информация» употребляется в математических терминах — собственная информация и взаимная информация, относящихся к абстрактной (математической) части теории информации. Однако, в математической теории понятие «информация» связано с исключительно абстрактными объектами — случайными величинами, в то время как в современной теории информации это понятие рассматривается значительно шире — как свойство материальных объектов[источник не указан 3574 дня].
Связь между этими двумя одинаковыми терминами несомненна. Именно математический аппарат случайных чисел использовал автор теории информации Клод Шеннон. Сам он подразумевает под термином «информация» нечто фундаментальное (нередуцируемое). В теории Шеннона интуитивно полагается, что информация имеет содержание. Информация уменьшает общую неопределённость и информационную энтропию. Количество информации доступно измерению. Однако он предостерегает исследователей от механического переноса понятий из его теории в другие области науки[источник не указан 3574 дня].
В теории управления (кибернетике)
[править | править код]Основоположник кибернетики Норберт Винер дал следующее определение информации: «Информация — это обозначение содержания, полученное нами из внешнего мира в процессе приспосабливания к нему нас и наших чувств»[51].
Кибернетика рассматривает машины и живые организмы как системы, воспринимающие, накапливающие и передающие информацию, а также перерабатывающие её в сигналы, определяющие их собственную деятельность[52].
Материальная система в кибернетике рассматривается как множество объектов, которые сами по себе могут находиться в различных состояниях, но состояние каждого из них определяется состояниями других объектов системы. В природе множество состояний системы представляет собой информацию, сами состояния представляют собой первичный код или код источника. Таким образом, каждая материальная система является источником информации.
Субъективную (семантическую) информацию кибернетика определяет как смысл или содержание сообщения. Информация — это характеристика объекта.
Алгоритмическая теория информации
[править | править код]Как область математики — алгоритмическая теория информации была создана А. Н. Колмогоровым[53]. Две основополагающие статьи по ней были опубликованы в журнале «Проблемы передачи информации» в 1965 и 1969 годах[54][55][56]. Центральным в этой теории является понятие алгоритмической (также называемой колмогоровской) сложности информационного объекта, то есть алгоритмического способа его описания (формирования); эта сложность определяется как минимальная длина алгоритма, формирующего такой объект. Теорема Колмогорова устанавливает, что среди алгоритмов, формирующий информационный объект существуют оптимальные, хотя такие алгоритмы не единственные и отличаются для разных способов представления алгоритмов, тем не менее для заданных двух оптимальных способов их длина (сложность) отличается не более чем на аддитивную константу. Задача вычисления алгоритмической сложности объекта является алгоритмически неразрешимой.
В семиотике
[править | править код]Семиотика — комплекс научных теорий, изучающих свойства знаковых систем. Наиболее существенные результаты достигнуты в разделе семиотики — семантике. Предметом исследований семантики является значение единиц языка, то есть информация, передаваемая посредством языка.
Знаковой системой считается система конкретных или абстрактных объектов (знаков, слов), с каждым из которых определённым образом сопоставлено некоторое значение. В теории доказано, что таких сопоставлений может быть два. Первый вид соответствия определяет непосредственно материальный объект, который обозначает это слово и называется денотат (или, в некоторых работах, — номинат). Второй вид соответствия определяет смысл знака (слова) и называется концепт. При этом исследуются такие свойства сопоставлений как «смысл», «истинность», «определимость», «следование», «интерпретация» и др. Для исследований используется аппарат математической логики и математической лингвистики.
Идеи семантики, намеченные ещё Г. В. Лейбницем и Ф. де Соссюром в XIX веке, сформулировали и развили Ч. Пирс (1839—1914), Ч. Моррис (1901—1979), Р. Карнап (1891—1970) и др.
Основным достижением теории является создание аппарата семантического анализа, позволяющего представить смысл текста на естественном языке в виде записи на некотором формализованном семантическом (смысловом) языке.
Семантический анализ является основой для создания устройств (программ) машинного перевода с одного естественного языка на другой.
В юриспруденции
[править | править код]Любые сведения, сообщения, данные, независимо от их оформления, являются информацией — материальным или нематериальным объектом, участвующим в любых отношениях. Развитие технологических возможностей переработки и передачи информации выделило её в самостоятельный предмет производственных, управленческих, идеологических и личных отношений. Информация стала товаром, продукцией, предметом труда и объектом услуг. В системе правовых отношений её рассматривает информационное право. Некоторые международные правовые акты и законодательства ряда стран (в том числе России) провозглашают право человека на свободный поиск, получение, передачу, производство и распространение информации любым способом, не нарушающим законы[57].
В квантовой физике
[править | править код]Квантовая теория информации рассматривает общие закономерности передачи, хранения и преобразования информации в системах, изменяющихся по законам квантовой механики[58].
Информационная политика в организациях
[править | править код]Можно выделить следующие модели информационной политики в организациях[59]:
- Анархия: отсутствие общей политики управления информацией.
- Феодализм: подразделения организации самостоятельно принимают решения по управлению информацией, предоставляя её руководству в ограниченном виде.
- Федерализм: поиск консенсуса по управлению информацией между структурами организации.
- Монархизм: руководство организации контролирует потоки информации и может ограничивать доступ к ней.
- Техноутопизм: поиск технологического решения для категоризации и моделирования информации.
Измерение информации
[править | править код]Измерения в байтах | ||||||||
---|---|---|---|---|---|---|---|---|
ГОСТ 8.417—2002 | Приставки СИ | Приставки МЭК | ||||||
Название | Обозначение | Степень | Название | Степень | Название | Обозначение | Степень | |
байт | Б | 100 | — | 100 | байт | B | Б | 20 |
килобайт | Кбайт | 103 | кило- | 103 | кибибайт | KiB | КиБ | 210 |
мегабайт | Мбайт | 106 | мега- | 106 | мебибайт | MiB | МиБ | 220 |
гигабайт | Гбайт | 109 | гига- | 109 | гибибайт | GiB | ГиБ | 230 |
терабайт | Тбайт | 1012 | тера- | 1012 | тебибайт | TiB | ТиБ | 240 |
петабайт | Пбайт | 1015 | пета- | 1015 | пебибайт | PiB | ПиБ | 250 |
эксабайт | Эбайт | 1018 | экса- | 1018 | эксбибайт | EiB | ЭиБ | 260 |
зеттабайт | Збайт | 1021 | зетта- | 1021 | зебибайт | ZiB | ЗиБ | 270 |
йоттабайт | Ибайт | 1024 | йотта- | 1024 | йобибайт | YiB | ЙиБ | 280 |
роннабайт | - | 1027 | ронна- | 1027 | - | - | - | - |
кветтабайт | - | 1030 | кветта- | 1030 | - | - | - | - |
Пионером в области информационной теории был Ральф Хартли. Он ввёл понятие «информации» (энтропии) как случайной переменной и был первым, кто попытался определить «меру информации».
Простейшей единицей измерения информации является бит — единица измерения количества информации, принимающая 2 логических значения: да или нет, истина или ложь, включено или выключено; 1 или 0 в двоичной системе счисления.
В современных вычислительных системах одномоментно обрабатываются 8 бит информации, называемые байтом. Байт может принимать одно из 256 (28) различных значений (состояний, кодов). Производные от байта десятичные единицы измерения, соответственно, именуются килобайт (103 = 1000 байт), мегабайт (106 = 1 000 000 байт), гигабайт (109 = 1 000 000 000 байт) и т. д.[60]
Производные от байта двоичные (бинарные) единицы измерения именуются кибибайт (210 = 1024 байт), мебибайт (220 = 1 048 576 байт), гибибайт (230 = 1 073 741 824 байт) и так далее[60].
Также, информацию измеряют такими единицами как трит, Хартдит (децит) и Нат.
Символ информации
[править | править код]В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
Обычно[где?] информацию обозначают маленькой буквой i в кружочке
Символ | Юникод | Название |
---|---|---|
ℹ | U+2139 | information source |
ⓘ | U+24D8 | circled latin small letter i |
Дезинформация
[править | править код]Дезинформацией (также дезинформированием) называется один из способов манипулирования информацией, как то введение кого-либо в заблуждение путём предоставления неполной информации или полной, но уже не нужной информации, или полной, но не в нужной области, искажения контекста, искажения части информации.
Цель такого воздействия всегда одна — оппонент должен поступить так, как это необходимо манипулятору. Поступок объекта, против которого направлена дезинформация, может заключаться в принятии нужного манипулятору решения или в отказе от принятия невыгодного для манипулятора решения. Но в любом случае конечная цель — это действие, которое будет предпринято.
См. также
[править | править код]- Информационные процессы
- Информационный взрыв
- Информационный барьер
- Информационная безопасность
- Информационная война
- Информационное общество
- Информационное пространство
- Данные, сигнал, сообщение
- Знание, смысл, семантика
- База данных
- Квантовая информация
Категория информации по отраслям знаний
- Аэронавигационная информация
- Географическая информация
- Инсайдерская информация
- Научно-техническая информация
- Секретная информация
- Генетическая информация
В информатике:
- Предмет исследования
- Единицы измерения информации
- Носитель информации
- Передача информации
- Скорость передачи информации
- База знаний
- Экспертные системы
- Защита информации
- Информационная безопасность
- Информационное право
В общественных науках:
- Асимметричность информации
- Общение
- Рабочие источники информации переводчика
- Обязательное раскрытие информации
- Средства массовой информации
В физиологии и медицине:
В других областях:
Примечания
[править | править код]Комментарии
[править | править код]- ↑ Первоначально статистикой называли сведения об экономическом и демографическом состоянии государств (лат. status).
- ↑ Такое определение распространено в тех областях, где данные и информация предстают в виде овеществлённых объектов: информационной науке, проектировании баз данных и информационных систем, теории принятия решений[41]. Понимание информации как одного из уровней иерархической модели приводит к появлению циклических определений: например, стандарт ISO 5127:2017 определяет информацию как «данные, которые отобраны, организованы и сопоставлены с возникновением смысла», а данные, в свою очередь, как «подлежащее интерпретации представление информации»[3][9].
Источники
[править | править код]- ↑ Крюкова О. О семантической истории слова "информация" // Социальные и гуманитарные науки. Отечественная и зарубежная литература. Сер. 6, Языкознание: Реферативный журнал. — 2019. — Вып. 3. — С. 143–148. — ISSN 2219-8776.
- ↑ Richard L. Derr. The concept of information in ordinary discourse (англ.) // Information Processing & Management. — 1985. — Vol. 21, iss. 6. — P. 489–499. — doi:10.1016/0306-4573(85)90003-2.
- ↑ 1 2 ISO 5127:2017(en) Information and documentation — Foundation and vocabulary: data that are processed, organized and correlated to produce meaning
- ↑ ISO/IEC 10746-2:1996, Information technology — Open Distributed Processing — Reference Model: Foundations.3.2.5: knowledge that is exchangeable amongst users about things, facts, concepts, and so on, in a universe of discourse
- ↑ ISO/IEC 2382:2015 Information technology — Vocabulary Архивная копия от 17 июня 2016 на Wayback Machine: knowledge concerning objects, such as facts, events, things, processes, or ideas, including concepts, that within a certain context has a particular meaning
- ↑ ГОСТ 7.0-99 Архивная копия от 2 апреля 2015 на Wayback Machine Информационно-библиотечная деятельность, библиография. Термины и определения
- ↑ ISO/IEC/IEEE 24765:2010 Systems and software engineering — Vocabulary Архивная копия от 17 июня 2016 на Wayback Machine: Although information will necessarily have a representation form to make it communicable, it is the interpretation of this representation (the meaning) that is relevant in the first place
- ↑ Информация // Большой Энциклопедический словарь . — 2000. // Большой энциклопедический словарь / 2-е изд., перераб. и доп. — М.: Большая Российская энциклопедия, 2000. — 1434 с.
- ↑ 1 2 3 4 Hjørland, Birger. Information // ISKO Encyclopedia of Knowledge Organization.
- ↑ 1 2 3 4 Pieter Adriaans. Information // The Stanford Encyclopedia of Philosophy / Edward N. Zalta, Uri Nodelman. — Metaphysics Research Lab, Stanford University, 2024.
- ↑ 1 2 3 4 5 John Durham Peters. Information: Notes Toward a Critical History (англ.) // Journal of Communication Inquiry. — 1988. — Vol. 12, iss. 2. — P. 9–23. — ISSN 0196-8599. — doi:10.1177/019685998801200202.
- ↑ 1 2 Rafael Capurro. Past, present, and future of the concept of information (англ.) // tripleC: Communication, Capitalism & Critique. Open Access Journal for a Global Sustainable Information Society. — 2009. — Vol. 7, iss. 2. — P. 125–141. — ISSN 1726-670X. — doi:10.31269/vol7iss2pp125-141.
- ↑ Бэкон Ф. Великое Восстановление Наук // Сочинения в двух томах. — 2-е испр. и доп. изд. — М.: Мысль, 1977. — Т. 1. — С. 72. — (Философское наследие).
- ↑ Джон Локк. Опыт о человеческом разумении.
- ↑ 1 2 P. Adriaans, J. van Benthem. Introduction: Information is what information does // Philosophy of information (англ.). — Amsterdam: North Holland, 2008. — ISBN 978-0-444-51726-5.
- ↑ 1 2 3 Keith Devlin, Duska Rosenberg. INFORMATION IN THE STUDY OF HUMAN INTERACTION (англ.) // Philosophy of Information. — Elsevier, 2008. — P. 685–709. — ISBN 978-0-444-51726-5. — doi:10.1016/b978-0-444-51726-5.50021-2.
- ↑ Гоулднер А. Наступающий кризис западной социологии. — Наука, 2003. — С. 550.
- ↑ Серто М. де. Изобретение повседневности. — Издательство Европейского университета в Санкт-Петербурге, 2013. — С. 281.
- ↑ 1 2 3 Geoffrey Nunberg. Farewell to the Information Age // The future of the book (англ.). — Berkeley: University of California Press, 1996. — P. 103—138. — ISBN 978-0-520-20451-5, 978-0-520-20450-8.
- ↑ Claude E. Shannon, Warren Weaver. The Mathematical Theory of Communication. — University of Illinois Press, 1949. — 148 с. — ISBN 978-0-252-72548-7.
- ↑ 1 2 3 Gernot Wersig. Information theory // International encyclopedia of information and library science (англ.) / John Feather, Rodney P. Sturges. — 2. ed. — London: Routledge, 2003. — 688 p. — ISBN 978-0-415-25901-9.
- ↑ Lars Qvortrup. The Controversy over the Concept of Information. An Overview and a Selected and Annotated Bibliography (англ.) // Cybernetics & Human Knowing. — 1993. — Vol. 1, no. 4.
- ↑ Birger Hjørland. Information: Objective or subjective/situational? (англ.) // Journal of the American Society for Information Science and Technology. — 2007. — Vol. 58, iss. 10. — P. 1448–1456. — ISSN 1532-2882. — doi:10.1002/asi.20620.
- ↑ Peter Janich. Was ist Information? Kritik einer Legende (нем.). — Frankfurt am Main: Suhrkamp, 2006. — ISBN 978-3-518-58470-5.
- ↑ Yehoshua Bar-Hillel, Rudolf Carnap. SEMANTIC INFORMATION (англ.) // The British Journal for the Philosophy of Science. — 1953. — Vol. 4, iss. 14. — P. 147–157. — ISSN 0007-0882. — doi:10.1093/bjps/IV.14.147.
- ↑ 1 2 Jonathan Furner. Philosophy and information studies (англ.) // Annual Review of Information Science and Technology. — 2010. — Vol. 44, iss. 1. — P. 159–200. — ISSN 0066-4200. — doi:10.1002/aris.2010.1440440111.
- ↑ Rafael Capurro, Birger Hjørland. The concept of information (англ.) // Annual Review of Information Science and Technology. — 2003. — Vol. 37, iss. 1. — P. 343–411. — ISSN 0066-4200. — doi:10.1002/aris.1440370109.
- ↑ Мартин Хайдеггер. Конец философии и задача мышления // Vox. Философский журнал. — 2008. — № 5.
- ↑ Machlup, F. Semantic quirks in studies of information // The Study of Information: Interdisciplinary Messages (англ.). — Wiley, 1983. — P. 641—671. — ISBN 978-0-471-88717-1.
- ↑ 1 2 3 4 M. S. Burgin. Theory of information: fundamentality, diversity and unification (англ.). — Hackensack, NJ: World Scientific Pub Co Inc, 2010. — 672 p. — (World Scientific series in information studies). — ISBN 978-981-283-548-2.
- ↑ Frank Linde, Wolfgang Stock. Information Markets: A Strategic Guideline for the I-Commerce (англ.). — DE GRUYTER SAUR, 2011. — ISBN 978-3-11-023609-5.
- ↑ James R. Beniger. The control revolution: technological and economic origins of the information society (англ.). — Cambridge, Mass: Harvard University Press, 1986. — 493 p. — ISBN 978-0-674-16985-2.
- ↑ Goguen, J. A. Towards a Social, Ethical Theory of Information // Social Science, Technical Systems, and Cooperative Work: Beyond the Great Divide (англ.). — Psychology Press, 1997. — P. 27—56. — ISBN 978-1-317-77875-2.
- ↑ C. Shannon. The lattice theory of information (англ.) // Transactions of the IRE Professional Group on Information Theory. — 1953. — Vol. 1, iss. 1. — P. 105–107. — ISSN 2168-2690. — doi:10.1109/TIT.1953.1188572.
- ↑ 1 2 Michael Buckland. Information and Information Systems (англ.). — Bloomsbury Publishing USA, 1991. — ISBN 978-0-313-39041-8.
- ↑ Bogdan, Radu J. Information // Handbook of metaphysics and ontology (англ.) / Hans Burkhardt and Barry Smith. — München: Philosophia, 1991. — P. 394. — (Analytica). — ISBN 978-3-88405-080-4.
- ↑ Luciano Floridi. Information (англ.) // The Blackwell Guide to the Philosophy of Computing and Information / Luciano Floridi. — Wiley, 2004. — P. 40–61. — ISBN 978-0-631-22918-6. — doi:10.1002/9780470757017.ch4.
- ↑ Peter Fleissner, Wolfgang Hofkirchner. In-formatio revisited (нем.) // Informatik Forum. — 1995. — Bd. 8, Nr. 3.
- ↑ Wersig, G. and Neveling, U. The phenomena of interest to Information Science (англ.) // Information Scientist. — 1975. — Vol. 9, no. 4. — P. 127–40.
- ↑ 1 2 Luciano Floridi. TRENDS IN THE PHILOSOPHY OF INFORMATION (англ.) // Philosophy of Information. — Elsevier, 2008. — P. 113–131. — ISBN 978-0-444-51726-5. — doi:10.1016/b978-0-444-51726-5.50009-1.
- ↑ Luciano Floridi. Is Semantic Information Meaningful Data? (англ.) // Philosophy and Phenomenological Research. — 2005. — Vol. 70, iss. 2. — P. 351–370. — ISSN 0031-8205. — doi:10.1111/j.1933-1592.2005.tb00531.x.
- ↑ Michael K. Buckland. Information as thing (англ.) // Journal of the American Society for Information Science. — 1991. — Vol. 42, iss. 5. — P. 351–360. — ISSN 0002-8231. — doi:10.1002/(SICI)1097-4571(199106)42:5<351::AID-ASI5>3.0.CO;2-3.
- ↑ Грегори Бейтсон. Шаги в направлении экологии разума: избранные статьи по теории эволюции и эпистемологии. — Изд. 2-е, испр. и доп. — Москва: Ленанд, 2005. — ISBN 978-5-484-00228-3.
- ↑ Benny Karpatschof. Human Activity: Contributions to the Anthropological Sciences from a Perspective of Activity Theory (англ.). — Dansk psykologisk Forlag, 2000. — 536 p. — ISBN 978-87-7706-311-4.
- ↑ G. G. Scarrott. The Nature of Information (англ.) // The Computer Journal. — 1989. — Vol. 32, iss. 3. — P. 262–266. — ISSN 0010-4620. — doi:10.1093/comjnl/32.3.262.
- ↑ Захаров В. П. Информационные системы (документальный поиск): Учебное пособие / В. П. Захаров. — СПб.: СПб.гос университет, 2002. — 188 с.
- ↑ Информации теория : [арх. 6 декабря 2022] / Ю. В. Прохоров // Излучение плазмы — Исламский фронт спасения. — М. : Большая российская энциклопедия, 2008. — (Большая российская энциклопедия : [в 35 т.] / гл. ред. Ю. С. Осипов ; 2004—2017, т. 11). — ISBN 978-5-85270-342-2.
- ↑ Hartley, R.V.L., „Transmission of Information“ Архивная копия от 1 августа 2020 на Wayback Machine, Bell System Technical Journal, July 1928, pp. 535—563
- ↑ C. E. Shannon „A Mathematical Theory of Communication“ (Перевод в сборнике Шеннон К. „Работы по теории информации и кибернетике“. — М.: ИЛ, 1963. — 830 с., С. 243—322) . Дата обращения: 24 марта 2015. Архивировано 13 мая 2015 года.
- ↑ Теория информации // «Энциклопедия Кругосвет».[1] Архивная копия от 23 марта 2009 на Wayback Machine
- ↑ Винер Н. Кибернетика, или управление и связь в животном и машине; или Кибернетика и общество/ 2-е издание. — М.: Наука; Главная редакция изданий для зарубежных стран, 1983. — 344 с.
- ↑ Информация в математике : [арх. 3 января 2023] / Ю. В. Прохоров // Излучение плазмы — Исламский фронт спасения. — М. : Большая российская энциклопедия, 2008. — (Большая российская энциклопедия : [в 35 т.] / гл. ред. Ю. С. Осипов ; 2004—2017, т. 11). — ISBN 978-5-85270-342-2.
- ↑ Боголюбов Н. Н., Гнеденко Б. В., Соболев С. Л. Андрей Николаевич Колмогоров (К восьмидесятилетию со дня рождения) /Пред. к книге: Колмогоров А. Н. Теория информации и теория алгоритмов. — М.: Наука, 1987. — Стр. 16. — 304 с.
- ↑ Колмогоров А. Н. Три подхода к определению понятия «Количество информации». — Проблемы передачи информации, 1965, т. 1, с. 3-11.
- ↑ Колмогоров А. Н. К логическим основам теории информации и теории вероятности. — Проблемы передачи информации, 1969, т. 5, с. 3-7.
- ↑ Колмогоров А. Н. Теория информации и теория алгоритмов. — М.: Наука, 1987. — Стр. 213—223, 232—237. — 304 с.
- ↑ Информация в праве : [арх. 15 июня 2024] / И. Л. Бачило // Излучение плазмы — Исламский фронт спасения. — М. : Большая российская энциклопедия, 2008. — С. 495. — (Большая российская энциклопедия : [в 35 т.] / гл. ред. Ю. С. Осипов ; 2004—2017, т. 11). — ISBN 978-5-85270-342-2.
- ↑ Квантовая теория информации : [арх. 21 октября 2022] / А. С. Холево // Канцелярия конфискации — Киргизы. — М. : Большая российская энциклопедия, 2009. — (Большая российская энциклопедия : [в 35 т.] / гл. ред. Ю. С. Осипов ; 2004—2017, т. 13). — ISBN 978-5-85270-344-6.
- ↑ Thomas H Davenport, Laurence Prusak. Information Politics (англ.) // Information Ecology. — Oxford University PressNew York, NY, 1997-06-26. — P. 67–82. — ISBN 978-0-19-511168-2. — doi:10.1093/oso/9780195111682.003.0005.
- ↑ 1 2 International Standard IEC 80000-13 Quantities and Units — Part 13: Information science and technology, International Electrotechnical Commission (2008).
Литература
[править | править код]- Pieter Adriaans. Information. // Стэнфордская философская энциклопедия, 2012. (англ.)
- Adriaans, Pieter, van Benthem, Johan. Introduction: Information is what information does. // Dov M. Gabbay, Pieter Adriaans, Paul Thagard, Johan van Benthem, John Woods (ред.): Philosophy of Information. Amsterdam. С. 4. (англ.)
- Глик Д. Информация. История. Теория. Поток. — М.: Corpus. — 576 с. — ISBN 978-5-17-080465-8.
- Стратонович Р. Л. Теория информации М.: Сов. радио, 1975. — 424 с.
- Урсул А. Д. Природа информации. — М.: Политиздат, 1968. — 288 с.
- Урсул А. Д. Проблема информации в современной науке. — М.: Наука, 1975.
- Чернавский Д. С. Синергетика и информация (динамическая теория информации). — Едиториал УРСС, 2004. — ISBN 5-354-00241-9.
- Мелик-Гайказян И. В. Информационные процессы и реальность. — М.: Наука, Физматлит, 1997. — 192 с. — ISBN 5-02-015086-X.
- Хургин В. Об определении понятия «информация» // Информационные Ресурсы России. — 2007. — № 3.
- Информатика: Учебник / Под ред. проф. Н. В. Макаровой. — М.: Финансы и статистика. — 2006. — 768 с.