Перезагрузка знаний » Метафизика » философия и теология |
Что такое информация
Предположительно, понятие "информация", как смысл в контексте словосочетания in form (в форме), рассматривалось ещё античными философами. Само же слово "информа;ция" произошло от латинских слов inform;ti; (разъяснение, представление, понятие о чём-либо) и informare (придавать вид, форму, обучать; мыслить, воображать). Бытует мнение, что фраза «de saxis informibus» из Вульгаты (латинского перевода Священного Писания) Иеронима (342—419) переводится как «из камней цельных» (Втор. 27:6), а фраза «informem adhuc me» переводится как «Зародыш мой» (Пс. 138:16), которую можно перевести еще и как «бесформенного ещё меня», потому что так («ещё бесформенная») переводятся слова «adhuc informem» из Исповеди Августина (354—430). В "Божественной комедии" Данте (1265—1321) словом "informa" уже обозначается не просто что-то бесформенное, а процесс целевого творения (Ч. XVII 16-18, Ч. XXV 40-42, Р. VII 133—138). "Целевое творение" несет в себе информативность, или знание Творца о том, что Он творит, где и с какой целью. Это спорный вывод, поскольку в латинском языке сочетание in со словом может иметь и противоположное значение (не "внутри", а "вне"). Слово информация вошло в русский язык в эпоху Петра I от польского informacja. Впервые зафиксировано в "Духовном регламенте" 1721 г. со значением "представление, понятие о чем-либо". Тем не менее, это слово долго не было востребовано в русском языке, пока в 1929 году, после выхода в свет публикации Р.Хартли "Передача информации", в Малой Советской Энциклопедии не появилась статья с изложением его смысла, причем смысл термина "информация" был еще очень далек от современного. К первой половине двадцатого века окончательно оформилось общее понимание, что информация - это сведения, передаваемые людьми устным, письменным или каким-либо иным способом (с использованием условных сигналов, технических средств и т. д.). Бум в отношении слова "информация" начался в середине двадцатого века (а именно в 1948 году) и связан был с выходом "Кибернетики" Норберта Винера. Теперь область применения термина "информация" расширилась благодаря тому, что обмен сведениями уже рассматривался не только между людьми, но и между человеком и устройством, а также непосредственно между разными объектами живой и не живой природы без участия человека. В том же году появилась статья инженера-связиста Клода Шеннона "Математическая теория связи”, в которой он предложил способ измерения количества информации. Наступило время всевозможных информационных теорий. Теории информации создавались в контексте с понятием энтропии, введенной в теорию коммуникации Ральфом Хартли в 1928 году. Характерно определение, данное Л.Бриллюэном "информация – это отрицательная энтропия (негэнтропия)". Для справки: энтропия - содержательность, мера неопределенности. Понятие энтропии известно с XIX века благодаря трудам немецкого физика Рудольфа Клаузиуса, который в 1851 году ввел его для объемов газа. Созданные в разделе прикладной математики, радиотехники и информатики, теории информации были связаны с управленческими процессами и выбором возможностей в коммуникации под эгидой теории множеств, теории вероятности и особенностей энтропии. В современных теориях добавилось много математических, криптографических и прочих нюансов типа: неравенство Крафта, код Шеннона-Фано, реляционный анализ Грея и т.д., но и по сей день в основе всех теорий информации лежит формула Клода Шеннона с учетом цепей Маркова и алгоритмы ее реализации (например, алгоритмическая теория А.Н.Колмогорова). Но это все были, на самом деле, теории передачи (!!!) информации, или теории статистических мер информации в каналах связи, единственными критериями которых являются сбережение передаваемой информации от искажений и оптимизация пропускной способности каналов связи. На сегодняшний день так сложилось, что исследованием непосредственно информации занимаются две комплексные отрасли науки - кибернетика и информатика. Информатика, сформировавшаяся как наука в середине XX века, отделилась от кибернетики и занимается исследованиями в области способов получения, хранения, передачи и обработки семантической информации. Исследования смыслового содержания информации основываются на комплексе научных теорий под общим названием семиотика. Так что же такое "информация" в своей онтологии? Понятие "информация" на сегодняшний день остаётся одним из самых дискуссионных в науке, поскольку может иметь совершенно разные смыслы в разных отраслях человеческой деятельности. Причина в том, что в одних случаях информацией называются передаваемые данные; в других случаях - знания, содержащиеся в передаваемых данных; а в третьих случаях - символы и прочие обозначения знаний, используемые в передаваемых данных. Академик Н.Н.Моисеев даже в свое время полагал, что в силу широты этого понятия, нет и не может быть строгого и достаточно универсального определения информации. Развеем этот миф. 1) В международных и российских стандартах закреплены следующие определения информации: -знания о предметах, фактах, идеях и т. д., которыми могут обмениваться люди в рамках конкретного контекста (ISO/IEC 10746-2:1996); - знания относительно фактов, событий, вещей, идей и понятий, которые в определённом контексте имеют конкретный смысл (ISO/IEC 2382:2015); -сведения, воспринимаемые человеком и (или) специальными устройствами как отражение фактов материального или духовного мира в процессе коммуникации (ГОСТ 7.0-99). Как видно, речь идет о знаниях. Это так называемая антропоцентрическая концепция, согласно которой информация существует лишь в человеческом сознании, в человеческом восприятии. 2) Предметом изучения информатики являются данные: методы их создания, хранения, обработки и передачи. Данные представляют собой информацию в формализованном виде (в цифровой форме), позволяющем автоматизировать её сбор, хранение и дальнейшую обработку в ЭВМ. С этой точки зрения информация является абстрактным понятием, рассматриваемым безотносительно к её семантическому аспекту, а под количеством информации обычно понимается соответствующий объём данных. Однако одни и те же данные могут быть закодированы различным образом и иметь при этом различный объём, поэтому иногда рассматривается также понятие «ценность информации», которое связано с понятием информационной энтропии и является предметом изучения теории информации. Как видно, речь идет о некоем смысловом следе на носителе. В пункте 1) имеем дело с субъективной составляющей информации, а в пункте 2) - с объективной. Исходя только из этих примеров, дадим определение информации: Информация - это след знаний на носителе Как видно, смысл понятия "информация" формируют в равной степени три основополагающих понятия: "след", "знания" и "носитель". Одним понятием смысл информации не определить: уберем знания - не получим определение информации, а уберем след или носитель - получим аналогичный результат. Это значит, что информация - трехсоставное понятие. Доказательство: все теории информации строятся на основе следа (энтропия плюс вероятность), кибернетика оперирует носителями и следами (1 или 0), читаете вы книгу (носитель) за счет букв (след) и получаете знания, которые (знания) откладываете в нейронной сети (носитель) в виде полевых комбинаций (след). Так что академик Моисеев был не прав: понятие "информация" имеет конкретное определение. И это определение - трехсоставное. В заключение проанализируем данное определение при помощи формулы Абсолюта: Абсолют = Идея&Пространство&Движение Пространством однозначно является носитель. След - это "фотография" Движения, его отпечаток, или застывшее на определенном этапе Движение. Знания - это основная Идея информации, смысл информации. Получаем: Информация = Знания&Носитель&След что полностью соответствует формуле Абсолюта. | |
Просмотров: 101 | | |