Инфодинамика, Обобщённая энтропия и негэнтропия - Лийв Э Х. Страница 15
Возникает вопрос, почему не определить все ОЭ и ОНГ систем относительно критериев систем самого высокого уровня обобщения, например на уровне человеческого об-щества в целом или на уровне развития универсума? Это был бы самый идеальный случай: все координировали бы свои действия на основе всемирного блага, в направлении умень-шения всемирной ОЭ и повышения ОНГ. Однако, чем выше уровень обобщения, тем менее точным становяться резуль-таты. Это обусловлено следующими факторами:
1. Чем выше уровень обобщения (объём комплекса систем), тем больше ОЭ систем и тем труднее её моде-лировать.
2. Уменьшается гомоморфность моделей и их соответст-вие первичной реальности. Увеличивается приближённость моделей, их неопределённость.
3. Падает удельный вес ОЭ изучаемой системы в общем ОЭ. Из-за этого резко увеличивается неточность рассчётов, в т.ч. условных вероятностей.
4. В сильно обобщённых системах трудно определить оптимальные целевые критерии. Резко повышается размер-ность системы, но и её многоцельность.
Для получения более точных данных необходимо со-четать результаты оптимизации ОЭ и ОНГ на разных уров-нях обобщения и при применении соответствующих целевых критериев. Часто целесообразно поиск оптимальных ОЭ и ОНГ провести по методам системного подхода, осуществляя его в виде нескольких циклов (гл. 7) с целью постепенного приближения к оптимальным решениям. Результаты опреде-ления ОНГ по критериям высших уровней показывают интересы всемирного или государственного развития. Крите-рии более низкого уровня - интересы отдельных организаций и личностей. В случае оптимального управления величины ОНГ разного уровня должны совпадать для конкретной системы. Большие отличия в ОНГ свидетельствуют о больших пробелах в организации, о неупорядоченности комплексов систем. В государственном масштабе требуются законодательные меры для оптимального управления и упорядочения деятельности всех лиц и организации по критериям ОЭ и ОНГ.
5. ИНФОРМАЦИЯ И МЕТОДЫ
ЕЁ ИЗМЕРЕНИЯ
Обсуждению различных аспектов сущности, обработки и применения информации посвящено огромное количество работ, в частности [ 24, 25, 27 35, 37 - 44 ]. Несмотря на многочисленность публикации многие основные вопросы ос-тались до настоящего времени невыясненными. Близость мнений достигнута только в том, что полученная информация уменьшает неопределённость, незнание, беспорядок принима-ющей её системы. Почти все авторы обращают внимание на возрастающeе значение информации во всех сферах неорга-нической и живой природы, в деятельности человека и об-щества. Неясных вопросов, однако, имеется намного больше. Из них первоочередного рассмотрения требуют следующие проблемы.
1. Сущность и возможности оценки неопределённости, вероятности, неупорядоченности, энтропии. Их взаимные отношения и влияние между системами.
2. Механизм передачи информации от одной системы (или её элемента) к другой. Как происходит само-произвольное образование каналов связи между сложными системами.
3. Методика определения качества и количества переда-ваемой информации, в т.ч. многомерной, вероятностной, семантической и обобщённой.
ЗАГАДКИ НЕОПРЕДЕЛЁННОСТИ
Поскольку основой информации является уменьшение неопределённости систем, необходимо точнее раскрыть её сущность и связь с такими понятиями как вероятность, разно-образие, беспорядок, хаос, неупорядоченность, энтропия, не-предсказуемость, деструктивность, рассеянность, стохас-тичность, случайность и шум.
Наиболее общим понятием из перечисленных является неопределённость. Меру неопределённости можно рассмат-ривать как функцию от числа возможных исходов и ком-бинаций элементов в системе. То же характеризует их разнообразие. В любой системе её разнообразие зависит от количества различных элементов, числа и комбинаций их возможных состояний и количества возможных связей между ними. Поэтому понятия "неопределённость" и "разнообразие" часто употребляются как синонимы. Мерой неопределённости системы является её энтропия, для сложных многомерных систем - ОЭ. Однако, ряд важных положений, для обосно-вания использования ОЭ выведены на определённых допу-щениях. С помощью классических формул энтропию (не-определённость) можно охарактеризовать совокупностью всех независимых возможных событий. С помощью условных вероятностей и условных энтропий можно описать взаимную зависимость между событиями. Но существующие зави-симости весьма разнообразны. При функциональной, детер-минированной зависимости переходы системы из одного состояния в другое полностью предопределены условиями (ОЭ = 0). Во многих процессах зависимости между собы-тиями носят случайный характер. Среди них есть и такие, в которых событие является сугубо индивидуальным резуль-татом исторически сложившегося стечения случайных об-стоятельств, в цепи которых невозможно обнаружить никаких закономерностей. Однако, при дополнительных допущениях, и такие процессы (т.н.марковские случайные процессы) мож-но характеризовать энтропией (К.Шеннон). Таким образом, применять энтропию как меру неопределённости нужно очень осторожно, проверяя предварительно, насколько исследуемый процесс при условиях данной задачи соответствует принятым допущениям и ограничениям. Последние нужно выбирать в таком количестве, чтобы обеспечить достаточную выполняе-мость расчётов, достоверность данных и точность результа-тов. Понятие неупорядоченности является отношением факти
ческой к максимально возможной энтропии ОЭф ,показывает ОЭм
cтепень уменьшения ОЭм после получения ОНГ и колеблется
в пределах 0 ОЭф 1 ОЭм
Вероятность также характеризует неопределённость, но её прямое применение возможно при конкретных, более уз-ких пределах. Для многих сложных вероятностей много-мерных систем применение условных вероятностей в расчётах связано с большими трудностями. В мире нет чисто слу-чайных или чисто детерминированных систем. Вероятност-ный компонент содержится во всех в первичной реальности существующих системах. Они имеют бесконечно большую размерность, неопределённость в микромире, во времени и пространстве. Их энтропия приближается к бесконечности. В реальном мире нет абсолютно детерминированных систем. Имеются искусственно изолированные во времени и в прост-ранстве системы, в которых детерминированный компонент превалирует. Например, солнечная система. Движение планет подчиняется законам гравитации, предсказуемо по математи-ческим уравнениям. Однако, и эта система (орбита) изменя-ется по космическим масштабам быстро и солнце само тоже не существует вечно (около 5 млрд. лет). Мысленно можно создать модели, которые абсолютно детерминированные, т.е. исключают все случайности. Вероятность результата такой системы 1,0; ОЭ = 0. Например, система состоит из формулы 2 ? 2 = 4. Вероятность достижения целевой критерии 4 сос-тавляет 1,0; ОЭ = 0. Однако, такая система существует только в голове. В реальной жизни нет четырёх абсолютно одинаковых объектов, а при сложении разноценных систем результат становится неопределённым.
Почти во всех системах неопределённость есть некото-рое отношение элемента, входящего в множество, к числу всех элементов в множестве. В каждом отношении сочета-ются случайные и неслучайные факторы. Соответственно с этим для уменьшения неопределённости системы необходимо сочетать статистическую теорию информации с использова-нием априорной информации, теорий, гипотез и других мето-дов эвристического моделирования, в том числе с экспе-риментами.
Стохастичность и случайность можно считать синони-мами, также как и неупорядоченность и беспорядок. Имеются понятия для обозначения неопределённости в отдельных об-ластях: шум - в процессе инфопередачи, непредсказуемость - в прогнозах будущего, деструктивность - в структуре, рассеянность - в пространстве.
СУЩНОСТЬ ИНФОРМАЦИИ
Из огромного числа публикаций по проблеме сущности информации можно выделить два её основных значения.
1. Давно применяемое "обыденное" значение, что сфор-мировал также Н.Винер: "Информация - это обозначение содержания, полученного из внешнего мира в процессе на-шего приспособления к нему и приспосабливания наших чувств [ 21 ]. Здесь информация выступает в роли знания, сообщения.