Инфодинамика, Обобщённая энтропия и негэнтропия - Лийв Э Х. Страница 21

Инфосистемы содержат в качестве структурных эле-ментов связанную информацию - ОНГ. В то же время они как системы имеют и собственную ОНГ. Получается, что можно определить негэнтропию системы из ОНГ. В этом не имеется ничего противоестественного. Известно, что ОНГ может иметь разные ступени обобщённости, разное качество, разное положение в иерархии состоящей из ОНГ. Если ОЭ является показателем качества энергии, то ОНГ системы является показателем качества ОНГ элемента и их сово-купности. Элементы (ОНГ) в инфосистемах расположены также по иерархической схеме, как во всех системах. Причём на более высоком уровне ОНГ имеет более высокое качество и содержит больше обобщающей информации. Но ОНГ может развиваться не только в сторону высоты в иерархии, а также в глубину и в микромир. Известно, что сознание второй ступени - самосознание может моделировать, кроме физичес-кого состояния и своё сознание, т.е. сознание первой ступени. Соответственно сознание третьей ступени моделирует соз-нание второй ступени и т.д. В пирамиде систем более высокая ступень ОНГ развивается за счёт уменьшения ОНГ более низкого слоя. Для характеристики ОНГ высоких слоёв необ-ходимо ввести критерий цели, ценностей, свободы выбора, многомерное пространство поиска, которые не являются уже физическими критериями.

Исследование ОЭ и ОНГ сложных управляемых инфо-систем (ИС) также необходимо начинать с их структурных элементов. Элементы ИС разделяются на 2 типа:

1. Негэнтропия 2. Инфоканал И1 ??R Ї Иупр ОНГ - ОЭ И2 ??R ОНГ1 Ї Иупр ??R - ОЭ ОНГ2

При исследовании первого типа новым вопросом явля-ется понятие "энтропия ОНГ". Это явление так распрост-ранёно, что каждый знаком с ним по повседневной жизни. Достаточно напомнить процесс стирания многих фактов из памяти. Характерно и исчезновение (частичное или полное) записей из памяти ЭВМ, например под действием вируса. Поскольку ресурс работоспособности в эксплуатации любого товара можно связывать с его ОНГ, то её потеря харак-теризуется увеличением ОЭ. Примером потери ОНГ являются также отрицательные мутационные изменения в генах (хро-мосомных ДНА). Это является причиной различных на-следственных заболеваний. Энтропия ОНГ наблюдается так-же в неорганическом мире. Многие реологические модели веществ основаны на "вспоминании" вязкой среды о влиянии сил, действовавших в прошлом и на постепенные потери этой "памяти". Явление тиксотропии основывается на временном разрушении структуры (энтропия ОНГ) вещества и на час-тичной её востановлении со временем. Как повышение энт-ропии ОНГ можно рассматривать также частичное уменьше-ние упорядоченности ОНГ в инфосистеме. Чем меньше сис-темность расположения данных в инфосистеме, тем труднее их найти, обработать и применять нужную информацию.

Многие явления инфообработки в отдельных науках исследованы подробно. Однако, недостаточно раскрыта их общие черты: сущность в виде инфосистем, структура ОЭ и ОНГ элементов. Из-за малоразработанности методик пока не проводились расчёты ОЭ и ОНГ и нет сравнительных данных этих показателей в разных системах. Сложение ОНГ эле-ментарных ИС даёт возможность исследовать движение информации и накопление ОНГ в сложных и многоэтажных комплексах.

Вторым типом элементарных ИС являются инфоканалы (ОНГ2?RОНГ1). Методы расчётов формального количества информации и пропускной способности конкретных инфо-каналов разработаны теорией информации. В качестве меры количества информации полученной элементом ОНГ1 о собы-тии в элементе ОНГ2, принимается величина, на которую в среднем уменьшается неопределённость (ОЭ) величины ОНГ1, если там становятся известным данные о событиях в системе ОНГ2, т.е. разность между безусловной и условной энтропией. И (ОНГ1, ОНГ2) = ОЭ (ОНГ1) ? ОЭ (ОНГ1 / ОНГ2)

Формально, по классическим формулам, можно рассчи-тать всю информацию, которую можно кодировать в циф-ровые (дигитальные, двоичные) сигналы. Трудности могут возникать только из-за скорости передачи информации и из-за пропускной способности канала связи, которые могут быть определены известными методами.

Однако, инфообмен между системами осуществляется не только через инфоканалы путём кодирования в цифровые или электрические сигналы, но и более сложными путями (хими-ческие, физические, волновые процессы, массо- и энерго-обмен, обмен мыслями, идеями и т.д.). В этих случаях возни-кают при определении количества информации принципи-альные трудности.

По классической теории важным свойством количества информации является не только его положительность И ? 0, но и симметричность. И (ОНГ1, ОНГ2) = И (ОНГ2, ОНГ1) или

ОЭ (ОНГ1) ? ОЭ (ОНГ1/ОНГ2) = ОЭ (ОНГ2) ? ОЭ (ОНГ2/ОНГ1)

Симметричность означает, что количество информации в принятом системой ОНГ1 сигнале о посланном из системы ОНГ2 равно количеству информации принятой системой ОНГ2 от посланного из системы ОНГ1. Следует, однако, учесть, что условия симметричности информации спра-ведливы только в случае симметричности инфоканала, т.е. возмущения действуют на канал одинаково, независимо от направления движения информации. Механизмы кодирова-ния и декодирования должны при этом быть изоморфны, независимо от направления.

При расчётах инфообмена между большинством реально существующих систем возникают принципиальные трудности, так как между ними не существует симметричного канала связи по следующим причинам.

1. Механизмы кодирования и декодирования инфор-мации между системами не согласованы.

2. Возмущение информации средой может зависеть от направления передачи информации, так как влияние среды на отдельные системы может сильно различаться.

3. В теории информации предполагается, что отпра-витель и приёмник информации являются системами, обла-дающими ОЭ и ОНГ в виде скалярной величины как функ-цию состояния. В реальных системах как ОЭ, так и ОНГ, а также передаваемая информация являются многофактор-ными, многомерными векторами. Кроме того, инфообмени-вающие системы часто имеют разные размерности ОЭ, ОНГ и поэтому принципиально инфообмен между ними не может быть симметричен. Например, если отправитель информации имеет ОНГ с более высокой размерностью, чем приёмник, то последний уже из-за недостаточных размерностей (разно-образия) не может полностью принимать высланную инфор-мацию. В обратном направлении информация может быт принята полностью.

7. СИСТЕМЫ ОБРАБОТКИ ИНФОРМАЦИИ

Обработкой информации называют любое упорядочение полученного системой информации и сочетание её с уже име-ющейся связанной информацией (ОНГ). Таким образом, об-работка является необходимым условием для получения сис-темой любой информации, так как без этого не увеличивается её ОНГ. В относительно простых неорганических системах это сопровождается возникновением новых структурных эле-ментов. Однако, чем более сложны системы, тем сложнее ста-новятся и процессы обработки информации [ 49 ]. Кроме её хранения (связывания) появляются процессы системати-зации, выбора, сжатия, отсеивания, рассеяния, старения. В более сложных системах появляются процессы сравнения альтернативных вариантов, обобщения, дифференцирован-ного отсеивания ненужного [ 12, 50 ]. В ещё более сложных системах появляются уже процессы селективного поиска ин-формации, моделирования, оптимизации, кодирования, сим-волы и язык, процессы уплотнения и творчества [ 51 ]. Всё это многообразие процессов имеет некоторые общие законо-мерности [ 24, 29 ], которые необходимо более точно сформу-лировать.

Одним существенным различием между неживой и жи-вой природой является то, что системы неживой природы активно не занимаются поиском информации, а принимают то, что поступает. Системы живых организмов умеют уже селектировать (выбирать) нужную им информацию, а ненуж-ную просто не принимают, не обращая на это внимание. Человек, кроме этих способностей, может также осознать процесс принятия информации и его целесообразно направ-лять, т.е. ввести процесс активного поиска. Поиск в своём первоначальном виде является случайным поиском. В даль-нейшем и в случайном поиске обнаружились свои законо-мерности и возможности повышения эффективности. Появи-лись многочисленные методы планирования эксперименталь-ного поиска. Их целью является получить минимальным объёмом эксперимента (количеством опытов) максимальное количество информации. Появились математические методы планирования и обработки экспериментальных данных, оцен-ки их статистической достоверности. В следующем этапе раз-рабатывались эвристические стратегии выбора. Согласно та-кой стратегии используют целый комплекс методов сжатия поискового поля: детерминированные, статистические, случай-ный поиск, проверка гипотез и др. Поэтапно отсеивают явно неэффективные варианты, информационное поле (массив) сужается и поиск осуществляется более короткими шагами. Значение имеет и количество поисковых признаков, пара-метров и критериев.