интересно
Предыдущая | Содержание | Следующая

Семантическая мера количества информации и эффективности научных исследований

Энтропийная теория семантического анализа научной информации позволяет прогнозировать появления принципиально новой информации в этой области, оценивать интенсивность развития семантики информационных массивов и усовершенствовать принцип организации информационных баз данных.

В качестве меры разнообразия истинности элементарной семантической единицы (ЭСЕ) в научной информации выбирают энтропию.

ЭСЕ в рамках данной теории или парадигмы. Понятие ЭСЕ в научной информации аналогично системе частиц в материальном теле.

Энтропия Э(х) является мерой разнообразия, или неопределенности, случайной величины х.

Использование энтропийного подхода в целом целесообразно для моделирования при исследовании различных проблем науки. Так, например, в теории автоматического регулирования, где необходимо учитывать случайные возмущения, представляет интерес анализ и прогнозирование состояния среды существования системы, мера неопределенности которой и есть энтропия.

Энтропия Э(х) после завершения того или иного этапа научных исследований, когда полученные результаты увеличивают общее знание, уменьшается до новой реальной неопределенности (реального незнания), определяемой условной энтропией Э(х/у). Тогда получаем выражение

ЭСЕ уже полученных при научных исследованиях и включенных в оборот знаний, или у - это новая переменная, описывающая новое состояние системы, возникающее в результате новых исследований и увеличения общего знания.

  так как благодаря новым исследованиям и увеличению общего знания уменьшается неопределенность и, следовательно, энтропия.

Итак, в качестве семантической меры количества дополнительной информации (0, включенной в оборот знаний и увеличивающей общее знание, служит степень уменьшения нашего реального незнания в рамках анализируемой теории или парадигмы

и это означает, что данная теория

полностью исчерпала себя и мы в рамках данной теории все знаем о системе.

Таким образом, условная энтропия Э(х/у), связанная с получением новой дополнительной информации, определяет семантическую меру эффективности научных исследований данного направления, характеризующую их предельные познавательные возможности в рамках данной теории.

Минимизация Э(х/у) означает включение в структуру знаний новой информации.

Величина Q, характеризующая количество полученной дополнительной информации, включенной в оборот знаний, является оценкой степени симметрии (асимметрии) формируемого ею информационного фантома (ИФ) по отношению к действительности.

Последнее выражение совпадает с выражением К. Шеннона для избыточности множества сообщений.

  - энтропия данного множества сообщений,

а Эмакс - максимальная энтропия сообщений, Рi, - вероятностная мера множества сообщений, входящих в данную совокупность.

С другой стороны, смысл этих двух выражений совершенно различен. Так, при отсутствии избыточности сообщений R = 0 и, следовательно, Э = Эмакс, сообщение полностью информативно, т е. имеется вся информация, тогда как при g = 0 и, следовательно, Э(х/у) = Эмакс(Х), наоборот, имеется полное отсутствие какой-либо информации по данному научному направлению, т.е. полное незнание.

Если возрастание избыточности сообщений (R) не означает увеличение его информации, то увеличение g означает увеличение количества информации, включенной в оборот знаний.

Эти различия обусловлены тем, что в выражении К. Шеннона информация анализируется на синтаксическом (количественном) уровне, тогда как в другом случае - на семантическом (содержательном) уровне. Очевидно, что чем больше наше реальное знание и меньше наше реальное незнание в рамках данной теории, а значит, больше число истинных ЭСЕ, тем более достоверны результаты анализа информации.

Еще раз подчеркнем, что семантическую меру информации, включенной в оборот знаний, представляет энтропия истинности множества ЭСЕ, являющаяся совокупностью как попавших в оборот знаний ЭСЕ, так и потенциально возможных в рамках данной теории В качестве семантической меры эффективности научных исследований, характеризующей познавательные предельные возможности в рамках данной теории, целесообразно выбирать условную энтропию Э(х1у), где х - множество ЭСЕ в рамках данной теории, а у - совокупность ЭСЕ этого множества, включенных в оборот знаний.

Предложенная в работе  энтропийная теория семантического анализа научной информации требует последовательного рассмотрения информационного массива и организации баз данных, обеспечивающих как оценку интенсивности развития их семантики, так и возможность прогноза появления принципиально новой информации.

Энтропийный анализ семантической структуры научной информации в области радиотехники и биологии, проведенный в , позволил получить три новых алгоритма компенсации помех принципиально отличающихся от известных, что соответствует синтезу новой семантической информации. В области биологии предложены формирование и развитие информационных фантомов, которые позволят создать чувствительные биоиндикаторы.

За счет преднамеренного нарушения стабильности информационных фантомов удается решать задачи синтеза новой информации.

По своей сути предложенный в  энтропийный подход к семантическому анализу научной информации наиболее близок к методу Дельфи, когда не требуется компромисс мнений специалистов при оценке перспектив развития того или иного научного направления. Как и в методе Дельфи, здесь не требуется общение специалистов друг с другом и компромисс мнений. При использовании метода Дельфи эксперты лишь устанавливают основную причину возникающих разногласий, а в случае энтропийного анализа АСУ исследуют базу данных, включающую публикации без опроса специалистов. Противоречия во мнениях, полученных результатах исследований не устраняются, а используются для оценки полноты информационного массива.