интересно
| Содержание | Следующая

Энтропия, антиэнтропия, негэнтропия, энтропийные модели систем и проблемы управления

Энтропия является фундаментальным свойством любых систем с неоднозначным, или вероятностным, поведением.

Известно, что любые дискретные множества, любые объекты и явления (системы) живой и неживой природы без исключения содержат черты порядка и беспорядка (хаоса), определенности и неопределенности, организованности и дезорганизованности, а следовательно, и энтропии Величина энтропии как количественной меры неопределенности, непредсказуемости, беспорядка, хаоса, дезорганизованности вероятностных систем является всеобщей. Поэтому исследователю и конструктору неизбежно приходится считаться с наличием энтропии в виде неупорядоченных, дезорганизующих, хаотических, шумовых факторов в поведении вероятностных систем, в элементах и в их взаимодействии. Ученые в начале XX в. показали, что мы живем в мире не только молекулярной неупорядоченности, но и в мире макронеустойчивости и поэтому приняли обобщенную энтропию (ОЭ) в качестве универсального параметра - количественной меры неопределенности, или неу порядоченности.

Понятие обобщенная энтропия (ОЭ) подразумевает, что системы, кроме микро- и макронеупорядоченности, так же являются сложными и могут быть как физическими, так и интеллектуальными.

Понятие энтропии впервые было введено в науку Клаузиусом в 1865 г. как логическое развитие термодинамики Карно. С тех пор нас постоянно пугают "тепловой смертью" Вселенной, поскольку в закрытых системах, или в необратимых взаимодействиях, энтропия всегда возрастает. Известно, что именно энтропия обеспечивает оптимальную сложность Вселенной и в конечном итоге возврат к этой оптимальной сложности после любого отклонения как в сторону беспорядка, или хаоса, так и большего порядка.

Понимание физического смысла энтропии затруднено тем обстоятельством, что ее значение не может быть измерено никаким прибором, но зато вычисляется Утверждение о существовании энтропии обычно относят ко второму закону термодинамики. Более чем 100-летний опыт использования понятия энтропии в термодинамике подтверждает правильность представления о ней как о физической величине, изменение которой (в равновесных процессах) однозначно связано с наличием обмена энергией в форме теплоты.

Известно, что абсолютное значение энтропии различных веществ при различных температурах можно определить на основе третьего закона термодинамики. Этот закон устанавливает также начало отсчета энтропии и тем самым позволяет вычислить абсолютное значение энтропии.

Таким образом, оказалось, что понятие энтропии является одним из фундаментальных свойств любых систем с вероятностным поведением. В теории информации энтропия как мера неопределенности исхода эксперимента была введена американским ученым К. Шенноном в 1949 г.

Поняв энтропию и вооружившись ею как новым инструментом познания, можно увидеть в новом ракурсе и переосмыслить многие явления окружающего нас мира.

Энтропийное равновесие между порядком и беспорядком в системе определяет мировые процессы в космосе и условия жизни на Земле. Поэтому иногда в шутку говорят, что энтропия как физическая величина, которая не измеряется, а вычисляется, является генеральным конструктором и директором, а энергия является только главным бухгалтером, следящим за тем, чтобы сходились кредит с дебетом.