Эволюционно-синергетическая парадигма

Синергетика наводит мост через брешь, разделяющую первый, редукционистский, подход от второго, холистического. К тому же в синергетике, своего рода соединительном звене между этими двумя экстремистскими подходами, рассмотрение происходит на промежуточном, мезоскопическом уровне, и макроскопические проявления процессов, происходящих на микроскопическом уровне, возникают "сами собой", в

следствие самоорганизации, без руководящей и направляющей "руки", действующей извне системы.

Это обстоятельство имеет настолько существенное значение, что синергетику можно было бы определить как науку о самоорганизации.

Редукционистский подход с его основным акцентом на деталях сопряжен с необходимостью обработки информации о подсистемах, их структуре, функционирования и взаимодействии в объемах зачастую непосильных для наблюдателя, даже вооруженного сверхсовременной вычислительной техникой. Сжатие информации до разумных пределов осуществляется различными способами. Один из них используется в статистической физике и заключается в отказе от излишней детализации описания и в переходе от индивидуальных характеристик отдельных частей к усредненным тем или иным способом характеристикам системы. Импульс, получаемый стенкой сосуда при ударе о нее отдельной частицы газа, заменяется усредненным эффектом от ударов большого числа частиц - давлением. Вместо отдельных составляющих системы статистическая физика рассматривает множества (ансамбли) составляющих, вместо действия, производимого индивидуальной подсистемой, - коллективные эффекты, производимые ансамблем подсистем.

Синергетика подходит к решению проблемы сжатия информации с другой стороны. Вместо большого числа факторов, от которых зависит состояние системы (так называемых компонент вектора состояния) синергетика рассматривает немногочисленные параметры порядка, от которых зависят компоненты вектора состояния системы и которые, в свою очередь, влияют на параметры порядка.

В переходе от компонент вектора состояния к немногочисленным параметрам порядка заключен смысл одного из основополагающих принципов синергетики - так называемого принципа подчинения (компонент вектора состояния параметрам порядка). Обратная зависимость параметров порядка от компонент вектора состояния приводит к возникновению того, что принято называть круговой причинностью.

1.4 Отличие синергетического и информационного подходов

В основу теории информации положен предложенный К.Шенноном метод исчислений количества новой (непредсказуемой) и избыточной (предсказуемой) информации, содержащейся в сообщениях, передаваемых по каналам технической связи.

Предложенный Шенноном метод измерения количества информации оказался настолько универсальным, что его применение не ограничивается теперь узкими рамками чисто технических приложений.

Вопреки мнению самого К.Шеннона, предостерегавшего ученых против поспешного распространения предложенного им метода за пределы прикладных задач техники связи, этот метод стал находить все более широкое примение в исследованиях и физических, и биологических, и социальных систем .

Ключом к новому пониманию сущности феномена информации и механизма информационных процессов послужила установленная Л.Бриллюэном взаимосвязь информации и физической энтропии. Эта взаимосвязь была первоначально заложена в самый фундамент теории информации, поскольку для исчисления количества информации Шеннон предложил использовать заимствованную из статистической термодинамики вероятную функцию энтропии.

В статистической физике с помощью вероятностной функции энтропии исследуются процессы, приводящие к термодинамическому равновесию, при котором все состояния молекул (их энергии, скорости) приближаются к равновероятным, а энтропия при этом стремится к максимальной величине.

Благодаря теории информации стало очевидно, что с помощью той же самой функции можно исследовать и такие далекие от состояния максимальной энтропии системы, как, например, письменный текст.

Еще один важный вывод заключается в том, что

с помощью вероятностной функции энтропии можно анализировать все стадии перехода системы от состояния полного хаоса, которому соответствуют равные значения вероятностей и максимальное значение энтропии, к состоянию предельной упорядоченности (жесткой детерминации), которому соответствует единственно возможное состояние ее элементов.

При этом, если для газа или кристалла при вычислении энтропии сравнивается только микросостояние (т.е. состояние атомов и молекул) и макросостояние этих систем (т.е. газа или кристалла как целого), то для систем иной природы (биологических, интеллектуальных, социальных) вычисление энтропии может производится на том или ином произвольно выбранном уровне. При этом вычисляемое значение энтропии рассматриваемой системы и количество информации, характеризующей степень упорядоченности данной системы и равное разности между максимальным и реальным значением энтропии, будет зависеть от распределения вероятности состояний элементов нижележащего уровня, т.е. тех элементов, которые в своей совокупности образуют эти системы.

Сам того не подозревая, Шеннон вооружил науку универсальной мерой, пригодной в принципе (при условии выявления значенй всех вероятностей) для оценки степени упорядоченности всех существующих в мире систем.

Одновременно с выявлением общих свойств информации как феномена обнаруживаются и принципиальные различия относящихся к различным уровням сложности информационных систем.

Так, например, все физические объекты, в отличие от биологических, не обладают специальными органами памяти, перекодировки поступающих из внешнего мира сигналов, информационными каналами связи. Хранимая в них информация как бы «размазана» по всей их структуре. Вместе с тем, если бы кристаллы не способны были сохранять информацию в определяющих их упорядоченность внутренних связях, не было бы возможности создавать искусственную память и предназначенные для обработки информации технические устройства на основе кристаллических структур.

Вместе с тем необходимо учитывать, что создание подобных устройств стало возможным лишь благодаря разуму человека, сумевшего использовать элементарные информационные свойства кристаллов для построения сложных информационных систем.

Простейшая биологическая система превосходит по своей сложности самую совершенную из созданных человеком информационных систем. Уже на уровне простейших одноклеточных организмов задействован необходимый для их размножения сложнейший информационный генетический механизм. В многоклеточных организмах помимо информационной системы наследственности действуют специализированные органы хранения информации и ее обработки (например, системы, осуществляющие перекодирование поступающих из внешнего мира зрительных и слуховых сигналов перед отправкой их в головной мозг, системы обработки этих сигналов в головном мозге). Сложнейшая сеть информационных коммуникаций (нервная система) пронизывает и превращает в целое весь многоклеточный организм.

Страница:  1  2  3  4  5  6  7  8  9  10  11  12  13 


Другие рефераты на тему «Биология и естествознание»:

Поиск рефератов

Последние рефераты раздела

Copyright © 2010-2024 - www.refsru.com - рефераты, курсовые и дипломные работы