Реферат: Энтропия. Теория информации - текст реферата. Скачать бесплатно.
Банк рефератов, курсовых и дипломных работ. Много и бесплатно. # | Правила оформления работ | Добавить в избранное
 
 
   
Меню Меню Меню Меню Меню
   
Napishem.com Napishem.com Napishem.com

Реферат

Энтропия. Теория информации

Банк рефератов / Физика

Рубрики  Рубрики реферат банка

закрыть
Категория: Реферат
Язык реферата: Русский
Дата добавления:   
 
Скачать
Microsoft Word, 1688 kb, скачать бесплатно
Заказать
Узнать стоимость написания уникального реферата

Узнайте стоимость написания уникальной работы

Содержание. 1. Введение. 2. Что измерил Клод Шеннон ? 3. Пределы эво люционной изменчивости информационных систем. 4. Ограниченность адаптации биологических видов. 5. Этапы развития теории энтропии. 6. Методы исчисления количества структурной информации и информационной энтропии текстов. 7. Информационно-энтропийные соотнош ения процессов адаптации и развития. 8. Информация и энергия. 9. Заключение. 10. Список литературы. ВВЕДЕНИЕ Во второй половине XX века произошли два события , которые , на наш взгляд , в значительной мере определяют дальнейшие пути научного постижения мир а . Речь идет о создании теории ин формации и о начале исследований механизмов антиэнтропийных процессов , для изучения которых синергетика привлекает все новейшие достижения неравновесной термодинамики , теории ин формации и общей теории систем. Принципиальн ое отличие данного этапа развития науки от предшествующих этапов заключается в том , что до создания перечисленных направлений исследований наука способна была объяснить лишь механизмы процессов , приводящих к увеличению хаоса и возрастанию энтропии . Что ка с ается разрабатываемых со времен Ламарка и Дарвина биологических и эволюционных концепций , то они и по сей день не имеют строгих научных обоснований и противоречат Второму началу термодинамики , согласно которому сопровождающее все протекающие в мире процесс ы возрас тание энтропии есть непременный физический закон. Заслуга неравновесной термодинамики заключается в том , что она сумела выявить механизмы антиэнтропийных процессов , не противоречащих Второму началу термодинамики , поскольку локаль ное уменьшение эн тропии внутри самоорганизующейся системы всегда оплачивается большим по абсолютной величине возрас танием энтропии внешней среды. Важнейшим шагом на пути постижения природы и механизмов антиэнтропийных процессов следует введение количественной меры информа ции . Первоначально эта мера предназначалась лишь для решения сугубо прикладных задач техники связи . Однако последующие исследования в области физики и биологии позво лили выявить универсальные меры , предложенные К.Шен ноном , позволяющие установить взаимосв язь между количеством информации и физической энтропией и в конечном счете определить сущность новой научной интерпретации понятия «ин формация» как меры структурной упорядоченности самых разнообразных по своей природе систем . Используя метафору , можно ск азать , что до введения в науку единой информационной количественной меры представленный в естественно - научных понятиях мир как бы «опирался на двух китов» : энергию и вещество . «Третьим китом» оказалась теперь информация , участвующая во всех протекающих в м ире процессах , начиная от микрочастиц , атомов и молекул и кончая функциониро ванием сложнейших биологических и социальных систем. Естественно , возникает вопрос : подтверждают или опровергают эволюционную парадигму происхождения жизни и биологических видов н овейшие данные современной науки ? Для ответа на этот вопрос необходимо прежде всего уяснить , какие именно свойства и стороны многогранного понятия « ин формация» отражает та количественная мера , которую ввел в науку К.Шеннон. Использование меры количества и нформации позволяет анализировать общие механизмы информационно - энтропийных взаимодействий , лежащих в основе всех самопроизвольно протекающих в окружающем мире процессов накопления информации , которые приводят к самоорганизации структуры систем. Вместе с т ем информационно - энтропийный анализ позволяет выявить и пробелы эволюционных концепций , представляющих собой не более чем несостоятельные попытки сведения к простым механизмам самоорганизации проблему происхождения жизни и биологических видов без учета тог о обстоятельства , что системы такого уровня сложности могут быть созданы лишь на основе той информации , которая изначально заложена в предшествующий их сотворению план. Проводимые современной наукой ис следования свойств информационных систем дают все осно вания утверждать , что все системы могут формироваться только сог ласно спускаемым с верхних иерархических уровней правилами , причем сами эти правила существовали раньше самих систем в форме изначального плана (идеи творения ). ЧТО ИЗМЕРИЛ КЛОД ШЕННОН ? В осн ову теории информации положен предложенный К.Шенноном метод исчислений количества новой ( непредска зуемой ) и избыточной ( предсказуемой ) информации , содержащейся в сообщениях , передаваемых по каналам техничес кой связи. Предложенный Шенноном метод измерения количества ин формации оказался настолько универсальным , что его применение не ограничивается теперь узкими рамками чисто технических приложений. Вопреки мнению самого К.Шеннона , предостерегавшего ученых против поспешного распространения предложенного им метода за пределы прикладных задач техники связи , этот метод стал находить все более широкое примение в исследованиях и фи зических , и биологических , и социальных систем . Ключом к новому пониманию сущности феномена информации и механизма информационных пр оцессов послужила установленная Л.Бриллюэном взаимосвязь информации и физической энтропии . Эта взаимосвязь была первоначально заложена в самый фунда мент теории информации , поскольку для исчисления количества информации Шеннон предложил использовать заимст вованную из статистической термодинамики вероятную функцию энтропии. Многие ученые (начиная с самого К.Шеннона ) склонны были рассматривать такое заимствование как чисто формальный прием . Л.Бриллюэн показал , что между вычисленным согласно Шеннону количество м информации и физической энтропии существует не формальная , а содержательная связь. В статистической физике с помощью вероятностной функции энтропии исследуются процессы , приводящие к термодинамическому равновесию , при котором все состояния молекул (их э нергии , скорости ) приближаются к равновероятным , а энтропия при этом стремится к макси мальной величине. Благодаря теории информации стало очевидно , что с помощью той же самой функции можно исследовать и такие далекие от сос тояния максимальной энтропии с истемы , как , например , пись менный текст. Еще один важный вывод заключается в том , что с помощью вероятностной функции энтропии можно анализировать все стадии перехода системы от состояния полного хаоса , которому соответствуют равные значения вероятностей и максимальное значение энтропии , к состоянию предельной упорядоченности (жесткой детерминации ), которому соответствует единственно возможное состояние ее элементов. Данный вывод оказывается в равной мере справедливым для таких несходных по своей природе систем , как газы , кристаллы , письменные тексты , биологические организмы или сообщества и др. При этом , если для газа или кристалла при вычислении энтропии сравнивается только микросостояние (т.е . состояние атомов и мо лекул ) и макросостояние этих систем (т .е . газа или кристалла как целого ), то для систем иной природы (биологических , интеллекту альных , социальных ) вычисление энтропии может производится на том или ином произвольно выбранном уровне . При этом вычис ляемое значение энтропии рассматриваемой систе мы и количество информации , характеризующей степень упорядоченности данной системы и равное разности между максимальным и реальным зна чением энтропии , будет зависеть от распределения вероятности состояний элементов нижележащего уровня , т.е . тех элементов, ко торые в своей совокупности образуют эти системы. Другими словами, количество сохраняемой в структуре системы ин формации пропорционально степени отклонения системы от состояния равновесия , обусловленного сохраняемым в структуре системы порядком. Сам т ого не подозревая , Шеннон вооружил науку универсальной мерой , пригодной в принципе ( при условии выявления значенй всех вероятностей ) для оценки степени упорядоченности всех существующих в мире систем. Опредеделив введенную Шеноном информационную меру как м еру упорядоченности движения , можно установить взаимосвязь информации и энергии , считая энергию мерой интенсивности движения . При этом ко личество сохраняемой в структуре систем информации пропорционально суммарной энергии внутренних связей этих систем . Од новременно с выявлением общих свойств информации как феномена обнаруживаются и принципиальные различия отно сящихся к различным уровням сложности информационных систем. Так , например , все физические объекты , в отличие от биологических , не обладают специаль ными органами памяти , пере кодировки поступающих из внешнего мира сигналов , информаци онными каналами связи . Хранимая в них информация как бы «размазана» по всей их структуре . Вместе с тем , если бы кристаллы не способны были сохранять информацию в определ я ющих их упо рядоченность внутренних связях , не было бы возможности создавать искусственную память и предназначенные для обработки информации технические устройства на основе кристаллических структур. Вместе с тем необходимо учитывать , что создание подобных устройств стало возможным лишь благодаря разуму человека , су мевшего использовать элементарные информационные свойства кристаллов для построения сложных информационных систем. Простейшая биологическая система превосходит по своей сложности самую совершенн ую из созданных человеком ин формационных систем . Уже на уровне простейших одноклеточных организмов задействован необходимый для их размножения сложнейший информационный генетический механизм . В многокле точных организмах помимо информационной системы нас л едствен ности действуют специализированные органы хранения ин формации и ее обработки (например , системы , осуществляющие перекодирование поступающих из внешнего мира зрительных и слу ховых сигналов перед отправкой их в головной мозг , системы обработки эти х сигналов в головном мозге ). Сложнейшая сеть информационных коммуникаций (нервная система ) пронизывает и превращает в целое весь многоклеточный организм. Уже на уровне биологических систем возникают проблемы учета ценности и смысла используемой этими систе мами информации . Еще в большей мере такой учет необходим для ананлиза функци онирования интеллектуальных информационных систем. Глубокое осознание специфики биологических и интеллекту альных систем позволяет выявить те границы , за пределами ко торых утрачи вает свою компетентность разработанный современной наукой информационно-энтропийный подход. Определить эти границы Шеннону пришлось на самом началь ном этапе создания теории информации , поскольку без этого нель зя было использовать количественную меру инфо рмации для оценки письменных текстов и других созданных разумом человека информационных систем . Именно с этой целью Шеннон делает ого ворку о том , что предложенный им метод исчисления информации письменных текстов игнорирует такие же их неотъемлемые свой с тва , как смысл и ценность содержащихся в них сообщений. Так , например , при подсчете количества информации , содержащейся в таких двух сообщениях , как «очередную партию Каспаров играет белыми» и «у гражданина Белова родился сын» получится одна и та же величи на – 1 бит . Нет сомнения , что два этих сообщения несут разный смысл и имеют далеко не равнозначную ценность для гражданина Белова. Однако , как было отмечено выше , оценка смысла и ценности информации находится за пределами компетенции теории информации и п о этому не влияет на подсчитываемое с помощью формулы Шеннона количество бит. Игнорирование смысла и ценности информации не помешало Шеннону решать прикладные задачи , для которых предназначалась первоначально его теория : инженеру по технике связи вовсе не обязательно вникать в суть сообщений , передаваемых по линии связи . Его задача заключается в том , чтобы любое подобное сообщение передавать как можно скорее , с наименьшими затра тами средств (энергии , диапазона используемых частот ) и , по возможности , безо в сяких потерь . И пусть тот , кому предназначена данная информация (получатель сообщений ), вникает в смысл , определяет ценность , решает , как использовать ту информацию , которую он получил. Такой сугубо прагматичный подход позволил Шеннону ввести единую , не за висящую от смысла и ценности , меру количества информации , которая оказалась пригодной для анализа всех облада ющих той или иной степенью упорядоченности систем. После основополагающих работ Шеннона начали разрабатываться основы смысловой (семантической ) и ценностной (прагматической , аксиологической ) информационных теорий . Однако ни одной из этих теорий и предлагаемых их авторами единиц измерения ценности или смысла не суждено было приобрести такую же степень универсальности , какой обладает мера , которую вв ел в науку Шеннон. Дело в том , что количественные оценки смысла и ценности информации могут производится только после предварительного соглашения о том , что же именно в каждом конкретном случае имеет для рассматриваемых явлений ценность и смысл . Нельзя одн ими и теми же единицами измерить ценность информации , содержащейся , скажем , в законе Ома и в признании любви . Иными словами , критерии смысла и ценности всегда субъективны , а потому применимость их ограни чена , в то время как мера , предложенная Шенноном, полностью исключает субъективизм при оценке степени упорядоченности структуры исследуемых систем. Так что же характеризует подсчитанная по формуле Шеннона величина энтропии текста , выражаемая количеством бит ? Только лишь одно свойство этого текста - степе нь его упорядо ченности или , иными словами , степень его отклонения от состояния полного хаоса , при котором все буквы имели бы равную вероят ность , а текст превратился бы в бессмысленный набор букв. Упорядоченность текста ( или любой другой исследуемой сис темы ) будет тем больше , чем больше различие вероятностей и чем больше вероятность последующего события будет зависеть от вероятностей предыдущих событий Зависимость вероятностей последующих событий от предыдущих определяется в теории вероятностей термино м «корреляция». . При этом , согласно негэнтропийному принципу информации ко личество информации , выражающее этот порядок , будет равно уменьшению энтропии системы по сравнению с мак симально возможной величиной энтропии , соответствующей отсутствию упо рядоченности и наиболее хаотичному состоянию систем . Методы исчисления информации , предложенные Шенноном , позволяют выявить соотношение количества предсказуемой (то есть формируемой по определенным правилам ) информации и количес тва той неожиданной информ ации , которую нельзя заранее пред сказать. Содержащуюся в правилах информацию Шеннон определил как избыточную , потому что знание правил построения сообщений позволяет предсказывать появление букв (или других символов ) раньше , чем они будут сообщены по лин ии связи. Таким способом удается в той или иной степени «разгрузить» предназначенный для передачи сообщений канал . Проведенный Шенноном анализ английских текстов показал , что содержащаяся в них избыточная информация составляет около 80% от общего ко личест ва информации , которое заключает в себе письменный текст . Остальные 20% - это та самая энтропия , благодаря которой текст может служить источником непредсказуемой энергии Близкое к указанному сочетание избыточной и непредсказуемой информации было затем п олучено в результате анализа тестов на русском и ряде европейских языков. . Если бы текстовые , устные или зрительные (в частности телевизионные ) сообщения были полностью лишены энтропии , они не приносили бы получателям сообщений никаких новостей. Если бы п исьменный текст строился только на основании за ранее сформулированных правил , то , установив эти правила по тексту первой страницы , можно было бы заранее предсказать , что будет написано на страницах 50, 265, 521 и т.д. ПРЕДЕЛЫ ЭВОЛЮЦИОННОЙ ИЗМЕНЧИВОСТИ ИНФОРМАЦИОННЫХ СИСТЕМ Наиболее наглядной иллюстрацией информационно-энтро пийных закономерностей и ограничений эволюционных процессов может служить письменный текст . А поскольку текст есть не что иное , как закодированное отражение устной речи , имеет смысл в дальнейшем вести речь об эволюции языка. Примерами эволюционных изменений языка могут служить , в частности , образование неологизмов , заимствование иностранных слов и др. Приобщение бывших социалистических стран к междуна родному рынку сопровождалось асси миляцией таких терминов , как «менеджмент» , «маркетинг» , «дилер» и т.п . С переходом к парла ментским формам управления государством в бывших социалис тических странах приобрели популярность такие понятия , как «кон сенсус» и «плюрализм». Процесс вовлечения в лексикон новых слов имеет ряд сущес твенных ограничений . Необходимым условием ассимиляции ино странных слов оказывается адаптация этих слов к новой языковой среде . При включении иностранного слова в лексикон нового языка , слово это должно подчиняться дей с твующим в этом языке пра вилам согласования слов (т.е . правилам склонения , сопряжения и др .). Подобная адаптация аналогична процессам обучения живых организмов правилам поведения в необычной для них среде. В свою очередь правила согласования слов подчиняют ся требованиям , возникающим на еще более высоких уровнях языко вой структуры. Эти требования зависят прежде всего от смыслового содержания текста , от стиля , присущего составителю , данного текста и , наконец , от всего набора грамматических и фонетических пра вил данного языка. Например , слово спутник было введено в русский язык Достоевским . Из бытовой сферы («спутник жизни» ) это слово распространилось в область астрономии («Луна – спутник Земли» ) и стало международным словом после того , как в Советском Союзе был запущен первый искусственный спутник Земли . Однако , при всех трансформациях смысла форма этого слова определялась правилами грамматики , ус тановленными вместе с возникновением языка . Об этом свиде тельствует совпадение структуры слова с-пут-ник с таким и аналогами , как со-рат-ник и со-племен-ник , образо ванными от корней древних слов племя и рать . С биологическим и видами тоже могут происходить аналогичные метаморфозы . В результате мутаций может родиться заяц , у ко торого уши будут короче , чем у собрать ев , или его шерстяной поркров приобретет необычный цвет . Эти признаки он передаст по наследству , быть может , они закрепятся в потомстве , но при этом потомки нашего зайца тоже останутся зайцами , но ни в коем случае не превратятся в волка или лисицу и , уж т е м более , не примкнут к отряду приматов . Подобно тому , как структура нового слова «спут ник» совпадает со структурой древних слов «соратник» и «сопле менник» , внутренняя и внешняя структура организма современного зайца повторяет структуру зайца , появившего с я в результате акта творения на нашей Земле. Мутациям могут подвергаться только второстепенные признаки , а основные признаки вида остаются неизменными , подобно тому , как в приведенных выше примерах словообразований неизменными остаются определяющие смыслов ое значение каждого слова корни путь , племя и рать . При этом могут меняться второстепенные признаки слова (префиксы , суффиксы , окончания ) , превращая путь в спутник , попутчик , путевой , путевка , распутица , беспутный , путеводный и т.п. Изначальный смысл слова путь при этом всюду останется неизменным , а основанные на коренном слове словообразования могут приобретать те или иные оттенки в процессе последующей эволюции языка. Каждое новое слово подчиняется правилам , сохраняемым на высоких иерархических уровнях ин формационно-энтропической спирали и действующим сверху вниз и на уровне слов , и на уровне букв . Подобным образом мог быть сформирован и живой организм . Правила , которым подчиняются все его со гласованно функционирующие органы , ткани и клетки , могли быть «с формулированы» только на самых высоких , не доступных нашему разуму уровнях информационно-энтропической спирали. Приведенная в таблице 1 «фраза» , полученная в результате случайного комбинирования 8-и буквенных сочетаний , имеет формальные признаки осмысленны х фраз . В ней можно раз личить глагольные формы (враться ), наречия (непо и корко ), форму прилагательного (весел ) и даже уловить некий опенок смысла (ка кого-то бодрого действия , движения ). В свое время академик Щерба тоже приводил пример формализированной фразы , из которой можно было бы понять , что некая Глокая куздра штекобуданула (читай : «оттолкнула» ) некого «бокра» и кудрячит (читай : «приласкивает» ) бокренка . Означают ли две рассмотренные «фразы» , что при движении снизу вверх по рассматриваемой нами спир али , можно путем случайных комбинаций букв и слогов получить осмысленный текст ? Такой вывод был бы ошибочным . Формальное сходство с грамма тическими конструкциями порождает всего лишь иллюзию смысла , потому что не смысл рождается из грамматики , а граммати к а строится таким образом , чтобы с ее помощью можно было передать (т.е . закодировать ) содержащийся в той или иной фразе смысл. Таким образом , эти примеры еще раз убеждают нас в том , что план построения сложной информационной системы может формироваться толь ко на верхних иерархических уров нях и оттуда спускаться на нижележащие уровни , задавая на них тот или иной порядок чередования элементов. Сказанное выше имеет самое непосредственное отношение к проблеме возникновения и функционирования биологических сис т ем. Выше было отмечено , что проводимый на самом нижнем струк турном уровне текста (на уровне отдельных букв ) статистический анализ распределения вероятностей букв и последующий расчет ко личества информации и величины энтропии способны регулировать лишь ре зультирующую упорядоченность текста . Причины этой упо рядоченности формируются на недоступных информационно-энтропийному анализу верхних иерархических уровнях текста и языка. Пытаясь преодолеть указанные ограничения возможностей ин формационно - энтропийно го анализа , К.Шеннон исследовал вероятности появления в тексте различных 4-х , 6-ти и 8-ми бук венных сочетаний . Подставляя найденные значения вероятностей в вероятную функцию энтропии , К.Шеннон определил таким образом величину энтропии с учетом взаимной з а висимости (корреляции ) букв в пределах слогов , а затем экстраполировал полученный результат на более длительные текстовые отрезки , показав , что кор реляция не выходит за пределы отрезков текста в 40-60 букв . Аналогичные результаты исследований русских тек стов предс тавлены в работе Добрушина (табл. 1). Используемый теорией информации полуэмпирический метод учета межбуквенных корреляций обладает рядом существенных ог раничений , которые становятся очевидными , если сопоставить результаты анализа искусственных текстов Шеннона со свойствами реального языка . Дело в том , что при искусственном расчленении текста на отрезки из 4-8 букв стираются границы , разделяющие уровни слогов от уровней слов . В реальных текстах в зависимости от смыслового контекста и одна , и две , и три буквы могут быть в одних случаях самостоятельным словом , а в других – входить в состав других слов. Очевидно , что в двух указанных случаях рассматриваемые соче тания букв относятся к различным иерархическим уровням текста (или к уровню слогов ), одн ако подобное разграничение уровней может осуществляться только по смыслу , который заключает в себе анализируемый текст . А поскольку используемые теорией ин формации методы игнорируют смысловое содержание текста , ис следуемые ею искусственные тексты отлича ю тся от реальных текс тов отсутствием четкой иерархической структуры. Причины возникновения исследуемого порядка всегда остаются за пределами компетенции статистических методов . Находясь как бы на нижних ступенях некой упорядоченной иерархической структуры, вооруженная статистическими методами наука исследует не само действие порождающих исследуемый порядок причин , а лишь его результат . Любая попытка с помощью информационно-энтропийного анализа делать какие бы то ни было выводы о содержательной стороне пись м енных текстов была бы равносильна суждению о достоинствах и недостатках какого-то музыкального произведения на основании того , как часто создававший его композитор прибегал к помощи ноты «до» или «соль» . Подобным способом можно идентифицировать принадлежн о сть тому или иному автору его сочинений , но бесполезно пытаться по результа там такого анализа доискиваться до причин , побудивших этого автора сочинить именно эту симфонию , поэму или роман. Из всего вышесказанного следует , что адекватное представление об и ерархической структуре реальных текстов не может быть получено на основании констру ирования искусственных текстов , осуществляемого теорией информации по принципу «снизу вверх». Присущий реальным текстам порядок чередования букв формируется согласно правил ам , заданным верхними иерархическими уровнями текста , то есть не «снизу вверх» , а «сверху вниз» . Что же касается исполь зуемой теорией информации вероятностной функции энтропии , то она может быть использована в качестве точного математического инструмента только на нижних уровнях иерархии текста , поскольку только на этих уровнях удается найти достоверные значения вероятностей появления исходных элементов этого уровня (т.е . букв ). С переходом на следующий уровень мы обнаруживаем такое обилие исходных элемент ов этого уровня ( т.е . такое количество слов ), что определение вероятности появления в тексте всех слов , составляющих лексикон , становится практически неразрешимой задачей. Так , например , лексикон искусственного текста , каждое слово которого состоит из 6-ти букв , а алфавит - из 30 -ти букв , составит 30 6 = 729 • 10 6 «слов» . Среди этих слов будут попадаться бессмыс ленные и даже непроизносимые сочетания из 6-ти гласных или 6-ти согласных букв. Приняв , что значащие слова составят 0,01% от всех шестибук венных ко мбинаций , получим 72 900 слов . Из сочетаний этих слов можно составить практически неограниченное количество текстов , поэтому бессмысленно пытаться определять вероятности появления отдельных слов. Это значит , что вероятностная функция энтропии не может быть использована для строгого определения количества информации и энтропии текстов на уровне слов , и поэтому Шеннон был вынужден использовать приближенные методы экстраполяции результатов , полученных на уровне слогов и отдельных букв. Четкое понимание присущи х информационно-энтропийному анализу ограничений не исключает возможности использования полученной нами на примере искусственных текстов расширяющейся информационно-энтропийной спирали ( рис. 3 ) в качестве универсальной модели всех существующих в мире иер архических систем . Благодаря теории информации , понятие «текст» приобретает общенаучный смысл. Так , например , начальным алфавитом всех генетических кодов служат 4 нуклеотида ДНК . Генетический «лексикон» состоит из триплетов , соответствующих 20-ти аминокис лотам . Содержащиеся в генах «фразы» – это закодированные программы формировния органов и их функций , «концепция» – это целостный организм. «Начальным алфавитом » всей природы служат входящие в менделеевскую таблицу атомы химических элементов . «Лексикон» – э то молекулы сложных веществ . «Фразы , концеп ции» – это геохимические и биологические системы , составляющие все многообразие и богатство природы . Так же , как в случае текста , за пределами когнитивных возможностей иерархической информационно-энтропийной мод ели остаются вопросы о том , на каких высших уровнях и каким образом формируются правила , определяющие фиксируемую наукой на более низких уровнях упорядоченность структуры существующих в природе систем. Как будет показано ниже , этот вопрос приобретает особу ю акту альность , когда речь заходит о происхождении , адаптации и эволюционной изменчивости биологических видов. Используя текст в качестве универсальной модели , можно ус тановить те пределы изменчивости , в которых может осуществлять ся самоорганизация и ад аптация биологических систем . С учетом выявленных ограничений можно выявить ошибочность основных положений отстаиваемой материалистической наукой концепции происхождения и эволюции биологических видов. ОГРАНИЧЕННОСТЬ АДАПТАЦИИ БИОЛОГИЧЕСКИХ ВИДОВ Рассмотре нные механизмы ограничения эволюционной из менчивости языковых форм могут использоваться в качестве на глядной аналогии при постижении скрытых от постороннего взгляда механизмов изменчивости биологических видов . Одним из клас сических примеров такой измен ч ивости может служить адаптация одного из видов бабочек (пяденицы березовой ) к нарушенным индустриальными факторами условиям среды их обитания в районе Манчестера и других промышленных центров Англии прошлого века . В результате загрязнения лесов копотью на ч ал исчезать светлый лишайник , ранее покрывавший стволы деревьев . В результате адаптации к новым условиям наряду с бабочками , обладавшими маскирующей на фоне лишайников светлой окраской крыльев , появились популяции с темной окраской крыльев , приспособленно й для маскировки на лишенных лишайников темных стволах . По произведенным оценкам относительное количество бабочек с темными крыльями в популяции выросло с 1% в 1848 году до 99% в 1898 году . Можно ли данный факт рассматривать как подтверждение эволюционной т еории ? Да , если считать эволюцией любое изменение признаков под влиянием внешней среды . Нет , если , следуя логике сторонников эволюционной теории , под эволюцией понимать тенденцию самопроизвольного формирования более сложных биологических форм. Пяденица бер езовая не перестала быть бабочкой после того , как изменился цвет ее крыльев . Точно так же , как заяц никогда не прев ратится в лису или волка , амеба не породит многоклеточных ор ганизмов , а обезьяны не смогут стать предками разумных людей. Эволюционные изме нения признаков биологических форм осуществляются только в пределах , не нарушающих основных признаков данного вида , то есть в пределах горизонтальной плоскости иерархической инфор мационной модели , соответствующей неизменному уровню иерархической структур ы . Вместе с тем , пример пяденицы березовой вовсе не подтверждает возможности эволюции по вертикали , то есть в направлении перехода на более высокие уровни иерархической структуры и соответствующего самопроизвольного усложнения биологических форм . Напротив, имеющиеся в распоряжении биологов факты свидетельствуют о том , что в акте творения были изначально предусмотрены правила , ограничивающие возможности изменений видовых и родовых признаков и таким образом обеспечивающие устойчивость к воздействиям внешней с реды. К числу правил относятся защищенность от внешних воздейст вий наследственных генетических кодов и запреты на межвидовые и межродовые скрещивания , которые могли бы приводить к образо ванию гибридных пород. Даже в тех случаях , когда межвидовые скрещива ния оказываются возможными , возникают особи , почти не способные производить потомство . Так , например , в результате скрещивания ослицы и жеребца в редких случаях удается получить гибридную особь (лошака ). Более продуктивным оказывается скрещивание кобылы с ослом , однако при этом почти бесплодными оказываются их потомки (мулы ). Рассмотренные примеры свидетельствуют о том , что в проти вовес утверждениям эволюционистов уже сама идея творения заключала в себе условия последующего сохранения основных признаков би ологических форм . По аналогии с информационными свойствами письменных текстов можно пред полагать , что эти основные и неизменные признаки вида составляют порядка 80% информации , заключенной в наследственных генетических кодах . Остальные 20% - это те второс тепенные признаки , котрые видоизменяются под воздействием внешней среды. Всякая аналогия , в том числе и аналогия свойств генетических и письменных текстов , является приближенной , поэтому приведенные цифры (80% и 20%) могут характеризовать лишь примерное со отношение сохраняемых и изменяющихся признаков тех или иных биологических форм . Тем не менее даже чисто интуитивные оценки дают основания предполагать , что соотношение 80/20 должно соблюдаться в действительности : чтобы курица не превращалась в утку , она д олжна сохранить около 80% признаков своего вида , а 20% включают в себя изменение цвета перьев , размеров гребешка или клюва и т.п. Имеющиеся научные данные подтверждают возможность адап тационных изменений второстепенных признаков при условии сохранения тех основных признаков , по которым осуществляется различение биологических форм . Источник указанных ограничений находится на недоступных рациональной науке самых высоких уровнях иерархической информационной структуры . Если за нижний уровень иерархии информац и онно-энтропической модели принять неорганические системы , то следующую ступень иерархической лестницы следует соотнести с биологическими системами . Над ними находится следующий уровень более сложно организованных интеллекту альных систем . А самым высоким оказывается тот недоступный рациональному постижению уровень (логос ), на котором и форми руются правила , которым подчиняются все нижележащие уровни , то есть весь доступный нашим наблюдениям мир. В сопоставлении с таким представлением об информационной стру ктуре мира становится особенно очевидной наивность попыток Дарвина и его последователей объяснить эволюционное происхождение биологических видов в результате отбора тех особей , преимущества которых возникли в результате чисто случайных причин. Критики теор ии Дарвина утверждали , что случайная изменчивость способна только нарушить изначальную целостность организма как слаженно функционирующей системы . В результате снижается их адаптация по отношению к условиям существования , а следова тельно , уменьшаются шан с ы на закрепление эти случай но возникших признаков в последующих поколениях. В ответ на подобную критику и сам Дарвин , и его последователи обычно ссылались на длительность сроков биологической эволюции , которая , по их утверждениям , исчисляется миллиардами лет . Неубедительность подобной аргументации можно проиллюстри ровать следующим наглядным примером. Представим себе , что некий доморощенный «изобретатель » , не имеющий никаких представлений ни о принципах телевиде ния , ни о схеме имеющейся в его распоряжении конкретной модели , решил , что он сможет получить дополнительные те леканалы путем случайной перепайки концов внутренних про водов . Чем больше времени будетдлиться подобная процедура , тем труднее будет возвратить в рабочее состояние телевизор , над которым произведен подобный эксперимент. А ведь не только телевизор , но даже и самый совершенный из современных компьютеров в отношении сложности не может идти ни в какое сравнение с представителями даже самых простейших биологических форм . Ведь не случайно даже с амый сложный компьютер после отказа поддается восстановлению , а любой живой организм после нарушения его жизненных функций еще никто из людей не сумел «оживить». Длительный срок эволюции не может служить аргументом , под тверждающим возможность случайного в озникновения ни новых полезных признаков , ни , тем более , новых сложных и совершенных биологических форм. Биосистемы на столько сложны по своей структуре и функциям , что есть все осно вания предполагать , что все иерархические уровни их структуры могут вноси ть свою лепту в процессы упорядоченного функциони рования и адаптационных изменений этих систем. Об этом свидетельствуют , в частности , результаты новейших исследований в области неравновесной термодинамики , исследующей механизмы процессов самоорганизации н еорга нических систем. Оказалось , что в системе , еще находящейся в состоянии равновесия , которому соответствует предельный хаос движения молекул и атомов , уже заложены потенциально так называемые атракторы – различные варианты структур . Реализация этих стр уктур произойдет только в том случае , если какие-то внешние факторы заставят систему отклониться от равновесного состояния , а затем случайные флуктуации направят процесс по одному из заранее обусловленных путей . И тут опять возникает вопрос , на который ра циональная наука не в состоянии дать ответ : кем же выбраны именно эти структуры ? Кто запретил в точках так называемых бифуркаций одни варианты формирующейся структуры , но разрешил другие ? Кто заложил структурные признаки симметрии и асимметрии , одни и те ж е , или весьма сходные и для неорганических , и для живых систем ? Еще раз подчеркнем , что , проводя исследования на различных иерархических уровнях информационно-энтропийной спирали (т.е . на уровне неорганических , биологических , интеллектуальных сис тем ), на ука способна фиксировать лишь сами процессы функциони рования различных информационных структур , оставляя за скобками вопросы о том , почему они функционируют именно так , а не иначе , где и как формируются правила , согласно которым в результате координирова н ного взаимодействия всех структурных уровней иерархической спирали функционирует сложнейшая сис тема -живой организм. Сам собой напрашивается вывод , что эти правила могут формироваться только на уровне Логоса , откуда они транслируются на все нижележащие ур овни и обеспечивают их согласованное функционирование и ту гармонию , которой обладает всякий живой организм. В поисках истоков этой гармонии некоторые ученые-эволюцио нисты готовы признать правомерность телеологических эволюционных концепций . Но если у эв олюции биологических форм есть какие-то конечные цели , то они были заданы изначально не кем иным , как Творцом не только всех биологических форм , но и всей биосферы как цельного , гармонично функционирующего компонента земного мира. Не находит в науке ответа также вопрос о том , что может служить стимулом самопроизвольного усложнения организмов , то есть движения по ступеням иерархической лестницы от однокле точных к многоклеточным , от прокариот к эукариотам , от беспозвоночных к позвоночным и т.д . Борьба за су щ ествование не может служить объяснением подобных тенденций , поскольку в отношении выживаемости постейшие организмы не уступают сложнейшим . Здесь приходится согласиться с известным англий ским публицистом Сэмом Батлером , сказавшим однажды , что ни одна теор и я эволюции не отвечает на вопрос , почему развитие биосистем должно идти в направлении не от слона к амебе , а от амебы к слону. ЭТАПЫ РАЗВИТИЯ ТЕОРИИ ЭНТРОПИИ 1а . Функция энтропии была введена в термодинамику Р.Клаузиусом , предложивши м исчислять превращение энтропии по формуле : S = Q (1.1) T где S - энтропия ; Q - количество тепла ; Т - абсолютная температура . При передаче тепла Q от более разогретого тела с температу рой Т 1 к менее разогретому телу с температурой Т 2 превращение энтропии S равно : S = - Q + + Q (1.2) T 1 T 2 Из формулы (1.2) с учетом условия T 1 > T 2 следует вывод : S > 0 (1. 3 ) Поскольку во всех физических процессах тепло перетекает самопроизвольно от более разогретых к менее разогретым телам , условие (1.3) приобретае т силу физического закона , получившего название Второго начала термодинамики. Пока существует разность температур T 1 – T 2 , часть теплового потока может быть преобразована в полезную (антиэнтропийную ) энергию либо в естественно протекающих процессах (напри мер , биологических ), либо с помощью тепловых машин. При условии T 1 = T 2 энергия полностью утрачивает свои антиэнтропийные свойства . Этот вывод был положен в основу теории тепловой смерти Вселенной. Заметим , что сам термин «энтропия» был введен Клаузиусом , образовавшим его от корня греческого слова «тропе» , означающего «превращение» с добавлением заимствованной из слова «энергия» приставки «эн-». 1б . Предложенная Клаузиусом формула энтропии (1.1) не раскрывала внутренних механизмов процессов , приводящих к в оз растанию энтропии.Эта задача была решена Л.Больцманом , предложившим исчислять энтропию идеального газа по формуле : S = K H (1. 4 ) где K= 1,38 · 10 -16 эрг / градус – коэффициент Больцмана Н - математическая энтропия . Согласно Больцману , величина H о пределяется так : H = ln N ! (1. 5 ) N 1 ! N 2 ! … N k ! где N - общее число молекул газа, находящегося в рассматриваемом объеме. N i - число молекул , движущихся со скоростями , соответствующими i -ой ячейке условного пространства скоростей. При этом 1= 1,2, ... К ( 1.6) Условие (1.6) означает , что все N молекул распределены по соответствующим ячейкам пространства скоростей , в количествах N 1 , N 2 , … N k , , учитываемых уравнением (1.5) Согласно (1.5) перестановка молекул , н аходящихся внутри каждой из ячеек , не влияет на величину Н . Отсюда следует , что подсчитанная по формуле (1.5) величина Р соответствует числу возможных микросостояний системы (в частности газа ), при ко тором макросостояние системы остается неизменным. 1в . М.Планк преобразовал формулу Больцмана (1.5), исполь зовав для этого математическую формулу Стирлинга , справедливую для больших значений N : ln(N !) = Nln N – N (1.7) В результате подстановки (1.7) в (1.5) получается соотношение : H = Nln N – N – ( N i ln N i – N i ) i i С учетом условия Ni = N, выражение для Н приводится к виду : H = Nln N – N i ln N i (1.8) i Далее Планк ввел в рассмотрение вероятности различных сос тояний молекул , определив их как : p i = N i (1. 9 ) N При этом второе слагаемое в правой части (1.8) можно пред ставить как : N i ln N i = p i N ( ln p i + ln N ) = N p i ln p i + N ln N i p i (1.10) i i i i С учетом известного из теории вероятностей условия норми ровки p i = 1, подстановка (1.10) в (1.8) прив одит выражение для Н к окончательному виду : H = – p i ln p i (1.11) i Проделанные Планком с помощью формулы Стирлинга чисто формальные преобразования не только позволили получить новое выражение для исчисления энтропии , но помогли более глубоко осознать смысл вычисляемой величины Н . Выражение (1.11) позволяет сделать два важных вывода : 1. Введение в формулу энтропии значений вероятностей расширило рамки применимости этой формулы далеко за пределы исследуемых термодина микой молекулярных систем . Символ p i может обозначать вероятность не толь ко тех или иных состояний молекул , но и различных сост ояний элементов любых систем (в частности , вероятностей появления букв текста или других символов пер едаваемых сообщений ). 2. Выражение (1.11) соответствует полной энтропии системы . Поделив подсчитанную по формуле (1.11) величину на Ni , можно определить усредненную величину энтропии Н , относящуюся к одному элементу рассматриваемой системы , т.е. (1.8) H = – p i ln p i i Именно в таком виде использовал функцию энтропии Шеннон для определения среднего значения энтропии одной буквы текста (опуская при этом знак усреднения ) . 1г . Согласно Шеннону , средняя энтропия одной буквы текста вычис ляется по формуле (1.2) путем суммирования слагаемых pi log pi , в которых символом pi , обозначены вероятности соот ветствующих букв . Таким образом : i =я (1. 13 ) H = – p i ln p i = - (p а log p а + p б log p б +… + p я log p я ) i =а Для удобства исчисления энтропии сообщений , передаваемых двоичным кодом , Шеннон заменил используемый термодинамикой натуральный логарифм ln двоичным логарифмом log 2 . МЕТОДЫ ИСЧИСЛЕНИЯ КОЛИЧЕСТВА СТРУКТУРНОЙ ИНФОРМАЦИИ И ИНФОРМАЦИОННОЙ ЭНТРОПИИ ТЕКС ТОВ До опубликования созданной К.Шенноном теории Р.Хартли предложил определять количество информации по формуле : I = log 2 N (2.1) где I - количество информации ; N - число возможных (ожидаемых ) сообщений. Для учета различной степени неожиданности (вероя тности ) сообщений К.Шеннон предложил использовать заимствованную из статистической физики вероятностную функцию энтропии , приве денную к виду (1.13) В случае равной вероятности появления любой из N букв алфавита выполняется условие : P а = P б = P в = … = P я = 1/N ( 2 . 2 ) В результате подстановки (2. 2 ) в (2.1) и с учетом того , что : - log1/N = + log N получаем : H = – ( 1 log 1 )=log N (2.3) N N Сопоставляя (2. 1 ) и (2.3), приходим к выводу , что количество информации , вычисляемое по формуле Хартли , соответ ствует ус транению неопределенности Н при получении сообщения об одной из букв алфавита , при условии равной вероятности появления любой из букв (условие 2.2). При равных вероятностях появления всех букв алфавита текст становится наиболее хаотичным . Подсчит анная по формуле (2.3) величина информационной энтропии достигает максимальной ве личины : H max = log N (2.4) За единицу количества информации принята величина ин формации , содержащейся в сообщении об одном из двух равновероятных событий. До получения со общения выполняются условия : P 1 = P 2 = 1 = 1 (2.5) N 2 При подстановке (2.5) в (1.13) получаем : H = (Ѕ log 2 Ѕ + Ѕ log 2 Ѕ ) = + log 2 2 = 1 bit Наименование «бит» ( “ bit” ) происходит от сокращения английских слов «двоичная единица» ( bi nary un it ). В реальных текстах появлению разных букв соответствуют разные вероятности . Так , например , для русских текстов вероят ность появления буквы "О " в 30 раз превышает вероятность появ ления буквы «Щ» или «Э» ( Р о = 0,09; Р щ = Р э = 0,003). При подстановке в формулу ( 1.13) реальных значений вероятностей букв русского текста величина реальной информационной энтропии Н r уменьшается по сравнению с максимальной энтропией , определяемой выражением (2.4). Разность между величиной максимальной энтропии Н max и реальной энтропии Н r соответствует количеству избыточной (пред сказуемой ) информации I n . Таким образом : I n = H max – H r (2.6) Учет реальных значений вероятностей букв при передаче пись менных текстов позволяет уменьшить избыточность сообщений , передаваемых по каналам свя зи . Так , например , для избавления от избыточности используется способ кодирования букв алфавита , при котором часто повторяющимся в тексте буквам (т.е . буквам , имеющим наибольшую вероятность , такую , например , как Р а = =0,062; Р в = 0,038 ; Р е = 0,072 ; Р л = 0,035 ; Р о = 0,09 и др .) соответ ствуют или меньшая трата энергии за счет уменьшения величины (амплитуды ) сигналов или , увеличенная скорость передачи за счет сокращения числа знаков двоичного кода , соответствующего обозначению указанных букв. Помимо учета реальных вероятностей букв , для уменьшения избыточности сообщений следует учитывать также вероятности их сочетаний ( например , высокую вероятность появления буквы Я после переданного сочетания ТЬС , малую вероятность появления согласной буквы после передач и следующих друг за другом трех согласных букв и т.п. ). Таблица 1 Способ формирования « фраз » №№ пп "Фразы ", полученные на основе статистических свойств русского языка Статистические характеристики фраз Н r (бит ) I s (бит ) При равной вероятности всех букв 1 СУХРРОБЬТ ЯИХВЩИЮАЙЖТЛ-ФВНЗАГФОЕВШТТЦРПХГРКУ - ЧЖОРЯПЧЬКЙХРЫС 5,0 0,0 При учете реальных вероятностей : отдельных букв 3-х - буквенных сочетаний 2 ЕЫНТ ЦИЯЬА СЕРВ ОДНГ ЬУЕМЛОЙК ЭБЯ ЕНВТША ПОКАК ПОТ ДУРНОСКАКА НАК ОНЕПНО SHE СТВО - 4,3 0,7 3 ЛОВИЛ СЕ ТВОЙ ОБНИЛ Ь 3,5 1.5 4-х - буквенных сочетаний 4 ВЕСЕЛ ВРАТЬСЯ НЕ СУХОМ И НЕПО И КОРКО 2,9 2,1 8-ми - буквенных сочетаний 1,8 3.2 Выборка из реального текста 5 ПРИСВОИВ ДВОИЧНЫЕ НОМЕРА БУКВАМ АЛФАВИТА , МОЖНО ПВ РЕВРАТИТЬ ЛЮБОЙ ТЕКСТ В ЧЕРЕДОВАНИЕ ЕДИНИЦ И НУЛЕЙ 1,0 4,0 При Р А = 1; Р Б -Р в -.-.-Р я = О АААА. . 0,0 5,0 В результате взаимной корреляции букв в употребляемых в текстах буквенных сочетаний происходит дополнительное уменьшение определяемой выражением ( 1.13 ) реальной энтропии Н r по сравнению с определяемой выражением ( 2.4 ) максимальной энтропии Н max . Подстановка значения Н r , вычисленного с учетом взаимной корреляции букв , в выражение ( 2.6 ) дает дополнительное увеличение численного значения избыточной инф ормации I n (таблица 1). Указанные свойства письменных текстов наглядно иллюстрируются таблицей искусственных текстов , полученных путем случайных выборок из реальных текстов отдельных букв или их сочетаний . Вместе с тем , указанная таблица показывает , что вм есте с увеличением избыточности увеличивается и упорядо ченность (детерминация ) текста , достигая в пределе «жесткой детерминации» , при которой текст вырождается в повторение одинаковых букв. Такая взаимосвязь между избыточностью и упорядо ченностью текста обусловлена тем , что избыточность текста обусловлена действием грамматических и фонетических правил . Именно этими правилами обусловлена присущая тексту струк турность , следовательно , вычисляемое согласно ( 2.6 ) количество избыточной информации In является о дновременно и количеством информации , сохраняемой в упорядоченой структуре текста или любых других структурированных систем : I S = H max – H r (2.7) Для уяснения смысла равенства I n = I S , вытека ющего из сопос тавления выражений (2.6) и (2.7), рассмотрим следующий пример. Некто получил сообщение , что из яйца вылупился птенец . Для подтверждения того , что это именно птенец , а не малек , сообща ется , что у него не плавники , а крылья , не жабры , а легки е и т.п . Разумеется , все это не будет избыточной информацией I n для вся кого , кто знает , чем отличается птенец от малька. Но та же самая информация о крыльях , легких , клюве и т.п ., заложенная в генетический код , регулирует процесс онтогенеза , в результате которого в яйце формируется организм птенца , а не малька . Таким образом , информация I n , избыточная для осведом ленного получателя , оказывается необходимой структурной ин формацией I S , когда речь идет об информационном управле нии процессами формирования тех или иных упорядоченных структур . Вследствие этого и выполняется условие : I n = I S = H max – H r (2.8) ИНФОРМАЦИОННО-ЭНТРОПИЙНЫЕ СООТНОШЕНИЯ ПРОЦЕССОВ АДАПТАЦИИ И РАЗВИТИЯ Одна из теорем Шенно на свидетельствует об уменьшении ин формационной энтропии множества АВ, образованного в резуль тате взаимодействий двух исходных упорядоченных множеств Либ. H (A,B)
1Архитектура и строительство
2Астрономия, авиация, космонавтика
 
3Безопасность жизнедеятельности
4Биология
 
5Военная кафедра, гражданская оборона
 
6География, экономическая география
7Геология и геодезия
8Государственное регулирование и налоги
 
9Естествознание
 
10Журналистика
 
11Законодательство и право
12Адвокатура
13Административное право
14Арбитражное процессуальное право
15Банковское право
16Государство и право
17Гражданское право и процесс
18Жилищное право
19Законодательство зарубежных стран
20Земельное право
21Конституционное право
22Конституционное право зарубежных стран
23Международное право
24Муниципальное право
25Налоговое право
26Римское право
27Семейное право
28Таможенное право
29Трудовое право
30Уголовное право и процесс
31Финансовое право
32Хозяйственное право
33Экологическое право
34Юриспруденция
 
35Иностранные языки
36Информатика, информационные технологии
37Базы данных
38Компьютерные сети
39Программирование
40Искусство и культура
41Краеведение
42Культурология
43Музыка
44История
45Биографии
46Историческая личность
47Литература
 
48Маркетинг и реклама
49Математика
50Медицина и здоровье
51Менеджмент
52Антикризисное управление
53Делопроизводство и документооборот
54Логистика
 
55Педагогика
56Политология
57Правоохранительные органы
58Криминалистика и криминология
59Прочее
60Психология
61Юридическая психология
 
62Радиоэлектроника
63Религия
 
64Сельское хозяйство и землепользование
65Социология
66Страхование
 
67Технологии
68Материаловедение
69Машиностроение
70Металлургия
71Транспорт
72Туризм
 
73Физика
74Физкультура и спорт
75Философия
 
76Химия
 
77Экология, охрана природы
78Экономика и финансы
79Анализ хозяйственной деятельности
80Банковское дело и кредитование
81Биржевое дело
82Бухгалтерский учет и аудит
83История экономических учений
84Международные отношения
85Предпринимательство, бизнес, микроэкономика
86Финансы
87Ценные бумаги и фондовый рынок
88Экономика предприятия
89Экономико-математическое моделирование
90Экономическая теория

 Анекдоты - это почти как рефераты, только короткие и смешные Следующий
Именно у нас появились первые социальные сети. Стоило на заборе написать "Ленка" - сразу появлялись и статусы и комментарии.
Anekdot.ru

Узнайте стоимость курсовой, диплома, реферата на заказ.

Обратите внимание, реферат по физике "Энтропия. Теория информации", также как и все другие рефераты, курсовые, дипломные и другие работы вы можете скачать бесплатно.

Смотрите также:


Банк рефератов - РефератБанк.ру
© РефератБанк, 2002 - 2016
Рейтинг@Mail.ru