Реферат: Эволюция понятия «информация» в XIX и начале XX веков. История методов обработки информации в работах Шеннона, Эшби, Колмогорова - текст реферата. Скачать бесплатно.
Банк рефератов, курсовых и дипломных работ. Много и бесплатно. # | Правила оформления работ | Добавить в избранное
 
 
   
Меню Меню Меню Меню Меню
   
Napishem.com Napishem.com Napishem.com

Реферат

Эволюция понятия «информация» в XIX и начале XX веков. История методов обработки информации в работах Шеннона, Эшби, Колмогорова

Банк рефератов / Информатика, информационные технологии

Рубрики  Рубрики реферат банка

закрыть
Категория: Реферат
Язык реферата: Русский
Дата добавления:   
 
Скачать
Microsoft Word, 1476 kb, скачать бесплатно
Заказать
Узнать стоимость написания уникального реферата

Узнайте стоимость написания уникальной работы

2 Министерство образования и науки Российской Федерации Федеральное государственное бюджетное образовательное учреждение «Нижнетагильская государственная социально-педагогическая академия» Институт естествознания, математики и информатики Кафедра информационных технологий Направление (специальность) Информатика УТВЕРЖДАЮ Зав. кафедрой информационных технологий _________ М.В.Мащенко «___»__________2012 г. Эволюция понятия «информация» в XIX и начале XX веков. История методов обработки информации в работах Шеннона, Эшби, Колмогорова Реферат Исполнитель: студент, 31 И. Кардаполова Д.В. Руководитель: к.п.н., доцент кафедры информационных технологий Беленкова И.В. Нижний Тагил 2012 Оглавление Введение 3 Глава 1. Эволюция понятия «информация» в XIX и начале XX веков 5 1.1. Понятие информации и его эволюция 5 1.2. Свойства информации 7 1.3. Эволюция информационных технологий 8 Глава 2. История методов обработки информации в работах Шеннона, Эшби, Колмогорова. 11 2.1. Понятие методов обработки информации 11 2.2. Вклад Шеннона, Эшби, Колмогорова в изучение информации и методов ее обработки. 12 Заключение 20 Список литературы 22 Приложения. Биографическая справка 23 _Toc321085369 Введение В современном мире существует множество опреде лений понятия «информация» . От самых общ их возвышенно-философских типа « информаци я есть отражение реального мира» или « информация есть всеобщее свойство материи и мера организации систем» до сугубо практических « информация есть сведения, являющиеся объектом сбора, прео бразования, хранения и передачи» . Информационные процессы, т.е. процессы хранения , передачи и переработки информации, всегда играли важную роль в жизни общества. Люди обмениваются устными сообщениями, записками, посланиями. Они передают друг другу просьбы, приказы, отчеты о проделанной работе, описи имущества; публикуют рекламные объявления и научные статьи; хранят старые письма и документы; долго размышляют над полученными известиями ил и немедленно кидаются выполнять указания начальства. Все это – информационные процессы. Т еория информации имеет дело с отображениями предметов или явлений в виде образов , символов. Символы могут быть разнообразными, такими, например, как последовательность электромагнитных импульсов, поступающая со спутника связи, телевизионное изображение, устная и письменная речь, генетический код, записывающий наследуемые свойства в биологических клетках. Создание оптимальной системы символов, отражающих свойства объектов (кодирование), получение сведений об объектах по свойст вам символов (декодирование) – в от тип ичные задачи теории информации. Сейчас теорию информации счита ют одним из разделов кибернетики – науки об общих закономерностях процессов управления и передачи информации в различных системах, будь то машины, живые организмы или общество. Цель реферата: выявить значение работ Шеннона, Эшби, Колмогорова в изучении понятия «информация». Задачи: 1. Проследить эволюцию понятия «информация» в указанный период. 2. Проанализировать вклад ученых в историю методов обработки информации. Глава 1. Эволюция понятия «информация» в XIX и начале XX веков 1.1. Понятие информации и его эволюция Информация – это содержание сообщения, сигнала, памяти, а также сведения, содержащиеся в сообщении, сигнале или памяти. Термин «информация» в переводе с латинского означает осведомление, разъяснение, представление. Поскольку информацию рассматривают в самых различных отраслях знания, то и ее понимание также является различным. В зависимости от области знания, в которой проводилось исследование, информация получила множ ество определений: информация – это обозначение содержания, полученного от внешнего мира в процессе приспособления к нему (Н. Винер); информация – отрицание энтропии (Бриллюэн ); информация – коммуникация и связь, в процессе которой устраняется неопределенн ость (К.Э. Шеннон); информация – передача разноо бразия (У.Р. Эшби); информация – ориги нальность, новизна; информация – мера сложнос ти структур (Моль); информация – вероятность выбора (И.М. Яглом); и т.д. Каждое из этих определений раскрывает ту или иную грань (аспект) этого многозначного понятия. Начало научному изучению информации как таковой полож ено в работах Н. Винера, У.Р. Эшби , которые связывали информацию с теорией управления и К.Э. Шеннона , который ввел меру количества информации – бит. Выделяются три подхода в рассмотрении информации: функциональный, атрибутивный и субстанционный. В контексте функционального подхода информация рассматривается в связи с функционированием самоорганизующихся систем, как правило , живых, или, в крайнем случае, сложных кибернетических устройств. Функциональный подход нашел отражение в работах Д.И. Дубровского, который констатирует, что самоорганизующиеся системы "возникают исторически в период становления жизни на Земле". Н.Н. Моисеев отмечает, что при рассмотрении эволюции до появления живой материи понятие информации можно не использовать, «…информация появится в нем лишь тогда, когда мы начнем изучать системы с целеполаганием, то есть объекты, способные к целенаправленным действиям». «Атрибутисты» квалифицируют информацию как свойство всех материальных объектов, т.е. как атрибут материи (Б.В. Ахлибининский, Л.Б. Баженов, Б.В. Бирюков, К.Е. Морозов, И.Б. Новик, Л.А. Петрушенко, А.Д. Урсул и др.). Предтечей атрибутивного подхода можно рассматривать негэнтропийную концепцию связанной инфо рмации Л. Бриллюэна . Дальнейшее развитие атрибутивного подхода нашло отражение в работах Ф.И. П ерегудова и Ф.П. Тарасенко, Е. А.Седова, А.И. Уёмова, Ю.А. Урманцева, А.Д. Урсула , В его контексте информация рассматривается как мера упорядоченности структур и взаимодействий. Так, Е.А. Седов считает, что хранилищем информации объектов неживой природы является их собственн ая упорядоченная структура . В монографии В.П. Попова и И.В. Крайнюченко анализируются и функциональный и атрибутивный подходы и делается вывод, что никакого противоречия между ними нет, поскольку функциональный подход рассматривает внешнюю сторону информации, а атрибутивны й – ее внутреннюю сущность . Субстанционное понимание информации раскрывается в работах А.Е. Акимова, А.А. Силина, И.И. Юзвишина . Например, А.А. Силин рассматривает мироздание как непрерывное единство сознания (как информаци онной структуры) и материи . О н же отождествляет прирост информации с эволюцией, под которой понимает развитие от простого к сложному . Таким образом, развитие понятия информации привело ученых к выводу, что ее можно рассматривать как субстанцию, определяющую единство и развитие мира. Здесь возможны два подхода. Либо информация является первичной и порождает материю (философский монизм), либо материя и информация существуют как равноправные субстанции (философский дуализм). Но в том и другом случае информация присуща мирозданию как его органическая неразрывная часть. Анализ философских концепций показывает, что подобные представления были порождены в глубокой древности и сохранились до наших дней [ 5 ] . 1.2. Свойства информации Информация обладает различными свойствами. Для их систематизации используют разные варианты её деления (классификации). Классификация – деление объектов на классы, образуемые в соответствии с определёнными признаками. Информацию можно систематизировать по способу восприятия органами чувств : аудиальная, визуальная, обонятельная, вкусовая, тактильная. Компьютерные устройства воспринимают информацию по форме её представления , как: текстовую, графическую, числовую (цифровую), звуковую, видео (статическую и динамическую), мультимедийную (комбинированную), а также: оптическую и электромагнитную. По содержанию информацию делят на: экономическую, правовую, техническую, социальную, статистическую, организационную и т.д. Содержание информации обычно определяет её назначение. Ч тобы принимать правильные решения нам нужна информация. Н еобходимо, чтобы она имела следующие свойствами или качественные признаки : 1. Объективность информации. Информация объективна, если она не зависит от чьего-либо мнения. 2. Достоверность. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Недостоверной информация может быть по следующим причинам: 1) искажение в результате действия помех; 2) преднамеренное искажение (дезинформация); 3) когда значение отдельного факта или ряда фактов преуменьшается или преувеличивается (слухи). 3. Полнота информации. Информацию называют полной, если ее достаточно для понимания и принятия решения. Неполная информация может привести к ошибочному выводу или решению. (Русская пословица «Недоученный хуже неученого»). 4. Актуальность (своевременность) информации – важность, существенность для настоящего времени. Только вовремя полученная информация может принести пользу. Неактуальной может быть информация по двум причинам: 5. Ценность (полезность или бесполезность) информации оценивается применительно к задачам, которые можно решить с ее помощью. Самая ценная информация – это достаточно полезная, полная, объективная, достоверная и новая. Самая достоверная информация не может быть новой. 6. Ясность, понятность. Информация понятна, если она выражена на языке, доступном для получателя. 1.3. Эволюция информационных технологий Под термином «информационные технологии» понимается: 1. совокупность программно-технических средств вычислительной техники (СВТ), приёмов, способов и методов их применения, предназначенных для сбора, хранения, обработки, передачи и использования информации в конкретных предметных областях; 2. совокупность методов, производственных и программно-технологических средств, объединённых для обеспечения сбора, хранения, обработки, вывода и распространения информации. Информационные технологии предназначены для снижения трудоёмкости процессов использования информационных ресурсов. До второй половины XIX века основу информацион ных технологий составляли перо, бухгалтерская книга и чернильница . Передача информации осуществлялась через курьеров , почтальоном, посредников . Такая связь была очень ненадёжной, зависела от множества посторонних факторов, таких как погода, здоровье курьера, даже его настроение. Продуктивность информационной обработки была крайне низкой, каждое письмо копировалось отдельно вручную, помимо счетов, суммируемых так же вручную, не было другой информации для принятия решений. На смену «ручной» инфо рмационной технологии в конце XIX века пришла «механическая». Изобретение пишущей машинки, телефона, диктофона, модернизация системы общественной почт ы – все это послужило базой для принципиальных изменений в технологии обработки информации и, как следствие, в продуктивности работы. По существу «механическая» технология проложила дорогу к формированию организационной структуры существующих учреждений. 4 0 – 60-е гг. XX века характеризуются появлением «электрической» технологии, основанной на использовании электрических пишущих машинок со съемными элементами, копировальных машин на обычной бумаге, портативных диктофонов. Они улучшили учрежденческую деятельность за счет повышения качества, количества и скорости обработки документов. Появление во второй половине 60-х годов больших производительных ЭВМ на периферии учрежденческой деятельности (в вычислительных центрах) позволило смесить акцент в информационной технологии на обработку не формы, а содержания информации. Это было началом формирования «электронной», или «компьютерной» технологии. Как известно информационная технология управления должна содержать как минимум 3 важнейших компонента обработки информации: учет, анализ и принятие решений. Эти компонент ы реализуются в «вязкой» среде – бумажном «море» документов, которое становится с каждым годом все более необъятным. Существенным недостатком неавтоматизированных информационных систем является обособленность сбора, обработки и использования информации. Причем как отдельные работники, так и подразделения предприятия в целом не имеют доступа к «чужой» базе данных, при необходимости собирая требующуюся им информацию самостоятельно. Если провести аналогию со сферой производства и распределения энергии, то такое состояние соответствует средневековью, когда каждый потребитель энергии строил свою плотину с водяным колесом на расположенной рядом речке или ручье. При современном состоянии энергетики в эпоху электричества энергия производится централизованно и распределяется по сети каждому из потребителей, которые могут ее расходовать, сколько и когда им необходимо. Глава 2. История методов обработки информации в работах Шеннона, Эшби, Колмогорова. 2.1. Понятие методов обработки информации Известно, что информацию можно : - создавать (генерировать), - передавать (транслировать), - хранить и сохранять, - обрабатывать (перерабатывать). Остано вимся на последнем ее свойстве – обработке информации . Поскольку информация не материальна, её обработка заключается в различных преобразованиях. К процессам обработки можно отнести любые переносы информации с носителя на другой носитель. Информация , предназначенная для обработки , называется данными. Основным видом обработки первичной информации, полученной различными приборами, является преобразование в форму, обеспечивающую её восприятие органами чувств человека. Так, фотоснимки космоса, полученные в рентгеновских лучах, преобразуются в обычные цветные фотографии с использованием специальных преобразователей спектра и фотоматериалов. Приборы ночного видения преобразуют изображение, получаемое в инфракрасных (тепловых) лучах, в изображение в видимом диапазоне. Для некоторых задач связи и управления необходимо преобразование аналоговой информации в дискретную и наоборот. Для этого используются аналого-цифровые и цифро-аналоговые преобразователи сигналов. Важнейшим видом обработки семантической информации является определение смысла (содержания), заключающегося в некотором сообщении. В отличие от первичной , семантическая информация не имеет статистических характеристи к, то есть количественной меры – смысл либо есть, либо его нет. А скол ько его, если он есть – установить невозможно. Содержащийся в сообщении смысл описывается на искусственном языке, отражающем смысловые связи между словами исходного текста. Словарь такого языка, называемый тезаурусом, находится в приемнике сообщения. Смысл слов и словосочетаний сообщения определяется путем их отнесения к определенным группам слов или словосочетаний, смысл которых уже установлен. Тезаурус, таким образом, позволяет установить смысл сообщения и, одновременно, пополняется новыми смысловыми понятиями. Описанный вид обработки информации применяется в информационно-поисковых системах и системах машинного перевода. Одним из широко распространенных видов обработки информации является решение вычислительных задач и задач автоматического управления с помощью вычислительных машин. Обработка информации всегда производится с некоторой целью. Для её достижения должен быть известен порядок действий над информацией, приводящий к заданной цели. Такой порядок действий называется алгоритмом. Кроме самого алгоритма необходимо также некоторое устройство, реализующее этот алгоритм. В научных теориях такое устройство называется автоматом. Следует отметить как важнейшую особенность информации тот факт, что в силу несимметричности информационного взаимодействия при обработке информации возникает новая информация, а исходная информация не теряется. 2.2. Вклад Шеннона, Эшби, Колмогорова в изучение информации и методов ее обработки . Шеннон Клод Элвуд – американский инженер и математик, его работы являются синтезом математических идей с конкретным анализом чрезвычайно сложных пр облем их технической реализации (Приложение №1). Он является основателем теории информации, нашедшей применение в современных высокотехнологических системах связи. Шеннон внес огромный вклад в теорию вероятностных схем, теорию автоматов и теорию систем управления – области наук, входящие в понятие «кибернетика». В 1948 году предложил использовать слово «бит» для обозначения наименьшей единицы информации (в статье «Математическая теория связи»). Работа Шеннона «Теория связи в секретных системах» (1945) с грифом «секретно», которую рассекретили и опубликовали только лишь в 1949 году, послужила началом обширных исследований в теории кодирования и передачи информации, и, по всеобщему мнению, придала криптографии статус науки. Именно Клод Шеннон впервые начал изучать криптографию, применяя научный подход. В статье Шеннон определил основополагающие понятия теории криптографии, без которых криптография уже немыслима. Важной заслугой Шеннона является исследования абсолютно стойких систем и доказательство их существования, а также существование криптостойких шифров, и требуемые для этого условия. Шеннон также сформулировал основные требования, предъявляемые к надежным шифрам. Он ввёл ставшие уже привычными понятия рассеивания и перемешивания, а также методы создания криптостойких систем шифрования на основе простых операций. Данная статья является отправным пунктом изучения науки криптографии. Статья «Математическая теория связи» была опубликована в 1948 году и сделала Клода Шеннона всемирно известным. В ней Шеннон изложил свои идеи, ставшие впоследствии основой современных теорий и техник обработки, передачи и хранения информации. Результаты его работ в области передачи информации по каналам связи запустили огромное число исследований по всему миру. Шеннон обобщил идеи Хартли и ввёл понятие информации, содержащейся в передаваемых сообщениях. В качестве меры инф ормации передаваемого сообщения , Хартли предложил испол ьзовать логарифмическую функцию . Шеннон первым начал рассматривать передаваемые сообщения и шумы в каналах связи с точки зрения статистики, рассматривая как конечные, так и непрерывные множества сообщений. Развитая Шенноном теория информации помогла решить главные проблемы, связанные с передачей сообщений, а именно: устранить избыточность передаваемых сообщений, произвести кодирование и передачу сообщений по каналам связи с шумами. Решение проблемы избыточности подлежащего передаче сообщения позволяет максимально эффективно использовать канал связи. К примеру, современные повсеместно используемые методы снижения избыточности в системах телевизионного вещания на сегодняшний день позволяют передавать до шести цифровых программ коммерческого телевидения, в полосе частот, которую занимает обычный сигнал аналогового телевидения. Решение проблемы передачи сообщения по каналам связи с шумами при заданном соотношении мощности полезного сигнала к мощности сигнала помехи в месте приема, позволяет передавать по каналу связи сообщения со сколь угодно малой вероятностью ошибочной передачи сообщения. Также, это отношение определяет пропускную способность канала. Это обеспечивается применением кодов, устойчивых к помехам, при этом скорость передачи сообщений по данному каналу должна быть ниже его пропускной способности. В своих работах Шеннон доказал принципиальную возможность решения обозначенных проблем, это явилось в конце 40-х годов настоящей сенсацией в научных кругах. Данная работа, как и работы, в которых исследовалась потенциальная помехоустойчивость, дали начало огромному числу исследований, продолжающихся и по сей день, уже более полувека. На сегодняшний день все системы цифровой связи проектируются на основе фундаментальных принципов и законов передачи информации, разработанных Шенноном. В соответствии с теорией информации, вначале из сообщения устраняется избыточность, затем информация кодируется при помощи кодов, устойчивых к помехам, и лишь потом сообщение передается по каналу потребителю. Именно благодаря теории информации была значительно сокращена избыточность телевизионных, речевых и факсимильных сообщений. Большое количество исследований было посвящено созданию кодов, устойчивых к помехам, и простых методов декодирования сообщений. Исследования, проведенные за последние пятьдесят лет, легли в основу созданной Рекомендации МСЭ по применению помехоустойчивого кодирования и методов кодирования источников информации в современных цифровых системах. Уильям Росс Эшби – английский психиатр, специалист по кибернетике, пионе р в исследован ии сложных систем (Приложение №3 ). В книге «Введение в кибернетику» У. Р. Эшби показал, какое большое значение имеют понятия различия и разнообразия для кибернетики. Слово «отражение» У. Р. Эшби не употр ебляет, и, тем не менее, идея от ражения в книге п рисутствует, выраженная в иных терминах. Кибернетика не может не пользоваться понятием о тражения . Процессы движения информации – передача, воспри ятие, хранение, преобразование – все это определенные формы отражения, движения разнообразия. Е сли говорить в терминах Эшби, всегда в подобных процессах обнаружим операнд, оператор и образ. Если же перейти к понятиям теории отражения, то мы также здесь всегда обнаружим взаимодействие (воздействие) одного объекта на другой, передачу разнообразия от одного объекта (отражаемого) к другому (отражающему) , формирование в последнем об раза (отражения). Связь понятий отражения и информации в кибер нетике приобретает не только методологический и об щетеоретичес кий интерес, но и практический – ведь на основе научной интерпретации этих понятий создаются всевозможные кибернетические устройства, строится взаимодействие человека с техническими системами связи и управления. Хранение информации – это передача информации не в пространстве, а во времени, воспроизведение одного и того же состояния объекта, когда образ объекта совпадает с самим объектом, но разделен лишь интервалом времени. Такое «отражение во времени» есть то, что У. Р. Эшби называет тождественным пре образованием, когда «не происходит никаких изменений и каждый образ совпадает со своим операндом» . Подобная интерпретация явления хранения информации как процесса отражения во времени является несколько необычной. И это действительно особая форма понятия отражения, которая еще требует своего исследования, ибо здесь отражение основано не на причинности, а на связи состояний . И , тем не менее , хранение информации есть тоже результат отражения, но уже обусловленный «отсутствием» воздействия внешних объектов и процессов внутреннего разрушения отображения. Х ранение информации обеспечивает ся устойчивыми внутр енними взаимодействиями. Имен но поэтому для хранения информации выбираются в основном твердые тела, а не жидкие или газообраз ные, внутренние процессы в которых обычно ведут к разрушению следов, к стиранию информации. Однако для хранения информации пригодны не всякие твердые тела, а лишь такие, которые могут устойчиво сохранять следы внешних воздействий, когда таких воздействий уже нет. Этим свойством обладают лишь некоторые твердые тела, например железо, ферриты, ферросплавы и другие аналогичные материалы, которые сохраняют эффект остаточного ( положительного или отрицательного) намагничивания. У. Р. Эшби обращает внимание на то, что в любой данный момент разнообразие не существует в самом преобразователе. Если имеется в виду один и тот же преобразователь (переключатель, логический элемент), то он «может обнаруживать разнообразие состояний, зани маемых им в различных случаях» . Но если мы рассматриваем несколько преобразователей в один и тот, же момент, то они обнаруживают разнообразие занимаемых ими состояний. В этом смысле часть или вся электронно-вычислительная машина может рассматриваться как некоторое множество с разнообразием состояний логическ их элементов (преобразователей) . Процесс обработки инфор мации выступает как сложное взаимодействие внешних и внутренних процессов отражения, когда «внешнее» разнообразие изменяется, п о определенной программе в результате процессов самоотражения. П ринципы отражения и разнообразия, концепция информации как отраженного разнообразия лежат в фундаменте работы преобразователей информации, кибернетических вычислительных машин. Если при передаче разнообразия по техническим каналам связи ставится задача воспроизведения в другом месте пространства исходного разнообразия с возможно большей точностью, то преобразование разнообразия преследует иные цели. Здесь уже главная задача не сохранение разнообразия (это функция лишь элементов памяти), а изменение по заранее заготовленной программе последовательности простых операций (например, упомянутых логических функций). Введенная в ЭВМ информация (отраженное разнообразие внешних воздействий) преобразовывается согласно управляющей программе. Здесь «внешнее» разнообразие изменяется в результате внутренних отражательных процессов, представляющих собой просто передачу электрического импульса (который оставляет след), или в результате размыкания цепи. Колмогоров Андрей Николаевич – величайший русский математик ХХ столетия, создатель современной теории вероятностей, автор классических результатов в теории функций, в математической логике, топологии, теории дифференциальных уравнений, функциональном анализе, в теории турбулентнос ти, теории гам ильтоновых систем (Приложение №2 ). Созданные им школы в теории вероятностей, теории функций, функциональном анализе и теории гамильтоновых систем определили развитие этих направлений математики в ХХ столетии. В истории российской науки его имя стоит рядом с именами М. В. Ломоносова, Д. И. Менделеева - ученых, всей своей жизнью прославивших Россию. К теории информации интересы Андрея Николаевича обращают ся с 1955 г. Для распространения и популяризации в нашей стра не этой теории он сделал исключительно мн ого. В июне 1956 г. он (совместн о с И. М. Гельфандом и А. М. Ягломом) выступает на эту тему на третьем Всесоюзном математическом съезде в Мос кве, а в октябре 1956 г. делает доклад перед Общим собранием Ака демии наук СССР. Напряженное со средоточение мысли на идеях шенн оновской теории информации приводит А. Н. Колмогорова к совершенно неожиданному и смелому синтезу этих идей сперва с развитыми им же в 30-е годы идеями теории приближения, а за тем с идеями теории алгоритмов. В начале 60-х годов Андрей Николаевич решил реконструировать фундамент теории информации. Об этом пери оде своей работы он писал так: « ...занятия совсем общими полуфилософскими размышлениями у меня самого заняли больше времени и энергии, чем, может быть, кажется издали. В такой выработке совсем общих взглядов итог усилий заключается не в фо рмулировке точно фиксированных «результатов» , а в общей перестройке собственного сознания и размещения всего в надлежащей перспективе. Поэтому потом оказывается, что как бы и ничего не открыл «нового» , а потратил, много сил и времени» . Академик лукавит. Он открыл, всего-навсего, новое направление в теории информации. С появлением в 1965 году статьи А. Н. Колмогорова « Три подхода к определени ю понятия количества информации» родилась алгоритмическая теория информации, в основе которой лежало понятие колмогоровской сложности конечного объекта. Продолжая исследования, Андрей Николаевич приходит к с ледующему решительному выводу: « Теория информации должна предшествовать теории веро ятностей, а не опираться на нее» . Строгое построение теории вероятно стей на базе теории информации – дело будущего. Н аиболее богатая содержа нием и наиболее увлекательная с чисто математической стороны часть теории информ ации – теория стационарно работающих каналов связи, пе редающих непрерывные сообщения, – не могла бы быть создана без заранее разработанной теории стационарных случайных процессов и, в частности, без спектральной теории таких процессов. Интерес к разнообразным задачам передачи и хранения инфор мации имеет большую давность. Давно, по существу, возникали вопросы об оценке «количества» информации. Вопрос о возмож ности введения универсальной числовой меры для количества информации особенно важен в случаях необходимости преобра зования информации одного рода в информацию качественно другого рода. Заключение Информационные р есу р сы в современном обществе играют не меньшую , а нередко и большую р оль , чем ресур сы материальные . В связи с этим большая роль отводиться и методам обработки информации . Появляются всё более и более совершенные компьютеры , новые , удоб ные программы , современные способы хранения , передачи и защиты информации. Пользователь ЭВМ должен знать общие принципы организации информационных процессов в компьютерной среде , уметь выбрать нужные ему информационные системы и технические средства и быст ро освоить их применительно к своей предметной области. Строгого научного определения понятия “информация” нет . Считается , что существует более 300 толкований этого термина . В любом случае слово “и нформ ация” происходит от латинского « informatio» , означающе го разъяснение , осведомление , содержание сообщения , сведения с учётом их передачи в пространстве и времени . С содержательной точки зрения «информация» – это сведения о ком-то или о чём-т о , а с формальной точки зрения – набор знаков и сигналов . В различны х науках слово “информация” понимается по-разному . В 194 8 г . Клод Шеннон сформулировал один из законов теории информации , в котором говорится , что информация в коммуникациях (при передаче данных ) должна устранять неопределенность (энтропию - неупорядоченн ое (хаотическое ) состояние ). Согласно этому закону каждый сигнал имеет заранее известную вероятность появления . Чем меньше вероятность появления сигнала , тем больше информации он несёт для потребителя. Один из отцов кибернетики , психолог Росс Эшби с форму лировал закон необходимого разнообразия : «Чтобы управление системой было возможно , разнообразие управляющих действий должно быть не меньше разнообразия возмущений на входе в систему» . На бытовом языке это значит , что сложность можно победить только тем же, как минимум , уровнем сложности. Колмогоров А.Н . – один из основоположников современной теории вероятностей , им получены фундаментальные результаты в геометрии , математической логике , классической механике , теории турбулентности , теории сложности алгоритмо в , теории информации , теории функций , т еории тригонометрических рядов , теории множеств , теории дифференциа льных уравнений и в ряде других областей математики и её приложений. На 50-е и начало 60-х годов приходится взлет математического творчества Колмогоро ва . Им составлены фундаментальные работы по многим направлениям , например , по теории вероятностей конструктивных объектов , где предложенные им идеи измерения сложности объекта нашли многообразные применения в теории информации , теории вероятностей и теории алгоритмов. Современному студенту важно и интересно проследить эволюцию понятия «информация» и заглянуть в историю методов обработки информации . Тема оказалась очень сложной , выводы в работах предложенных ученых носят научный и углубленный характер , не в сегда понятные автору реферата . Получены первоначальные сведения по данной теме. Список литературы 1. Кибернетика, информация, отражение [Электронный ресурс]: http://sbiblio.com/biblio/archive/ursul_otraj/01.aspx 2. Колмогоров А.Н. , Теория информации и теория алгоритмов. — М.: Наука, 1987. — 304 с. 3. Колмогоров Андрей Николаевич [Электронный ресурс]: http://www.kolmogorov.info/ 4. Поспелов Д.А., Информатика: Энциклопедический словарь для начинающих. – М.: Педагогика-пресс, 1994. – 352 с. 5. Становление понятия «информация» [Электронный ресурс]: http://www.rae.ru/monographs/21-547 6. Философия информационной цивилизации [Электронный ресурс]: http://www.vipstudent.ru/index.php 7. Шеннон, Клод [Электронный ресурс]: http://ru.wikipedia.org/wiki/Шеннон,_Клод_Элвуд 8. Эшби У.Р. Введение в кибернетику. М., 1959. – 433 с. 9. Эшби, Уильям [ Электронный ресурс ] http://ru.wikipedia.org/wiki/Эшби,_Уильям_Росс Приложение №1 Биографическая справка Клод Элвуд Шеннон (1916 - 2001) Клод Шеннон родился 30 апреля 1916 года в городе Петоцки, штат Мичиган, США. Первые шестнадцать лет своей жизни Клод провел в Гэйлорде, Мичиган, где в 1932 году он закончил общеобразовательную среднюю школу Гэйлорда. Молодой Клод увлекался конструированием механических и автоматических устройств. Он собирал модели самолетов и радиотехнические цепи, создал радиоуправляемую лодку и телеграфную систему между домом друга и своим домом. В 1932 году Шеннон был зачислен в Мичиганский университет, где выбрал курс, посещая который начинающий ученый познакомился с работами Джорджа Буля. В 1936 году Клод оканчивает Мичиганский университет, получив степень бакалавра по двум специальностям математика и электротехника, и устраивается в Массачусетский технологический институт (MIT), где он работал ассистентом-исследователем на дифференциальн ом анализаторе Ванневара Буша – аналоговом компьютере. Изучая сложные, узкоспециализированные электросхемы дифференциального анализатора, Шэннон увидел, что концепции Буля могут получить достойное применение. Статья, написанная с его магистерской работы 1937 года «Символьный анализ реле и коммутаторов», была опубликована в 1938 году в издании Американского института инженеров-электриков (англ.)русск. (AIEE). Она также стала причиной вручения Шэннону Премии имени Альфреда Нобеля Американского института инженеров-электри ков в 1940 году. Цифровые цепи – это основа современной вычислительной техники, таким образом, результаты его работ являются одними из наиболее важных научных результатов ХХ столетия. Говард Гарднер из Гарвардского университета отозвался о работе Шэннона, как о «возможно, самой важной, а также самой известной магистерской работе столетия». Докторская диссертация Шеннона, получившая название «Алгебра для теоретической генетики», была завершена весной 1940 года. Шеннон получает докторскую степень по математике и степень магистра по электротехнике. В период с 1941 по 1956 гг. Шеннон преподает в Мичиганском университете и работает в компании Белл (Bell Labs). В лаборатории Белл Шеннон, исследуя переключающие цепи, обнаруживает новый метод их организации, который позволяет уменьшить количество контактов реле, необходимых для реализации сложных логических функций. С 1950 по 1956 Шеннон занимался созданием логических машин, таким образом, продолжая начинания фон Неймана и Тьюринга. Он создал машину, которая могла играть в шахматы, задолго до создания Deep Blue. В 1952 Шеннон создал обучаемую машину поиска выхода из лабиринта. Он был разработчиком первой промышленной игрушки на радиоуправлении, которая выпуска лась в 50-е годы в Японии . Также он разработал устройство, которое могл о складывать кубик Рубика , мини компьютер для настольной игры Гекс, который всегда побеждал соперника , механическую мышку, которая могла на ходить выход из лабиринта . Также он реализовал идею шуточной машины «Ultimate Machine» [ 7 ] . Приложение №2 Андрей Николаевич Колмогоров (1903-1987) Андрей Николаевич родился 25 апреля 1903 в Тамбове. C 1920 г. по 1925 г. он учится в Московском университете. Б удучи студентом, в 1922 г. он построил ряд Фурье, расходящийся почти всюду, что приносит ему мировую известность. В 1931 г. становится профессором МГУ. В 1933 г. он назначается директором Института математики и механики при МГУ. В 1935 г. на механико-математическом факультете МГУ он основал кафедру теории вероятностей (которой заведовал до 1966 г.). В 1939 г. А.Н.Колмогоров избирается действительным членом Академии наук СССР и он становится (по 1942 г.) академиком-секретарем Отделения физико-математических наук. В конце 30-х и начале 40-х годов А.Н. Колмогоров начинает интересоваться проблемами турбулентности и в 1946 г. организует лабораторию атмосферной турбулентности Института теоретической геофизики АН СССР. С 1936 г. Андрей Николаевич много сил отдает работе по созданию Большой и Малой Советских Энциклопедий. Он возглавляет математический отдел и сам пишет для энциклопедий много статей. В 1960 г. он создает межфакультетскую лабораторию вероятностных и статистических методов (которой заведовал с 1966 г. по 1976 г.), одной из основных задач которой было широкое использование современных методов теории вероятностей и математической статистики в естественно-научных и гуманитарных исследованиях. В 1976 г. в МГУ была открыта кафедра математической статистики, которой А.Н.Колмогоров заведовал до 1979 г. С 1980 г. и до конца своей жизни Андрей Николаевич заведовал кафедрой математической логики. В 1953 г. А.Н. Колмогоров был избран почетным членом Московского математического общества, а в период с 1964 по 1966 и с 1973 по 1985 г. он являлся его Президентом. В разные годы А.Н.Колмогоров был член ом редколлегий журналов « Математ ический сборник», «Доклады АН СССР», «Успехи математических наук» . С 1946 по 1954 г. и с 1983 г. по день кончины Андрей Николаевич был главн ым редактором «Успехов математических наук» . В 1956 г. Колмого р ов основывает журнал « Теор ия вероятностей и ее применения» и, с первого выпуска 1956 г. являлся главным редактором э того журнала . В 1931 г. выходит в с вет его фундаментальная статья « Об аналитически х методах в теории вероятностей», а в 1933 г. – монография « Основ ные понятия теории вероятностей» . Здесь завершается задача построения теории вероятностей как целостной математической теории. А.Н. Колмогорова был одним из самых выдающихся представителей современной математики в самом широком смысле этого слова, включающем и прикладную математику Ему было присвоено звание Героя Социалистического Труда (1963 г.), он был награжден семью орденами Ленина, другими орденами и медалями СССР, а также венгерским орденом Знамени, медалью им. Гельмгольца Академии наук ГДР, золотой медалью Американского метеорологического общества. Приложение №3 Уильям Росс Эшби (1903 - 1972) Окончил Кембриджский университет. С 1930 работал психиатром. С 1947 по 1959 годы Эшби был руководителем исследований в госпитале en:Barnwood House Hospital в Глочестере, Англия. В 1959 – 1960 директор Берденского нейрологического института в Бристоле (Burden N eurological Institute). С 1960 – профессор кибернетики и психиатрии Иллинойсского университета, Department of Electrical Engineering (Эрбана, США). В 1971 году стал членом Королевского колледжа психиатрии (en:Royal College of Psychiatry). Эшби принадлежит изобретение гомеостата (1948), введение понятия самоорганизации. Он сформулировал закон о требуемом разнообразии, названный его именем (закон Эшби): «управление может быть обеспечено только в том случае, если разнообразие средств управляющего (в данном случае всей системы управления) по крайней мере , не меньше, чем разнообр азие управляемой им ситуации» .
1Архитектура и строительство
2Астрономия, авиация, космонавтика
 
3Безопасность жизнедеятельности
4Биология
 
5Военная кафедра, гражданская оборона
 
6География, экономическая география
7Геология и геодезия
8Государственное регулирование и налоги
 
9Естествознание
 
10Журналистика
 
11Законодательство и право
12Адвокатура
13Административное право
14Арбитражное процессуальное право
15Банковское право
16Государство и право
17Гражданское право и процесс
18Жилищное право
19Законодательство зарубежных стран
20Земельное право
21Конституционное право
22Конституционное право зарубежных стран
23Международное право
24Муниципальное право
25Налоговое право
26Римское право
27Семейное право
28Таможенное право
29Трудовое право
30Уголовное право и процесс
31Финансовое право
32Хозяйственное право
33Экологическое право
34Юриспруденция
 
35Иностранные языки
36Информатика, информационные технологии
37Базы данных
38Компьютерные сети
39Программирование
40Искусство и культура
41Краеведение
42Культурология
43Музыка
44История
45Биографии
46Историческая личность
47Литература
 
48Маркетинг и реклама
49Математика
50Медицина и здоровье
51Менеджмент
52Антикризисное управление
53Делопроизводство и документооборот
54Логистика
 
55Педагогика
56Политология
57Правоохранительные органы
58Криминалистика и криминология
59Прочее
60Психология
61Юридическая психология
 
62Радиоэлектроника
63Религия
 
64Сельское хозяйство и землепользование
65Социология
66Страхование
 
67Технологии
68Материаловедение
69Машиностроение
70Металлургия
71Транспорт
72Туризм
 
73Физика
74Физкультура и спорт
75Философия
 
76Химия
 
77Экология, охрана природы
78Экономика и финансы
79Анализ хозяйственной деятельности
80Банковское дело и кредитование
81Биржевое дело
82Бухгалтерский учет и аудит
83История экономических учений
84Международные отношения
85Предпринимательство, бизнес, микроэкономика
86Финансы
87Ценные бумаги и фондовый рынок
88Экономика предприятия
89Экономико-математическое моделирование
90Экономическая теория

 Анекдоты - это почти как рефераты, только короткие и смешные Следующий
Студентки Бауманского Университета настолько суровы, что

Засовывают чертежи в тубус, не открывая его.

Если рисуют портрет, у них всегда получается полвида-полразреза.

Надевают на экзамен мини юбки прямо на джинсы.

Делают шпаргалки методом литья в кокиль.

В горячий цех войдут и шпиндель на ходу остановят.

Если их разбудить ночью и спросить принцип Сен-Венана, то они сначала ответят, а потом уже, как следует, врежут.

Закусывают шампанское пластиковым стаканчиком.

Целуясь, сворачивают губки трубочкой внутренним диаметром 5 мм с полем допуска +0.1.

Если уж выходят замуж по расчету, то сделанному методом конечных элементов при помощи программы APM Win Маchine.

Дарят валентинки в виде ракетной установки.

Выбирая духи, они интересуются, что в них является окислителем, а что - горючим.

Их свидетельство о браке включает в себя конструкторскую, технологическую и экономическую часть.
Anekdot.ru

Узнайте стоимость курсовой, диплома, реферата на заказ.

Обратите внимание, реферат по информатике и информационным технологиям "Эволюция понятия «информация» в XIX и начале XX веков. История методов обработки информации в работах Шеннона, Эшби, Колмогорова", также как и все другие рефераты, курсовые, дипломные и другие работы вы можете скачать бесплатно.

Смотрите также:


Банк рефератов - РефератБанк.ру
© РефератБанк, 2002 - 2016
Рейтинг@Mail.ru