Реферат: Собственные значения - текст реферата. Скачать бесплатно.
Банк рефератов, курсовых и дипломных работ. Много и бесплатно. # | Правила оформления работ | Добавить в избранное
 
 
   
Меню Меню Меню Меню Меню
   
Napishem.com Napishem.com Napishem.com

Реферат

Собственные значения

Банк рефератов / Математика

Рубрики  Рубрики реферат банка

закрыть
Категория: Реферат
Язык реферата: Русский
Дата добавления:   
 
Скачать
Microsoft Word, 833 kb, скачать бесплатно
Заказать
Узнать стоимость написания уникального реферата

Узнайте стоимость написания уникальной работы

16 Собственные значения 1. ВВЕДЕНИЕ Целый ряд инженерных задач своди тся к рассмотрению систем уравнений , имеющих единственное решен ие лишь в том случае , если известно зн ачение некоторого входящего в них параметра . Этот особый параметр называется характерист ическим , или соб ственным , значением системы . С задачами на собств е нные значе ни я инженер сталкивается в различных ситуациях . Так , для тензоров напряжений собственные значения определяют главные нормальные напряжени я , а собственными векторами задаются направле ния , связанные с этими значениями . При дин амическом анализе ме х анических систем собственные значения соответст вуют собственным частотам колебаний , а собственные векторы характеризуют моды этих колебаний . При расч ете конструкций собственные значения позволяют определять критические на грузки , превышение ко торых приво д ит к потере устойчиво сти. Выбор наиболее эффективного метода опреде ления собствен ных значений или собственных в екторов для данной инженерной задачи зависит от ряда факторов , таких , как тип уравн ений , число искомых собственных значений и их характер . Алгор итмы решения задач на собственные значения делятся на две группы . Итерационные методы очень удобны и хорошо приспособлены для определения наименьше го и наибольшего собственных значений . Методы преобразований подобия несколько сложней , за то позволяют оп р еделить все собст венные значения и собственные векторы. В данной работе будут рассмотрены наиболее расп ространенные методы решения задач на собствен ные значения . Однако сначала приведем некотор ые основные сведения из теории матричного и векторного исчислен ий , на которых базируются методы опреде ления собственных зна чений. 2. НЕКОТОРЫЕ ОСНОВНЫЕ СВЕДЕНИЯ , НЕОБХОДИМЫЕ ПРИ РЕШЕНИИ ЗАДАЧ НА СОБСТВЕНН ЫЕ ЗНАЧЕНИЯ В общем ви де задача на собственные значения формулирует ся следующим образом : A X = X , где A — матрица размерности n х n. Требуется найти n скаляр ных зна чений и собственные векторы X, соответствующие каждому из собс твенных значений. Основные определения матричного исчисления 1. Матрица A называется симметричной , если а ij = а ij , где i, j = 1, 2, . . ., n. Отсюда следует симметрия относительно диагонали а kk , где k == 1, 2, . . ., n. Матрица 1 4 5 4 3 7 5 7 2 является примером симметричной. 2. Матрица A называется трехдиагональной , е сли все ее элементы , кроме элементов главн ой и примыкающих к ней диа гоналей , равны нулю . В общем случае трехдиагональная мат ри ца имеет вид * * 0 * * * * * * . . . . . . * * * 0 * * * * * Важность трехдиагональной формы обусловлена тем , что некоторые методы пре образований подобия позволяют привести произволь ную матрицу к этому частному виду. 3. Матрица A называется орт огональной , если А Т А = Е, где А т — транспонированная матрица A , а Е — единичная матри ца . Очевидно , матрица , обратная ортогональн ой , эквива лентна транспонированной. 4. Матрицы А и В называются подобными , если существует такая несингулярная матрица Р , что справедливо соотношение В = Р -1 АР. Основные свой ства собственных значений. 1. Все п собственных значений симметричной матрицы раз мерности пХп , состоящей из действительных чисел , действи тельные . Это полезно помнить , так как матрицы , встреча ющиеся в инженерных расчетах , часто бывают симметричными. 2. Если собственные значения матрицы ра зличны , то ее соб ственные векторы ортогональны . Совокуп ность п линейно неза висимых собственных вект оров образует базис рассматривае мого пространств а . Следовательно , для совокупности линейно нез ависимых собственных векторов X i , где i == 1,. . ., n, любой про извольный вектор в том же пространстве мо жно выра зить через собственные векторы . Таким образом, n Y = a i X i . i=1 3. Если две матрицы подобны , то их собственные значен ия сов падают . Из подобия матриц A и В с ледует , что В = Р -1 АР. Так как А Х = Х , то Р -1 АХ = Р -1 Х. Если принять Х == Р Y , то Р -1 АР Y = Y , а В Y == Y . Т аким образом , матрицы A и В не только имеют одинаковые собственные значения , но и их с обственные векторы связаны соот ношением Х = Р Y . 4. Умножив собственный вектор матрицы на скаляр , получим собственный вектор той же матрицы . Обычно все собственные векто ры нормируют , разделив каждый элемент собственного вектора либо на его наибольший элемент , либо на сумму квадра тов всех других элементов. 3 . ИТЕРАЦИОННЫЕ МЕТОДЫ РЕШЕНИЯ. Пожалуй , наиболее очевидным способом решения задачи на собственные значения я вляетс я их определение из системы ура в нений (A - E ) Х == 0, которая имеет ненулевое решение лишь в случае , если det (A - E ) =0 . Раскрыв определитель , получим многочлен п - й степени относительно , корни которого и будут собственными значениями матрицы . Для определени я корней можно восполь зоваться любым из методов , описанных в гл. 2. К сожалению , в задачах н а собственные значения часто встречаются крат ные корни . Так как итерационные методы , в этих случаях не гарантируют получение решения , то для определения собственных зна чений следует пользоваться другими итерацион ными методами. Определение наи большего собственного значения методом итераций На рис. 1 показана бл ок -схема простейшего итерационного метода отыскания наибольшего собственного значения сист емы A Х = Х. Процедура начинается с пробного нормированного вектора X (0 ) . Этот вектор умножается слева на матрицу A, и результат приравни вается произведению постоянной (собственное значение ) и нормированному вектору X (0 ) .. Если вектор X (0) совпадае т с вектором X (0 ) , то счет прекращается . В противном с лучае новый нормированный вектор используется в качестве исходного и вся процедура п овторяе тся . Если процесс сходится , то постоянный множитель соответствует истинному наи большему собст венному значению , а нормированный вектор — соответствующему собственному вектору . Быст рота сходимости этого итерационного процесса зависит от того насколько удачн о выбр ан начальный вектор . Если он близок к истинному собственному вектору , то итерации с ходятся очень быстро . На быстроту сходимости влияет также и отношение величин двух наибольших собственных значений . Если это о тношение близко к единице , то сходимост ь оказывается медленной. Рис. 1. Блок-схема алго ритма и ите рационного метода решения задач на собственны е значения. П ример 1 Исследуем трех осное напряженное состояние элемента тела , пр едставленно го на рисунке 2 . Матрица напряжений для него имеет вид 10 5 6 5 20 4 * 10 6 Н /м 2 6 4 30 Рисунок 2 . Т рехосное напряженное состояние элемента тела. Если и сходить из того , что разрушение произойдет при максимальном на пряжении , то необходимо знать величину наибол ьшего главного напряжения , которое соответствует наибольшему собственному значению матрицы на пряжений . Для нахождения этого напряжения вос пользуемся методом итерации Ниже прив едена программа для ЭВМ , с помощью которой итерационная процедура осуществляется до тех пор , пока разность между собственными зна чениями , вычисленными в последовательных итерация х , не станет менее 0,01%. В программе использов аны д ве подпрограммы — GMPRD из пакета программ для научных исследований фирмы I ВМ , служащая для перемножения матриц и NORML , нормирующая собственные векторы п о наибольшему элементу. ********************************************************************** Прог рамма определения собс твенных значений Программа позволяет определит ь наиболь шее главное напряжение (собственное значение ) для данного трехосного напряженного состояния . Применяется метод итераций . Счет прекращается , когда изменение собственного значения с тановится менее 0,01 процента и ли число итераций превышает 50. ********************************************************************** DIMENSION S(3,3),X(3),R(3) S ( 1 , 1) = 10.E06 S(1,2) = 5. ЕО 6 S(2,1) = S(1,2) S(1,3) = 6.E06 S(3,1) = S (1,3) S(2,2) = 20.E06 S (2,3) = 4.E06 S(3,2) = S(2,3) S(3,3) = З 0. Е 06 X(1) = 1. Х (2) = 0.0 Х (3) = 0.0 XOLD = 0.0 I = 0 WRITE(6 100) WRITE(6 101) WRITE(6 102) WRITE(6 100) WRITE(6 104) I,X(1),X(2),X(3) DO 1 1=1,50 CALL GMPRD (S, X, R, 3, 3, 1) DO 2 J=1,3 2 X(J) = R(J) CALL NORML(XLAM,X) WRITE(6,103) I,XLAM,X(1),X(2),X(3) IF(ABS((XOLD-XLAM)/XLAM).LE. 0.0001) GO TO 3 1 XOLD = XLAM 3 WRITE(6,100) 100 FORMAT (1X 54C'-'')) 101 FORMAT (2X ‘ ITERATION ’ , ЗХ ‘ ITERATION ’ , 11X, ‘ EIGENVECTOR') 102 FORMAT (3X 'NUMBER", 6X ,'(N/M**2 ) ’ , 5X, ‘ X(1) ’ , 6X,'X(2)',6X, ’ X(3) ’ ) 103 FORMAT (1X,I5,7X,E12.5,3F10.5) 104 FORMAT (1X,I5,19X,3F10.5) STOP END ********************************************************************** SUBROUTINE NORML(XL,X) DIMENSION X (3) ********************************************************************** Подпрограмма norml . Эта подпрограмма находит наибольший из трех элементов собственного вектора и норм ирует собственный вектор по этому наибольшему элементу. ************************** ******************************************** # FIND THE LARGEST ELEMENT XBIG = X(1) IF(X(2).GT.XBIG)XBIG=X(2) IF(X(3).GT.XBIG)XBIG=X(3) # Нормирование по XBIG X(l) = X(1)/XBIG X(2) = X(2)/XBIG X(3) = X(3)/XBIG XL = XBIG RETURN END ********************************************************************** Результат работ ы программы получаем в виде : Номер Итерации Собственное Значение ( N / M ** 2 ) Собственный вектор X (1) X (2) X (3) 0. 1.00000 0. 0. 1. 0.10000 Е 08 1,00000 0.50000 0.60000 2. 0.26000Е 08 0.61923 0.66923 1.00000 3. 0.36392Е 08 0.42697 0.56278 1.00000 4. 0.34813Е 08 0.37583 0.49954 1.00000 5. 0.34253Е 08 0.35781 0.46331 1.00000 6. 0.34000Е 08 0.34984 0.44280 1.00000 7. 0.33870Е 08 0.34580 0.43121 1.00000 8. 0.33800Е 08 0.34362 0.42466 1.00000 9. 0.33760Е 08 0,34240 0.42094 1.00000 10. 0.33738Е 08 0.34171 0.41884 1.00000 11. 0.33726Е 08 0.34132 0.41765 1.00000 12. 0.33719Е 08 0,34110 0.41697 1.00000 13. 0.33714Е 08 0.34093 0.41658 1.00000 14. 0.33712Е 08 0.34091 0.41636 1.00000 Отметим , что для достижения требуемой точности потребовалось 14 итераций. Определение наименьшего собственного значения методом итер аций В некоторых случаях целесообразно и скать наименьшее , а не наибольшее собственное значение . Это можно сделать , предвари тельно умножив исходную систему на матрицу , обра тную A: А -1 А X = А -1 X . Если обе части этого соотношен ия умножим на 1 / , то по лучим 1/ Х = A -1 X . Ясно , что э то уже иная задача на собственное значени е , для кото рой оно равно 1/ , а рассматриваемой матрицей является A -1 . Максимум 1/ , достигается при наименьшем . Таким об разом , описанная выше итерационная процедура может быть использо вана для определения наим еньшего собственного значения новой системы. Определение промежуточных собственных значе ний методом итераций Найдя наибольшее собственное з начение , можно определить следующее за ним по величине , заменив исходную матрицу мат р ицей , содержащей лишь оставшиеся собственные значения . Используем для этого метод , называем ый методом исчерпывания . Дл я исходной симметричной матрицы A с известным наиболь шим собственным значением 1 и собственным вектором X 1 мож но в оспользоваться принципом ортогональности собственных векторов , т . е . записать Х i T Х j =0 при i<>j и Х i T Х j =1 при i=j. Если образоват ь новую матрицу A* в соответствии с формуло й A* =A- 1 Х 1 Х 1 T , то ее собственные значения и собственные векторы будут связаны соотношени ем А * X i = i X i . Из приведенного выше выр ажения для матрицы A* следует , что A* Х i = A Х i - Х 1 Х 1 T X i . Здесь при i = 1 свойство ортогональности позволя ет привести правую часть к виду A Х 1 - 1 Х 1 . Но по определению собственных значений ма трицы A это выра жение должно равняться нулю . Следовательно , собственное знач ение 1 матрицы A* равн о нулю , а все другие ее собственные зн ачения совпадают с собственными значениями ма трицы A. Таким образом , матрица A* имеет со бственные значения 0, 2 , 3 ,. . ., n и соответствующие собственные векторы Х 1 , Х 2 , Хз,. . . .... Х n . В результате выполненны х преобразований наибольшее собственное зна чение 1 было изъято , и теперь , чтобы найти сле дующее наибольшее собственное значение 2 , можно применить к матрице A* обычный итерационный метод . Определив 2 и Х 2 , повторим весь процесс , используя новую матр ицу A**, получен ную с помощью A*, 2 и Х 2 . Хотя на первый взгляд ка жется , что этот процесс должен быстро прив ести к цели , он имеет сущест венные недост атки . При выполнении каждог о шага погр ешности в определении собственных векторов бу дут сказываться на точ ности определения след ующего собственного вектора и вызы вать накоп ление ошибок . Поэтому описанный метод вряд ли применим для нахождения более чем т рех собственных значений , на ч иная с наибольшего или наименьшего . Если требуется полу чить большее число собственных значений , следует пользоваться методами преобразования подобия. 4. ОП РЕДЕЛЕНИЕ СОБСТВЕННЫХ ЗНАЧЕНИЙ МЕТОДАМИ ПРЕОБРАЗ ОВАНИЙ ПОДОБИЯ Метод преобразований подобия п рименя ется с целью получить из исходн ой матрицы новую с теми же собственными значениями , но более простого вида . Очевидно , самым лучшим упрощением было бы приведен ие матрицы к чисто диагональному виду , так как в этом случае собственные значения просто соответст в овали бы элемента м матрицы , стоящим на главной диагонали . К сожале нию , большая часть методов преобразова ния не позволяет этого сделать , и приходит ся довольствоваться приведением матрицы к тре хдиагональной форме. Метод Якоби Метод Якоби позволяет привест и матрицу к диагональному виду , послед овательно , исключая все элементы , стоящие вне глав ной диагонали . К сожалению , приведение к строго диагональному виду требует бескон ечно большого числа шагов , так как образо вание нового нулевого элемента на месте о дн о го из элементов матрицы часто ведет к появлению ненулевого элемента та м , где ра нее был нуль . На практике метод Якоби рассматривают , как итерационную процедуру , которая в принципе позволяет доста точно близко подойти к диагональной форме , чтобы это пр еобра зование можно было считать закончен ным . В случае симметрич ной матрицы A действите льных чисел преобразование выполня ется с пом ощью ортогональных матриц , полученных в резул ьтате вращении в действительной плоскости . Вы числения осуществ ляются следующим обр а зом . Из исходной матрицы А образуют матрицу A 1 == Р 1 АР 1 T . При этом ортогональная матрица Р 1 выбирается так , чтобы в матрице А 1 появился нулевой элемент , стоящий вне главной диагонали . Затем из А 1 с помощью второй преобразующей матрицы Р 2 , образуют новую ма трицу A 2 . При этом Р 2 , выбирают так , чтобы в A 2 появился еще один нулевой внедиагональный элемент . Э ту процедуру продолжают , стремясь , чтобы на каждом шаге в нуль обращался наибольший внедиагональный элемент . Преобразующая матрица для осуществления указанн ой операции на каждом шаге конструируется следующим образом . Если элемент а kl матрицы А т -1 имеет максимальную величину , то Рт соответствует P kk = P ll = cos , P kl = - P lk = sin , P ii = 1 пр и i <> k, l, P ij = 0 п ри i <> j. Матрица А т будет отличаться от матрицы A m-1 только строками и столбцами с номе рами k и l . Чтобы элемент а kl (m) был равен нулю , значение выбирается так , чтобы 2 a kl (m-1) tg 2 = ------------------------- . a kk (m-1) – a ll (m-1) k l 1 1 1 1 1 Cos . . . . . . sin k 1 1 P m = 1 1 1 1 - sin Cos l 1 1 1 1 Значения заклю чены в интервале - — < = < = — . 4 4 Пример 2 Пусть требуется найти значения всех главных напряжений для напряженного с остояния , показанного на рисунке примера 1. Д ля эт ого необходимо найти все собственные значения матрицы напряжений . Такая потребность возник ает , если конструктор вместо теории разрушени я при максимальном нормальном напряжении наме рен пользоваться какой-либо другой теорией ра зрушения . Чтобы найти все собственные значения , обратимся к методу преобразований Якоби , для реализации которого воспользуемся подпрограммой Е 1 G ЕМ из пакета программ для нау чных исследований ф ирмы IВМ , предназначенной для симметричн ых матриц . Так как матрица симметрична , то она сод ержит лишь шесть различных элементов . Для экономии памяти подпрограмма Е IG ЕМ использует матрицу 3Х 3 в компактной форме , при которой требуется только шесть ячеек памяти . Прог рамма для решения данной задачи имеет вид : ********************************************************************** Программа определение всех г лавных напряжении трехосной матрицы напряжений. В программе использовано подпрограмма Е IGЕМ из пакета программ для научных ис следований фирмы IВМ ********* ************************************************************* DIMENSION S<6),R(?) С # Задание матрицы в компактной форме S(1) = 10 Е 06 S(2) = 5 Е 06 S(3) = 20 Е 06 S(4) = 6 Е 06 S(5) = 4 Е 06 S(6) = 30 Е 06 # Опреде ление всех собственных значений методом Якоби CALL EIGEN(S,R,3,0) # Печать собственные значении WRITE(6,100) WRITE(6,101) S(1),S(3), 3(6) 100 FORMAT(1Х ,'ТНЕ EIGENVALUES ARE'') 101 FORMAT(1X,E15.8) STOP END Результат работ ы программы получаем в виде : Собственные значения ра в ны 0.33 709179E 08 0.19149061E 08 0.71417603E 07 Метод Гивенса для симметрич ных матриц Метод Гивенса основан на преобразовании подобия , аналогич ном применяемому в методе Якоби . Однако в этом случае алго ритм по строен таким образом , что вновь образованные нулевы е элементы при всех последующи х преобразованиях сохраняются . Поэтому метод Гивенса требует выполнения конечного числа пр еобразований и по сравнению с методом Яко би связан с мень шими затратами машинного времени . Его единственный недоста ток состоит в том, что симметричная матрица пр иводится не к диагональному , а к трехдиаго нальному виду . Ниже будет пока зано , что та кая форма матрицы может быть весьма полез ной и оправдывает усилия , затраченные на е е получение. В случае матрицы размерности п х п метод Гив енса требует п — 2 основных шагов , на каждом из которых выполняется ряд преобразований , число которых зависит о т числа нулей , кото рое хотят получить в данном столбце или строке . На k -м шаге обращают в нули элементы , стоящие вне трех диагоналей k -й строки и k -го столбца , сохран яя в то же время нулевые элементы , пол ученные на предыдущих шагах . Таким образом , перед нача лом k -го шага преобразованная матрица являет ся трехдиа гональной , если ограничиться рассмотрен ием ее первых k — 1 строк и столбцов . По мере пр еобразований симмет ричная матри ца размерности 5х 5 приобретает следующие фор мы : * * * * * * * * * * A 0 = * * * * * исх одная матрица, * * * * * * * * * * * * 0 0 0 * * * * * A 1 = 0 * * * * после первого основного шага , 0 * * * * состоя щего из трех преобразован ий, 0 * * * * * * 0 0 0 * * * 0 0 A 2 = 0 * * * * пос ле второго основного шага, 0 0 * * * состоящего из двух преобразований, 0 0 * * * * * 0 0 0 * * * 0 0 после третьего основного шага, A 3 = 0 * * * 0 состоящего из одного преобразования. 0 0 * * * Теперь матрица име ет трехдиагональный ви д. 0 0 0 * * На каждом основном шаге изменяются лишь те элементы мат рицы а ij , которые рас положены в ее правой нижней (заштрихо ванной ) части . Таким образом на k-м шаге пр еобразуется т олько матрица порядка ( п — k + 1), занимающая правый нижний угол исходной матрицы . Ясно , что на каждой следующей стадии вы полняется меньшее число преобразован ий , чем на предыдущей . Всего для приведени я матрицы к трехдиагональному виду тре буе тся выполнить ( n 2 — Зп + 2)/2 преобразований. Наш опыт применения метода Гивенса по казывает , что можно при выполнении одного шага преобразований обратить в нуль сразу все элементы целой строки и столбца , ст оящие вне трех диагоналей матрицы . Метод , позволяю щий выполнить такое преобразование , предложил Хаусхолдер . Метод Хау схолдера для симметричных матриц Метод Хаусхолдера позволяет пр ивести матрицу к трехдиа гональному виду , выпо лнив почти вдвое меньше вычислений по сра внению с другими методами . Это обусл ов лено тем , что при его применении становятс я нулевыми сразу все элементы строк и столбцов , стоящие вне трех диагоналей матри цы . Метод Хаусхол дера позволяет получить треб уемый результат быстрее , чем метод Гивенса , так как связан с выполнением меньшего чи с ла , хотя и более сложных пр еобразований . Это его свойство особенно ярко проявляется применительно к большим матрицам . Хотя в методе Хаусхолдера вместо плоских вращении используются эрмитовы ортогональные пр еобразования матриц , трехдиагональная форма матри ц ы , которую получают этим методом , име ет те же собствен ные значения , что и трехдиагональная матрица , получаемая методом Гиве нса . При использовании метода Хаусхолдера на п — 2 основных шагах выполняются следующие преобразования : А k = Р k A k-1 Р k , k=1, 2, ..., п -2, где Aо == А. Каждая преобра зующая матрица имеет вид u k u k T P k = E - -------------- , 2K k 2 где u i , k = 0 при i = 1, 2, … , k , u i , k = a k , i при i = k +2, … , n , u k+1 , k = a k,k+1 S k . Здесь n 1/2 S k = a 2 k,i i = k +1 2K 2 k = S 2 k a k , k +1 S k . В этих уравнениях берется знак , соответствующий элементу a k , k+1 . Это позволяет сделать значение и k+1 , k максимальным . Отмети м , что методами Гивенса и Хаусхолдера можно пользо ваться и в случае несимметричных матриц , приводя их , правда , не к трехдиагональному , а дру гому частному виду треугольной матрицы извест ной как матрица Гессенберга : * * 0 0 0 0 * * * 0 0 0 * * * * 0 0 * * * * * 0 * * * * * * * * * * * * 5. ОПРЕДЕЛЕНИЕ СОБСТВЕННЫХ ЗНАЧЕНИ Й СИ ММЕТРИЧНОЙ ТРЕХДИАГОНАЛЬНОЙ МАТРИЦЫ Приведя симме тричную матрицу к трехдиагональному виду мето дом Гивенса или Хаусхолдера , необходимо найти ее собст венные значения . Чтобы ясней были достоинства трехдиагональной формы , сформулируем задачу о собственных значениях в виде dе t(А— E) = 0 , где А — симметричная трехдиагональная матрица . Ра c кр ы в выражение в скобках , получим a 1 - b2 0 b1 a 2 - = 0 b n 0 b n a n - Произвольный о пределитель порядка п можно выразить через п миноров порядка п — 1, каждый из которых в свою очередь выражается через п — 1 миноров пор ядка п — 2. Удоб ство трех диагональной формы в том , что на каждом шаге все миноры , кроме двух , ок азываются равными нулю . В результате исходный определитель представляется последовательностью полиномов f m ( ) = (a m - ) f m-1 ( ) – b 2 m f m -2 ( ). П риняв f 0 ( ) = 1 и f 1 ( ) = a 1 - при r = 2, .... п, получим совокупность полиномов , из вестную как последовательность Штурма и облад ающую тем свойством , что корни полинома f j ( ) располагаются между корнями полинома f j +1 ( ) . Поэтому для f 1 ( ) = a 1 — можно утверждать , что значение К = а 1 заключено между корнями полинома f 2 ( ) == (a 2 — ) (a 1 — ) — b 2 2 . Это облегча ет итера ционное определение корней полинома , так как если известны границы интервалов , в которых лежат значения корней полино ма , то их можно найти методом половинного де ления . Так после дователь но находят корни всех полиномов , и последний из них f n ( ) дает все искомые п собственные значения . Эту процедуру можно проиллюстрировать графически (см . рис . 3 ). Последовательность Штурма обладает еще и таким свойством : для любого значения b , при котором f n ( b ) <> 0, число собствен ных значений матриц ы A, больших b, равно числу изменений знака последовательности 1, f 1 ( b ) , f 2 ( b ) , … , (1) n f n (b). Если целое число , равное числу изменений знака , обозначит ь че рез V(b), то числ о собственных значений в интер вале действи тельных чисел [b, с ] будет равно V(b) — V(c). ……………………………………………………………………………………………………….. Рис . 3. Итера ционное определение корней полинома 6. ДРУГИ Е МЕТОДЫ ВЫЧИСЛЕНИЯ СОБСТВЕННЫХ ЗНАЧЕНИЙ В этом раз деле мы рассмотрим два метода определения собст венных значений , имеющие большое практиче ское значение . Оба разработаны в последние 20 лет и наиболе е эффективны в тех случаях , когда требуется найти все собственные значени я про извольной матрицы действительных или ко мплексных чисел . В обоих используются преобра зования , позволяющие получить последовательность подобных матриц , сходящуюся к матрице блочн о й треугольной формы : X1 * … … * * * x2 * … … * * * x3 … … * * * … … * * * … * * * … * * 0 … * * где блоки Х m , представляют собой матрицы размерности 2 х 2, расположенные на гл авной диагонали . Собственные значения блоко в Х m , являются в то же время собственными знач ениями исходной матрицы размерности п x п. Такая форма удобна , так как детерминант второго порядка блок ов Х m позвол яет опреде лять комплексные собственные значения , не вводя комплексных элементов в окончат ельну ю матрицу . Если все собственные з на чения исходной матрицы действительные , то в окончательном виде она будет треугольной , причем собственные значения будут расположены на диагонали. Метод LR Этот метод первоначально был разработан Рутисхаузером в 1958 г . Метод основан на представлении матрицы A в виде про изве дения А = LR , где L — левая треугольная матрица с ед иничными диагональ ными элементами , а R — правая треугольная . Применяя преоб разование подобия L -1 A R , видим , что , A 2 = L -1 A R = L -1 (RL)L = R L . Следовательно, A m-1 = L m-1 R m-1, A m = R m-1 L m-1 . Этот процесс повторяется до тех пор , пока L s не превратится в единичную матрицу Е, а R s не приобретет квазидиагональную форму . Хотя э тот метод очень удобен , он не всегда у стойчив . Поэтому пре дпочтение часто отдаю т другому методу. Метод QR Метод QR. предложен Фрэнсисом в 1961 г . Соответствующий ему алгори тм определяется соотношением A m = Q m R m . где Q m — ортогональная матрица , а R m — верхняя треугольная матрица . При использовании метода по следовательно получ аем A m+1 = Q m T A m Q m = Q m T Q m R m Q m = R m Q m . В пределе последовательность матриц А стремится к квазидиа гональной фор ме . Этот метод сложнее предыдущего и требу ет больших затрат машинного времени . Однако его устойчивость,обусловлен ная использованием ортогональных преобразующих матриц , обеспечила ему прочную репутацию лучшего метода решен ия задач самой общей формы. Пример 3 Пусть требуется найти все собс твенные значения произвольной матрицы размерност и 6 x 6 2,3 4,3 5,6 3 ,2 1,4 2,2 1,4 2,4 5,7 8,4 3,4 5,2 2,5 6,5 4,2 7,1 4,7 9,3 3,8 5,7 2,9 1,6 2,5 7,9 2,4 5,4 3,7 6,2 3,9 1,8 1, 8 1,7 3,9 4,6 5,7 5,9 Сделаем это в два приема , приведя сначала матрицу с помощью преобразова ния подобия к виду Г сссенберга , затем с помощью разновид ности метода QR най дем собственные значения . В приведенной ниже программе использованы две подпрограммы из пакета программ для научных исследований фирмы IВМ . Подпрограмма Н SВС преобразует матрицу размерности 6 x 6 к форме Гессенберга , а подпрогр амма АТЕ IG позволяет найти собственные значения. ********************************************************************** Программа определение всех с обственных значений произвольной матрицы размерн ости 6х 5. Используются подпрограммы Н SВС и АТЕ IG из пакета программ для научных исследований фирмы IBM ********************************************************************** DIMENSION A(6,6),RR(6),RI(6),IANA(6) READ(5,100)((A(I,J),J=1,6),I=1,6) WRITE(6,104) 104 FORMAT(///lX, ’ THE ORIGINAL MATRIX IS AS FOLLOWS ’ ) WRITE(6 ,103) 103 FORMAT(1X,65(-'--')) WRITE(6,101)((A(I,J),J=1,6),I=1,6) WRITE(6,103) 101 FORMAT(6(1X,F10.5)) 100 FORMAT(6F10.5) CALL HSBG(6,A,6) WRITE(6,105) 105 FORMAT(///1X,'THE MATRIX W HESSENBUR5 FORM IS') WRITE(6,103) WRITE(6,101)((A(I,J),J=1,6),I=1,6) WRITE(6,103) CALL ATEIG(6,A,RR,RI,IANA,6) WRITE(6,106) 106 FORHAT(///1X,'THE EIGENVALUES ARE AS FOLLOUS') WRITE(6,107) 107 FORMAT (1X, 23( ‘ -‘ ),/,4X, ’ REAL',12X, ’ IMAG ’ ,/,23( ‘ -‘ )) WRITE(6,102)(RR(I),PKI),I=1,6) WRITE(6,108) 108 FORMAT(1X,23( ‘ -‘ )) FORMAT<2(2X,F10.5)” STOP END Результат получаем в вид е Исходная матриц а имеет вид 2.30000 4.30000 5.60000 3.20000 1,40000 2.20000 1.40000 2.40000 5.70000 8.40000 3.40000 5.20000 2.50000 6.50000 4.20000 7.10000 4.70000 9.30000 3.80000 5.70000 2.90000 1.60000 2.50000 7.90000 2.40000 5.40000 3.70000 6.20000 3.90000 1.80000 1.80000 1.70000 3.90000 4.60000 5.70000 5.90000 Матрица в форме Гессенбе рга. -1.13162 3.20402 -0, -0.05631 3.88246 1.40000 2.20000 -0.75823 0.07468 0, 0.48742 6.97388 5.37 А 35 10.36283 0. 1.13783 -2, -2.63803 10.18618 7.15297 17.06242 0. 0. 3.35891 7. 50550 7.09754 13.92154 0. 0. 0. 13.36279 10.58947 16.78421 0. 0. 0. 0. 5.70000 5.90000 Собственные значения ----------------------------------- Действит. Мин им. ----------------------------------- 25.52757 0. -5.63130 0. 0.88433 3.44455 0 .88433 -3.44455 -0.68247 1.56596 -0.68247 -1.56596 7. ВЫ БОР АЛГОРИТМА РЕШЕНИЯ ЗАДАЧ НА СОБСТВЕННЫЕ ЗНАЧЕНИЯ Выбор подходящего алгоритма дл я решения той или иной за да чи на собственные значения определяется типом собс твенных значений , типом матрицы и числом и скомых собственных зна чений . Чем сложнее зада ча , тем меньше число алгоритмов , из которы х можно выбирать . Таблица 1 позволяет облегчить это т выбор . Обычно пакеты ма тематического обеспечения ЭВМ со держат подпрограммы , в к оторых используются все эти алгорит мы или некоторые из них . Одним из эффективных способов ис пользования имеющегося математического обеспечения является одновременное применение двух подпрограмм , п о зволяющее совмест ить их лучшие качества . Например , имея мат рицу общего вида , можно методом Хаусхолдера свести ее к виду Гессенберга , а затем с помощью алгоритма QR найти с обственные значения . При этом будут использов аны как быстрота , обеспечиваемая ме тодо м Хаусхолдера , так и универсальность алгоритма QR . Таблица 1 Выбор алгор итма решения задачи на собственные значения Название алгоритма Примен яе т ся для Результат Рекомендуется дл я отыскания собственных значений Примеча ние Наибольшего или наименьшего Всех <=6 Всех >=6 Определитель (итера ция ) Матриц общего вида Собственные значения * Требует нахождения корней полинома обще го вида Итера ц ия (итера ц ия ) То же Собственные значения и собственные век торы * * * Обеспечивает наилучшую точность для наибольшего и наименьшего собственных значений Метод Якоби (пр еобразо вание ) Симмет ричных матриц Диагона ль ная форма матрицы * * Теоретически требует бесконечного числа шагов Метод Гивенса ( преобразо вание ) То же Трехдииональльная форма матрицы * * Требует знания корней простого полинома Нес иммет ричных матриц Форма Гессенберга * * Требует применения дополнительного метода Мето д Хаусхолдера (преобразова ние ) Симмет ричны х матриц Трехдиаго нальная форма матр ицы * * Требует знания корней простого полинома Мето д Хаусхолдера (преобразова ние ) Несиммет ричных матриц Форма Гессенберга * * Требует применен ия дополнительного метода Метод LR (пре о бразо вание ) Матриц обще го вида Квазидиаго нальная форма матрицы * * Бывает неустойчив Метод QR (преобразова ние ) То же То же * * Лучший метод , облада ющий наибольшей общностью
1Архитектура и строительство
2Астрономия, авиация, космонавтика
 
3Безопасность жизнедеятельности
4Биология
 
5Военная кафедра, гражданская оборона
 
6География, экономическая география
7Геология и геодезия
8Государственное регулирование и налоги
 
9Естествознание
 
10Журналистика
 
11Законодательство и право
12Адвокатура
13Административное право
14Арбитражное процессуальное право
15Банковское право
16Государство и право
17Гражданское право и процесс
18Жилищное право
19Законодательство зарубежных стран
20Земельное право
21Конституционное право
22Конституционное право зарубежных стран
23Международное право
24Муниципальное право
25Налоговое право
26Римское право
27Семейное право
28Таможенное право
29Трудовое право
30Уголовное право и процесс
31Финансовое право
32Хозяйственное право
33Экологическое право
34Юриспруденция
 
35Иностранные языки
36Информатика, информационные технологии
37Базы данных
38Компьютерные сети
39Программирование
40Искусство и культура
41Краеведение
42Культурология
43Музыка
44История
45Биографии
46Историческая личность
47Литература
 
48Маркетинг и реклама
49Математика
50Медицина и здоровье
51Менеджмент
52Антикризисное управление
53Делопроизводство и документооборот
54Логистика
 
55Педагогика
56Политология
57Правоохранительные органы
58Криминалистика и криминология
59Прочее
60Психология
61Юридическая психология
 
62Радиоэлектроника
63Религия
 
64Сельское хозяйство и землепользование
65Социология
66Страхование
 
67Технологии
68Материаловедение
69Машиностроение
70Металлургия
71Транспорт
72Туризм
 
73Физика
74Физкультура и спорт
75Философия
 
76Химия
 
77Экология, охрана природы
78Экономика и финансы
79Анализ хозяйственной деятельности
80Банковское дело и кредитование
81Биржевое дело
82Бухгалтерский учет и аудит
83История экономических учений
84Международные отношения
85Предпринимательство, бизнес, микроэкономика
86Финансы
87Ценные бумаги и фондовый рынок
88Экономика предприятия
89Экономико-математическое моделирование
90Экономическая теория

 Анекдоты - это почти как рефераты, только короткие и смешные Следующий
Марс - единственная планета, полностью населенная роботами (около 7 штук).
Anekdot.ru

Узнайте стоимость курсовой, диплома, реферата на заказ.

Обратите внимание, реферат по математике "Собственные значения", также как и все другие рефераты, курсовые, дипломные и другие работы вы можете скачать бесплатно.

Смотрите также:


Банк рефератов - РефератБанк.ру
© РефератБанк, 2002 - 2016
Рейтинг@Mail.ru