Заказ работы

Заказать
Каталог тем

Самые новые

Значок файла Основы микропроцессорной техники: Задания и методические указания к выполнению курсовой работы для студентов специальности 200400 «Промышленная электроника», обучающихся по сокращенной образовательной программе: Метод. указ./ Сост. Д.С. Лемешевский. – Новокузнецк: СибГИУ, 2003. – 22 с: ил. (4)
(Методические материалы)

Значок файла Организация подпрограмм и их применение для вычисления функций: Метод. указ./ Сост.: П.Н. Кунинин, А.К. Мурышкин, Д.С. Лемешевский: СибГИУ – Новокузнецк, 2003. – 15 с. (2)
(Методические материалы)

Значок файла Оптоэлектронные устройства отображения информации: Метод. указ. / Составители: Ю.А. Жаров, Н.И. Терехов: СибГИУ. –Новокузнецк, 2004. – 23 с. (2)
(Методические материалы)

Значок файла Определение частотных спектров и необходимой полосы частот видеосигналов: Метод указ./Сост.: Ю.А. Жаров: СибГИУ.- Новокузнецк, 2002.-19с., ил. (2)
(Методические материалы)

Значок файла Определение первичных и вторичных параметров кабелей связи: Метод. указ./ Сост.: Ю. А Жаров: СибГИУ. – Новокузнецк, 2002. – 18с., ил. (2)
(Методические материалы)

Значок файла Операционные усилители: Метод. указ. / Сост.: Ю. А. Жаров: СибГИУ. – Новокузнецк, 2002. – 23с., ил. (2)
(Методические материалы)

Значок файла Моделирование электротехнических устройств и систем с использованием языка Си: Метод указ. /Сост. Т.В. Богдановская, С.В. Сычев (7)
(Методические материалы)


Заказ научной авторской работы

Корреляционная теория случайных процессов и временных рядов

Методы теории корреляции играют огромную роль при изучении
случайных процессов. Их роль велика и при изучении отдельных
случайных величин, но именно для случайных процессов корреляция
выходит на первый план. Это объясняется, в частности, тем, что
именно корреляция дает возможность связать воедино информацию о
различных сечениях случайного процесса и тем самым выявить его
суть.
     Ковариацией (или, точнее, взаимной ковариацией) двух
случайных процессов X(t),Y(t) называется функция двух переменных s
и t:
          сov(X,Y)(s,t)=M((X(s)-MX(s))(Y(t)-MY(t)).
     Иногда эту же функцию называют функцией взаимной корреляции
или кросскорреляции. Если случайные процессы X(t) и Y(t)
независимы, то их ковариация, конечно, равна нулю. Поэтому
ковариацию, как и в случай случайных величин, можно расматривать
как меру независимости случайных процесов X и Y. Ковариацию можно
рассматривать и применительно к одному случайному процессу, если
интересоваться мерой независимости его сечений. А именно,
корреляционной функцией случайного процесса или функцией
автокорреляции X(t) называют функцию
      KX(s,t)= cov(X,X)(s,t)=M((X(s)-MX(s))(X(t)-MX(t)).
     Если функция KX(s,t) тождественно равна нулю, то это означает,
что все сечения случайного процесса некоррелированы. Такого рода
процессы называют белым шумом (иногда, накладывая еще некоторые
дополнительные ограничения на сечения этого процесса, требуют их
одинаковой распределенности с нулевым средним значением).  
     Перечислим некоторые основные свойства функции ковариации:
 1
. |cov(X,Y)(s,t)|2 ? DX(s)DY(t).
 В частности |KX(s,t)|2 ? DX(s)DX(t).
2. KX(s,t)=KX(t,s) -симметричность.
3. ??a(s)a(t)KX(s,t)dsdt?0 для произвольной функции a(t). Это
свойство называется свойством положительной определенности,
аналогичное свойство имеется и для случайных величин, но мы его
выше не указывали, так как там оно нам было не так важно, как для
случайных процессов.
PDF created with FinePrint pdfFactory trial version http://www.fineprint.com
     Свойство 1 доказывается точно так же, как аналогичное
свойство для случайных величин. Свойство 2 очевидно, оно означает,
что функция автокорреляции KX(s,t) симметрична по своим аргументам.
     Как и в случае случайных величин, свойство 1 дает основания
для введения нормированной функции ковариации:
     rXY(s,t)=cov(X,Y)(s,t)/?X(s)?Y(t).
     Функция rXY принимает значения в отрезке [-1,+1] и равна нулю,
если X и Y независимы. Если rXY=0, то процессы X и Y не обязательно
будут независимы, они будут называться некоррелированными. Итак,
независимые процессы всегда некоррелированы, обратное утверждение,
вообще говоря, неверно.
     Аналогично определяется нормированная функция автокорреляции
rX(s,t) для случайного процесса X(t).
     Рассмотрим примеры вычислений функции корреляции.
1 Пусть X(t)=At+b, где A – равномерно распределенная на отрезке
[a,b] случайная величина, b – некоторая константа. Тогда MX=MA·t+b
и получаем:
      KX(s,t)=M(X(s)-MX(s)(X(t)-MX(t))=M(A-MA)2st=DA·st,
где DA=(b-a)2/12. Далее, имеем:
      DX(t)=Da·t2, ?X(T)=t DA .
     Из этих вычислений вытекает, очевидно, что rX(s,t)=1! Это
означает, что каждое из сечений в этом примере полностью
определяет любое другое сечение. Это на самом деле и не
удивительно, если вспомнить, что рассматриваемый нами процесс
линеен. 
2. Пусть X(t)=Acos?t +Bsin?t, где ? - некоторая постоянная
величина, а A и B –случайные величины, причем предположим, что
они некоррелированы, имеют нулевые математические ожидания и
равные между собой дисперсии (или среднеквадратичные
отклонения), т.е. пусть выполнены условия:
      cov(A,B)=0, MA=MB=0, DA=DB=?2.  
Тогда MX(s,t)=0 и имеем равенства: 
       
      cov(X,X)(s,t)=M((Acos?s+Bsin?s)(Acos?t+Bsin?t))=
      M(A2cos?s·cos?t+sin?s·sin?t)+2AB(cos?s·sin?t+sin?s·cos?t))=      
=?2cos?(s-t).
 
     Этот случайный процесс X(t) можно рассматривать как общий вид
случайного гармонического колебания с постоянной частотой ?
(случайными тут являются амплитуда и фаза). Для этого нужно просто
записать  X(t)=Acos?t+Bsin?t в виде Csin(?t+?), где C= A2 + B2 -
амплитуда, а ?=arctg(A/B) - фаза. Такой случайный процесс мы будем
называть элементарным гармоническим процессом. 
     Для временных рядов определения теории корреляции выглядят
совершенно аналогично. На основе этих определений строятся формулы
для вычисления оценок. Общая схема построения простейших формул
для оценок такова. Берется формула для вычисления некоторой
характеристики временного ряда, у которого все сечения являются
дискретными случайными величинами. В эту формулу вместо всех
фигурирующих там вероятностных параметров (математическое
PDF created with FinePrint pdfFactory trial version http://www.fineprint.com
ожидание, дисперсия и т.д.) подставляются некоторые их оценки.
Суммирование по всем возможным значениям дискретной случайной
величины заменяется на суммирование по всем экспериментальным
данным. Таким способом были построены вышеприведенные оценки для
математического ожидания и дисперсии. Выше было показано, что
иногда так полученные оценки являются несмещенными, а иногда имеют
смещение (хотя и небольшое). Однако все такие формулы имеют одно
достоинство – они просты. Иногда используются и другие, весьма
изощренные формулы для оценок. В частности, часто используемая на
практике формула для оценки автокорреляции центрированного
временного ряда X(k) имеет вид
 K*= 1
1
N + ?
k
x(k(T-?)/N+?)x(k(T-?)/N),
здесь при ?<0 в правой части нужно заменить ? на |?|.
     Для временного ряда часто используется коэффициент взаимной
корреляции между значениями x1,x2,x3... некоторой реализации этого
ряда и соответствующими моментами времени t1,t2,t3,.... Моменты
времени t1,t2,t3... считаются равноотстоящими. Выбрав подходящие
единицу времени и начало его отсчета, можно поэтому считать, что
моменты времени – это натуральные числа 1,2,3,.... Тогда для
отрезка 1,2,3,...T математическое ожидание равно (n+1)/2, а
дисперсия DT равна, как нетрудно проверить, величине n(n+1)/12.
Поэтому уравнение регрессии для временного ряда может быть
записано в таком виде:
  x-MX= ( 1)
12
n n + ( )
2
?( )( 1 +
- -
k
k
x MX k n )(t- 2
n +1 ).
  
 
§3. Стационарные временные ряды. Свойство эргодичности.
 
     Среди всех случайных процессов оказывается полезным выделить
такие, которые обладают дополнительным свойством стационарности,
т.е. некоторой регулярности относительно времени. Различают два
класса стационарных случайных процессов – стационарные в широком и
в узком смысле.
     Случайный процесс X(t) называется стационарным (в узком, т.е.
в наиболее строгом смысле этого слова), если все его функции
распределения (F(x,t),F(x1,x2,t1,t2) и т.д.) не зависят от выбора
начальной точки отсчета времени. Другими словами, процесс
стационарен, если все его вероятностные характеристики (а эти
характеристики полностью определяются его функциями распределения 
- одномерной, двумерной и т.д.) являются стационарными. Тем самым 
все моменты времени тут являются равноправными.
     Для одномерной функции распределения F(x,t) условие
стационарности можно записать в виде:
        F(x,t+T)=F(x,t),
где T – произвольное число. Отсюда следует, что F(x,t) не зависит
от t и потому является функцией одного только x. А отсюда
вытекает, в частности, что математическое ожидание случайного
процесса (как, впрочем, и его дисперсия) является постоянной
PDF created with FinePrint pdfFactory trial version http://www.fineprint.com
величиной. Это означает, что стационарный процесс можно
рассматривать как состоящий из случайных колебаний вокруг
некоторого фиксированного значения, которое является его
стационарным состоянием. Графически это изображается как колебания
вокруг горизонтальной прямой. 
     Для двумерной функции распределения условие стационарности
можно записать в следующем виде:
          F(x1,x2,t1+T,t2+T)=F(x1,x2,t1,t2).
Положив ?=t2-t1, мы видим, что двумерная функция распределения
F(x1,x2,t1,t2) фактически зависит не от моментов времени t1 и t2, а
лишь от их разности ?, называемой иногда лагом (запаздыванием,
задержкой) и может быть записана в виде F(x1,x2,?). Отсюда следует,
что все вероятностные характеристики случайного процесса, которые
выражаются через двумерную функцию распределения, зависят от ?. В
частности, это относится к функции автокорреляции rX(s,t)=rX(?).
     Стационарные случайные процессы описывают те явления и
системы, изменения которых являются стационарными (в том смысле,
что не зависят от выбора системы отсчета времени). Например,
стационарными можно считать напряжение в линии электропередач,
давление газа в замкнутом помещении или в газопроводе и т.д.
     Кроме независимости MX от t и зависимости  KX только от ?
стационарные случайные процессами обладают еще многими
дополнительными свойствами. Дело в том, что выше мы не
использовали еще многие другие числовые характеристики случайных
процессов, которые выражаются через одно- и двумерную функции
распределения (среди которых и такие важные, как дисперсия), а о
функциях распределения высших порядков речь вообще не шла. Однако
в процессе практического изучения тех случайных процессов и
временных рядов, которые есть основания рассматривать как
стационарные, оказалось, что именно указанные выше две особенности
стационарных процессов являются определяющими. Поэтому было
введено понятие стационарности в широком смысле, которое
основывается только на этих двух особенностях. А именно, случайный
процесс X(t) называется стационарным в широком (или, лучше
сказать, расширенном) смысле, если его математическое ожидание MX
постоянно, а функция автоковариации KX зависит только от разности
s-t временных аргументов.
     Случайных процессов, стационарных в широком смысле, в природе
очень много. Например, это все процессы, стационарные в узком
смысле, а также, как мы сейчас покажем, и все задаваемые в виде
суммы независимых элементарных гармонических процессов. Рассмотрим
этот важный класс примеров стационарных процессов.
     Пусть X(t)= ?
k
Cksin(?kt+?k) –сумма элементарных гармонических
случайных процессов Cksin(?kt+?k), k=1,2,.... Предположим, что
случайные величины Ck имеют нулевые математические ожидания и
независимы, пусть их среднеквадратичные отклонения равны ?k, а
частоты ?k и фазы ?k гармоник – некоторые постоянные величины (т.е.
числа, зависящие только от номера k). 
     Ясно, что MX=0. Вычисление, аналогичное приведенному выше,
показывает, что
PDF created with FinePrint pdfFactory trial version http://www.fineprint.com
 KX(?)= ?
k
?k2sin2(?k?).
     Отсюда видно, что процесс X(t) является стационарным в
широком смысле этого слова. При этом он далеко не всегда будет
стационарным в узком (т.е. в точном) смысле этого слова. Однако
оказывается, что и его дисперсия постоянна, она равна   
        DX=?
k
k
s 2 =KX(0).
     Перечислим теперь некоторые важные свойства функции
автокорреляции стационарных процессов. При этом в дальнейшем мы
практически всегда будем рассматривать стационарность в широком
смысле этого слова.
1 KX(0)=DX.
    Отсюда следует, в частности, что  rX(0)=1 и что rX=KX/KX(0).
2 |KX(?)| ? KX(0).
     Это неравенство следует из стандартного свойства функции
ковариации, если учесть предыдущее свойство 1.
3 KX(-?)=KX(?), то есть KX(?) является четной функцией своего
аргумента ?. То же касается, конечно, и функции rX(?).
4 Если X=Y+Z – сумма двух некоррелированных стационарных случайных
процессов, то KX(?)=KY(?)+KZ(?).
     Отметим, что на практике обычно оказывается, что для
стационарных процессов rX стремится к 0 при ?®?  или же она просто
отлична от нуля только на конечном интервале. 
     Стационарность – это не единственное полезное свойство,
которым могут обладать случайные процессы и которое дает
возможность более подробно их исследовать. Еще одним свойством
такого рода является эргодическое свойство или, говоря более
коротко, эргодичность. Понятие “эргодичность” заимствовано из
статистической физики, в которой изучаются свойства некоторых
физических систем (например, газов) состоящих из большого числа
одинаковых частиц. Там  выделяется особый класс систем, в которых
математические ожидания (средние значения) физических
характеристик можно вычислить не только путем усреднения по всему
множеству составляющих систему частиц, но и по траектории движения 
одной единственной частицы. Термин ‘эргодический” связан с
греческим словом ergon – работа, в статистической физике он
появляется потому, что свойство эргодичности формулируется в
тонком (в пределе – бесконечно тонком) слое фазовой области вблизи
поверхности постоянной энергии. Эргодичность проявляется в том,
что со временем соответствующий физический процесс становится
однородным, т.е. любая реализация этого процесса окажется в какой-
то момент сколь угодно близко к произвольному заданному состоянию
системы.
     Для случайных процессов свойство эргодичности формулируется
по отношению к различным вероятностным характеристикам. Например,
для математического ожидания свойство эргодичности формулируется
следующим образом. 
     Пусть X(t) – некоторый случайный процесс. Его математическое
ожидание вычисляется через интеграл с учетом  всей области
изменения его значений x. Для практического вычисления
PDF created with FinePrint pdfFactory trial version http://www.fineprint.com
математического ожидания необходимо знать все возможные реализации
этого случайного процесса. Математическое ожидание и есть
усреднение по множеству всех этих реализаций. Однако на практике
невозможно найти все возможные реализации, да и усреднение по их
множеству (бесконечному, а фактически даже континуальному)
практически выполнить невозможно. Но оказывается, что в некоторых
случаях математическое ожидание можно найти, если известна только
одна реализация случайного процесса. Пусть x(t) – некоторая
реализация  случайного процесса X(t). Выделим временной отрезок 
[-T,+T] длины 2T и рассмотрим следующую величину, зависящую от T:
            mT =  2T
1 ?
-
T
T
x(t)dt .
     Для временного ряда вместо интеграла берется сумма:
             mT= T
1?
=
T
k
x k
1
( ).
     Эту величину mT можно рассматривать как среднее значение
функции x(t) на отрезке [-T,+T], она может использоваться как
оценка (причем несмещеная) для математического ожидания
стационарного случайного процесса. Если перейти к пределу при 
T->?  , то получим число m, которое является средним значением для
данной реализации случайного процесса. Естественно возникает
вопрос о том, какое отношение имеет это среднее значение к
математическому ожиданию MX случайного процесса. Вообще говоря,
конечно, это две различные величины. На в некоторых важных случаях
оказывается, что они совпадают. Так как m постоянно, то тут
естественно рассматривать только стационарные процессы. Говорят,
что стационарный случайный процесс X(t) обладает свойством
эргодичности по отношению к математическому ожиданию, если для
любой его реализации x(t) имеет место равенство:  
          MX=lim T®? ?
+
-
T
T
x t dt
T
( )
2
1
.
     Свойство эргодичности тут означает, что усреднение по всем
реализациям можно заменить на усреднение по одной единственной
траектории.
     Аналогично формулируются свойства эргодичности для других
характеристик случайных процессов. Например, для дисперсии оно
имеет вид:
         DX= lim T®? ?
+
-
-
T
T
x MX dt
T
( )2
2
1 ,
а для функции автокорреляции:
  KX(?)=  ?
+
-
®?
T
T
limT 1/ 2T (x(t+?)-MX)(x(t)-MX)dt.  
     Если для случайного процесса проверено свойство эргодичности,
то говорят, что для него справедлива эргодическая теорема (в 
теории вероятностей их называют еще, по аналогии с классической
теорией вероятностей, законами больших чисел). Свойство
эргодичности означает, что все реализации случайного процесса
PDF created with FinePrint pdfFactory trial version http://www.fineprint.com
однородны, равноправны (по крайней мере, относительно некоторой
одной характеристики – математического ожидания, дисперсии,
функции автокорреляции). Обычно на практике свойство эргодичности
выводят из определенных физических соображений. Например,
эргодическим естественно считать броуновское движение микрочастиц.
Неэргодичность часто означает, что случайный процесс можно
рассматривать как смесь нескольких эргодических процессов, тут
величина mT характеризует лишь одну из компонент смеси, но не всю
смесь в целом. Если же стационарный процесс X(t) не является явной
смесью, т.е. искусственным объединением нескольких существенно
различных процессов, то этот процесс есть все основания
предполагать эргодическим.  
     Для того, чтобы строго доказать какую-либо эргодическую
теорему, на стационарный процесс X(t) нужно наложить определенные
дополнительные ограничения. Например, для эргодичности
математического ожидания достаточно потребовать, чтобы при T->?
функция rX(?) стремилась к 0, а для эргодичности дисперсии – чтобы
к нулю стремилась функция r(X(t)2)(?). Это последнее условие
означает, что сечения случайного процесса становятся все менее
коррелированными с увеличением временного промежутка между ними.
Другими словами, события, произошедшие в некоторый момент времени,
оказывают с течением времени все меньшее влияния на развитие
процесса в будущем.   
     Нетрудно привести примеры неэргодических случайных процессов.
Например, таков процесс X(t)=A, где A - некоторая случайная
величина. Его реализации – постоянные функции и усреднение каждой
их них дает, вообще говоря, разные значения (и потому не совпадает
с MX). 

     Ниже Вы можете заказать выполнение научной работы. Располагая значительным штатом авторов в технических и гуманитарных областях наук, мы подберем Вам профессионального специалиста, который выполнит работу грамотно и в срок.


* поля отмеченные звёздочкой, обязательны для заполнения!

Тема работы:*
Вид работы:
контрольная
реферат
отчет по практике
курсовая
диплом
магистерская диссертация
кандидатская диссертация
докторская диссертация
другое

Дата выполнения:*
Комментарии к заказу:
Ваше имя:*
Ваш Е-mail (указывайте очень внимательно):*
Ваш телефон (с кодом города):

Впишите проверочный код:*    
Заказ курсовой диплома или диссертации.

Горячая Линия


Вход для партнеров