Is Moving Average Estacionário


Considere o processo de ordem infinita MA definido por ytepsilonta (epsilon epsilon.), Onde a é uma constante e os epsilonts são i. i.d. Variável aleatória N (0, v). Qual é a melhor maneira de mostrar que yt é não-estacionário Eu sei que eu preciso olhar para as raízes características do polinômio características e, em seguida, julgar se estão ou não fora do círculo unidade, mas qual é a melhor maneira de abordar este problema Devo tentar reescrever o processo de ordem infinita MA como um processo de ordem finita AR ou é mais fácil trabalhar o processo de MA perguntado Oct 19 13 em 21: 11A Breve Introdução à Séries de Tempo Modernas Definição Uma série de tempo é uma função aleatória xt de um argumento T em um conjunto T. Em outras palavras, uma série de tempo é uma família de variáveis ​​aleatórias. X t-1. X t. X t1. Correspondente a todos os elementos no conjunto T, onde T é suposto ser um conjunto infinito e numerável. Definição Uma série temporal observada t t e T o T é considerada como parte de uma realização de uma função aleatória x t. Um conjunto infinito de realizações possíveis que poderiam ter sido observadas é chamado conjunto. Para colocar as coisas com mais rigor, a série temporal (ou função aleatória) é uma função real x (w, t) das duas variáveis ​​w e t, onde wW e t T. Se fixarmos o valor de w. Temos uma função real x (t w) do tempo t, que é uma realização da série temporal. Se fixarmos o valor de t, então temos uma variável aleatória x (w t). Para um determinado ponto no tempo há uma distribuição de probabilidade sobre x. Assim, uma função aleatória x (w, t) pode ser considerada como uma família de variáveis ​​aleatórias ou como uma família de realizações. Definição Definimos a função de distribuição da variável aleatória w dada t 0 como P o) x (x). Da mesma forma, podemos definir a distribuição conjunta para n variáveis ​​aleatórias. Os pontos que distinguem a análise de séries temporais de análises estatísticas ordinárias são os seguintes: (1) A dependência entre observações em diferentes momentos cronológicos desempenha um papel essencial. Em outras palavras, a ordem das observações é importante. Na análise estatística ordinária assume-se que as observações são mutuamente independentes. (2) O domínio de t é infinito. (3) Temos de fazer uma inferência a partir de uma realização. A realização da variável aleatória pode ser observada apenas uma vez em cada ponto no tempo. Na análise multivariada temos muitas observações sobre um número finito de variáveis. Esta diferença crítica necessita da suposição de estacionaridade. Definição A função aleatória x t é dita ser estritamente estacionária se todas as funções de distribuição dimensional finita definindo x t permanecem as mesmas mesmo que todo o grupo de pontos t 1. T 2. T n é deslocado ao longo do eixo do tempo. Ou seja, se para quaisquer inteiros t 1. T 2. T n e k. Graficamente, pode-se imaginar a realização de uma série estritamente estacionária como tendo não apenas o mesmo nível em dois intervalos diferentes, mas também a mesma função de distribuição, até os parâmetros que a definem. O pressuposto da estacionaridade torna nossas vidas mais simples e menos dispendiosas. Sem estacionaridade, teríamos que amostrar o processo com freqüência em cada ponto de tempo, a fim de construir uma caracterização das funções de distribuição na definição anterior. Estacionaridade significa que podemos limitar nossa atenção a algumas das funções numéricas mais simples, isto é, os momentos das distribuições. Os momentos centrais são dados pela Definição (i) O valor médio da série temporal t é i. e. o momento da primeira ordem. (Ii) A função de autocovariância de t é i. e. o segundo momento em relação à média. Se ts, então você tem a variância de x t. Usaremos para denotar a autocovariância de uma série estacionária, onde k denota a diferença entre t e s. (Iii) A função de autocorrelação (ACF) de t é We We We We We We We.................................... (Iv) A autocorrelação parcial (PACF). Fkk. É a correlação entre z t e z tk após a remoção de sua dependência linear mútua das variáveis ​​intervenientes z t1. Z t2. Z tk-1. Uma maneira simples de calcular a autocorrelação parcial entre z t e z tk é executar as duas regressões e depois calcular a correlação entre os dois vetores residuais. Ou, depois de medir as variáveis ​​como desvios de suas médias, a autocorrelação parcial pode ser encontrada como o coeficiente de regressão LS em z t no modelo onde o ponto sobre a variável indica que ele é medido como um desvio de sua média. (V) As equações de Yule-Walker fornecem uma relação importante entre as autocorrelações parciais e as autocorrelações. Multiplique ambos os lados da equação 10 por z tk-j e tome as expectativas. Esta operação nos dá a seguinte equação de diferença nas autocovariâncias ou, em termos das autocorrelações Esta representação aparentemente simples é realmente um resultado poderoso. Ou seja, para j1,2. K podemos escrever o sistema completo de equações, conhecido como as equações de Yule-Walker, da álgebra linear você sabe que a matriz de r s é de grau completo. Portanto, é possível aplicar regra Cramers sucessivamente para k1,2. Para resolver o sistema para as autocorrelações parciais. Os três primeiros são: Temos três resultados importantes em séries estritamente estacionárias. A implicação é que podemos usar qualquer realização finita da seqüência para estimar a média. Em segundo lugar. Se t é estritamente estacionário e E t 2 lt então A implicação é que a autocovariância depende apenas da diferença entre t e s, não o seu ponto cronológico no tempo. Poderíamos usar qualquer par de intervalos na computação da autocovariância enquanto o tempo entre eles fosse constante. E podemos usar qualquer realização finita dos dados para estimar as autocovariâncias. A implicação é que a autocorrelação depende apenas da diferença entre t e s, bem como, e novamente eles podem ser estimados por qualquer realização finita dos dados. Se nosso objetivo é estimar parâmetros que são descritivos das possíveis realizações da série temporal, então talvez a estrita estacionaridade seja muito restritiva. Por exemplo, se a média e as covariâncias de x t são constantes e independentes do ponto cronológico no tempo, talvez não seja importante para nós que a função de distribuição seja a mesma para diferentes intervalos de tempo. Definição Uma função aleatória é estacionária no sentido amplo (ou fracamente estacionária, ou estacionária no sentido de Khinchins, ou covariância estacionária) se m 1 (t) m e m 11 (t, s). A estacionaridade estrita não implica, por si só, uma fraca estacionaridade. Estacionaridade fraca não implica estacionariedade estrita. A estacionaridade estrita com E t 2 lt implica fraca estacionaridade. Os teoremas ergódicos preocupam-se com a questão das condições necessárias e suficientes para inferir a partir de uma única realização de séries temporais. Basicamente, resume-se a assumir fraca estacionaridade. Teorema Se t é fracamente estacionário com média m e função de covariância, então Isto é, para qualquer dado e gt 0 e h gt 0 existe algum número T o tal que para todo T gt T o. Se e somente se Esta condição necessária e suficiente é que as autocovariâncias morrem, caso em que a média da amostra é um estimador consistente para a média da população. Corolário Se t é fracamente estacionário com E tk xt 2 lt para qualquer t, e E tk xtx tsk x ts é independente de t para qualquer inteiro s, então se e somente se onde A consequência do corolário é a suposição de que xtx tk é Fracamente estacionário. O Teorema Ergódico não é mais do que uma lei de grande número quando as observações são correlacionadas. Poder-se-ia perguntar neste momento sobre as implicações práticas da estacionariedade. A aplicação mais comum do uso de técnicas de séries temporais está na modelagem de dados macroeconômicos, tanto teóricos como ateóricos. Como exemplo do primeiro, pode-se ter um modelo multiplicador-acelerador. Para que o modelo seja estacionário, os parâmetros devem ter determinados valores. Um teste do modelo é então recolher os dados relevantes e estimar os parâmetros. Se as estimativas não forem consistentes com a estacionaridade, então é preciso repensar o modelo teórico ou o modelo estatístico, ou ambos. Agora temos máquinas suficientes para começar a falar sobre a modelagem de dados de séries temporais univariadas. Há quatro etapas no processo. 1. construção de modelos a partir do conhecimento teórico ou experiencial; 2. identificação de modelos baseados nos dados (séries observadas); 3. montagem dos modelos (estimativa dos parâmetros do (s) modelo (s)); 4. verificação do modelo. Se na quarta etapa não formos Satisfeito, voltamos para o primeiro passo. O processo é iterativo até que mais verificações e reespecificações não produzam mais melhorias nos resultados. Diagramaticamente Definição Algumas operações simples incluem o seguinte: O operador de retrocesso Bx tx t-1 O operador de avanço Fx tx t1 O operador de diferença 1 - B xtxt - x t-1 O operador de diferença comporta-se de uma forma consistente com a constante em uma série infinita . Ou seja, seu inverso é o limite de uma soma infinita. Nomeadamente, -1 (1-B) -1 1 (1-B) 1BB 2. O operador de integração S-1 Como é o inverso do operador de diferença, o operador de integração serve para construir a soma. MODEL BUILDING Nesta seção, oferecemos uma breve revisão dos modelos mais comuns de séries temporais. Com base no conhecimento do processo de geração de dados, escolhe-se uma classe de modelos para identificação e estimativa a partir das possibilidades que se seguem. Definição Suponha que Ex t m seja independente de t. Um modelo como com as características é chamado o modelo autorregressivo de ordem p, AR (p). Definição Se uma variável dependente do tempo (processo estocástico) t satisfaz então t é dito satisfazer a propriedade de Markov. Na LHS a expectativa é condicionada à história infinita de x t. No RHS é condicionada apenas uma parte da história. A partir das definições, um modelo AR (p) é visto para satisfazer a propriedade Markov. Usando o operador backshift podemos escrever nosso modelo AR como Teorema A condição necessária e suficiente para o modelo AR (p) ser estacionário é que todas as raízes do polinômio estão fora do círculo unitário. Exemplo 1 Considere o AR (1) A única raiz de 1 - f 1 B 0 é B 1 f 1. A condição para estacionaridade requer que. Se então a série observada aparecerá muito frenética. Por exemplo. Considere em que o termo de ruído branco tem uma distribuição normal com uma média zero e uma variância de um. As observações mudam de sinal com quase todas as observações. Se, por outro lado, então a série observada será muito mais suave. Nesta série, uma observação tende a estar acima de 0 se o seu predecessor estiver acima de zero. A variância de e t é s e 2 para todo t. A variância de x t. Quando ele tem média zero, é dado por. Como a série é estacionária, podemos escrever. Portanto, a função de autocovariância de uma série AR (1) é, supondo sem perda de generalidade m 0 Para ver o que isto parece em termos dos parâmetros AR, usaremos o fato de que podemos escrever xt como se segue Multiplicando por x Tk e tendo expectativas Note que as autocovariâncias morrem como k cresce. A função de autocorrelação é a autocovariância dividida pela variância do termo de ruído branco. Ou,. Usando as fórmulas anteriores de Yule-Walker para as autocorrelações parciais, temos Para um AR (1) as autocorrelações morrem exponencialmente e as autocorrelações parciais exibem um pico em um lag e são zero depois disso. Exemplo 2 Considere o AR (2) O polinômio associado no operador de atraso é As raízes poderiam ser encontradas usando a fórmula quadrática. As raízes são Quando as raízes são reais e, como consequência, a série declinará exponencialmente em resposta a um choque. Quando as raízes são complexas ea série aparecerá como uma onda de sinal amortecido. O teorema da estacionaridade impõe as seguintes condições nos coeficientes AR A autocovariância para um processo AR (2), com média zero, é Dividindo através da variância de xt dá a função de autocorrelação Uma vez que podemos escrever Similarmente para a segunda e terceira autocorrelações As outras As autocorrelações são resolvidas de forma recursiva. Seu padrão é governado pelas raízes da equação de diferença linear de segunda ordem. Se as raízes são reais, então as autocorrelações declinarão exponencialmente. Quando as raízes são complexas, as autocorrelações aparecerão como uma onda senoidal amortecida. Usando as equações de Yule-Walker, as autocorrelações parciais são novamente, as autocorrelações morrem lentamente. A autocorrelação parcial, por outro lado, é bastante distinta. Tem picos em um e dois lags e é zero em seguida. Teorema Se x t é um processo estacionário AR (p), então ele pode ser escrito de forma equivalente como um modelo de filtro linear. Ou seja, o polinômio no operador backshift pode ser invertido eo AR (p) escrito como uma média móvel de ordem infinita em seu lugar. Exemplo Suponha que z t seja um processo AR (1) com média zero. O que é verdadeiro para o período atual também deve ser verdadeiro para períodos anteriores. Assim, por substituição recursiva, podemos escrever Quadrado em ambos os lados e tomar as expectativas o lado direito desaparece como k desde f lt 1. Portanto, a soma converge para z t em média quadrática. Podemos reescrever o modelo AR (p) como um filtro linear que sabemos estar parado. A Função de Autocorrelação e Autocorrelação Parcial Geralmente Suponha que uma série estacionária zt com zero médio é conhecida por ser autorregressiva. A função de autocorrelação de um AR (p) é encontrada tomando-se as expectativas e dividindo-se pela variância de z t Isso nos diz que r k é uma combinação linear das autocorrelações anteriores. Podemos usar isso na aplicação da regra Cramers para (i) na resolução de f kk. Em particular, podemos ver que esta dependência linear causará f kk 0 para k gt p. Esta característica distintiva da série autorregressiva será muito útil quando se trata de identificação de uma série desconhecida. Se você tem ou MathCAD ou MathCAD Explorer, então você pode experimentar interactivley com algumas das idéias AR (p) apresentadas aqui. Modelos de média móvel Considere um modelo dinâmico em que a série de interesse depende apenas de alguma parte da história do termo de ruído branco. Diagramaticamente isto pode ser representado como Definição Suponha que t é uma sequência não correlacionada de i. i.d. Variáveis ​​aleatórias com média zero e variância finita. Então, um processo de média móvel de ordem q, MA (q), é dado pelo Teorema: Um processo de média móvel é sempre estacionário. Prova: Em vez de começar com uma prova geral vamos fazê-lo para um caso específico. Suponha que z t seja MA (1). Então . Evidentemente, um t tem média zero e variância finita. A média de z t é sempre zero. As autocovariâncias serão dadas por Você pode ver que a média da variável aleatória não depende do tempo de forma alguma. Você também pode ver que a autocovariância depende apenas do deslocamento s, não de onde na série começamos. Podemos provar o mesmo resultado de forma mais geral começando com, o que tem a representação da média móvel alternativa. Considere primeiro a variância de z t. Por substituição recursiva você pode mostrar que isso é igual a Soma que sabemos ser uma série convergente, então a variância é finita e é independente do tempo. As covariâncias são, por exemplo, Você também pode ver que as covariâncias automáticas dependem apenas dos pontos relativos no tempo, não o ponto cronológico no tempo. Nossa conclusão de tudo isso é que um processo de MA () é estacionário. Para o processo MA (q) geral, a função de autocorrelação é dada por: A função de autocorrelação parcial irá morrer suavemente. Você pode ver isso invertendo o processo para obter um processo AR (). Se você tiver MathCAD ou MathCAD Explorer, então você pode experimentar interativamente com algumas das idéias MA (q) apresentadas aqui. Múltiplo Autoregressive - Moving Average Models Definição Suponha que a t é uma sequência não correlacionada de i. i.d. Variáveis ​​aleatórias com média zero e variância finita. Em seguida, um processo de ordem média autorregressiva, de ordem (p, q), ARMA (p, q), é dado por: As raízes do operador autorregressivo devem estar todas fora do círculo unitário. O número de incógnitas é pq2. Os p e q são óbvios. O 2 inclui o nível do processo, m. E a variância do termo de ruído branco, sa 2. Suponha que combinamos nossas representações AR e MA de modo que o modelo seja e os coeficientes sejam normalizados de modo que bo 1. Então esta representação é chamada ARMA (p, q) se a As raízes de (1) estão todas fora do círculo unitário. Suponha que os y t sejam medidos como desvios da média para que possamos soltar um o. Então a função de autocovariância é derivada de se jgtq então os termos de MA caem na expectativa de dar Isso é, a função de autocovariância parece um AR típico para atrasos após q eles morrem suavemente após q, mas não podemos dizer como 1,2,133, Q vai olhar. Podemos também examinar o PACF para esta classe de modelo. O modelo pode ser escrito como podemos escrever isso como um MA (inf) processo que sugere que o PACFs morrer lentamente. Com alguma aritmética, poderíamos mostrar que isto acontece somente após os primeiros p picos contribuídos pela parte AR. Lei empírica Na realidade, uma série de tempo estacionária pode bem ser representada por p 2 e q 2. Se o seu negócio é fornecer uma boa aproximação à realidade e bondade de ajuste é o seu critério, em seguida, um modelo pródigo é preferido. Se o seu interesse é a eficiência preditiva, então o modelo parcimonioso é preferido. Experimente as idéias ARMA apresentadas acima com uma planilha MathCAD. Autoregressive Integrar modelos de média móvel Filtro MA Filtro AR Integrar filtro Às vezes, o processo ou série que estamos tentando modelar não está parado em níveis. Mas pode ser parado em, digamos, as primeiras diferenças. Isto é, em sua forma original, as autocovariâncias para a série podem não ser independentes do ponto cronológico no tempo. No entanto, se construímos uma nova série que é as primeiras diferenças da série original, esta nova série satisfaz a definição de estacionaridade. Este é frequentemente o caso com dados económicos que é altamente tendência. Definição Suponha que z t não é estacionária, mas z t - z t-1 satisfaz a definição de estacionariedade. Além disso, em, o termo de ruído branco tem média finita e variância. Podemos escrever o modelo como Este é chamado um modelo ARIMA (p, d, q). P identifica a ordem do operador AR, d identifica o poder ligado. Q identifica a ordem do operador MA. Se as raízes de f (B) estão fora do círculo unitário, então podemos reescrever o ARIMA (p, d, q) como um filtro linear. I. e. Ele pode ser escrito como um MA (). Reservamos a discussão sobre a detecção de raízes unitárias para outra parte das notas da aula. Considere um sistema dinâmico com x t como uma série de entrada e y t como uma série de saída. Diagramaticamente temos Estes modelos são uma analogia discreta de equações diferenciais lineares. Suponhamos a seguinte relação onde b indica um atraso puro. Lembre-se que (1-B). Fazendo esta substituição o modelo pode ser escrito Se o coeficiente polinomial em y t pode ser invertido, então o modelo pode ser escrito como V (B) é conhecido como a função de resposta ao impulso. Encontraremos essa terminologia novamente em nossa discussão posterior sobre o vetor autorregressivo. Modelos de co-integração e correção de erros. IDENTIFICAÇÃO DO MODELO Tendo decidido uma classe de modelos, é preciso agora identificar a ordem dos processos que geram os dados. Ou seja, deve-se fazer melhores suposições quanto à ordem dos processos AR e MA dirigindo a série estacionária. Uma série estacionária é completamente caracterizada por sua média e autocovariâncias. Por razões analíticas usualmente trabalhamos com as autocorrelações e autocorrelações parciais. Essas duas ferramentas básicas têm padrões exclusivos para processos AR e MA estacionários. Poder-se-ia calcular estimativas de amostra das funções de autocorrelação e autocorrelação parcial e compará-las com resultados tabulados para modelos padrão. Exemplo de Função de Autocovariância Função de Autocorrelação de Amostra As autocorrelações parciais de amostra serão Usando as autocorrelações e autocorrelações parciais é bastante simples em princípio. Suponha que temos uma série z t. Com média zero, que é AR (1). Se tivéssemos de executar a regressão de z t2 em z t1 e z t, esperaríamos achar que o coeficiente em z t não era diferente de zero uma vez que esta autocorrelação parcial deveria ser zero. Por outro lado, as autocorrelações para esta série devem estar diminuindo exponencialmente para atrasos crescentes (veja o exemplo AR (1) acima). Suponha que a série é realmente uma média móvel. A autocorrelação deve ser zero em todos os lugares, mas no primeiro lag. A autocorrelação parcial deve morrer exponencialmente. Mesmo a partir de nossa brincadeira muito superficial através do básico de análise de séries temporais é evidente que há uma dualidade entre AR e MA processos. Esta dualidade pode ser resumida na tabela a seguir.8.4 Movendo modelos médios Em vez de usar valores passados ​​da variável de previsão em uma regressão, um modelo de média móvel usa erros de previsão passados ​​em um modelo de regressão. Y e teta teta e dots theta e, onde et é ruído branco. Referimo-nos a isto como um modelo MA (q). Evidentemente, não observamos os valores de et, então não é realmente regressão no sentido usual. Observe que cada valor de yt pode ser considerado como uma média móvel ponderada dos últimos erros de previsão. No entanto, os modelos de média móvel não devem ser confundidos com o alisamento médio móvel discutido no Capítulo 6. Um modelo de média móvel é usado para prever valores futuros, enquanto o alisamento médio móvel é usado para estimar o ciclo tendencial de valores passados. Figura 8.6: Dois exemplos de dados de modelos de média móvel com diferentes parâmetros. Esquerda: MA (1) com y t 20e t 0,8e t-1. Direita: MA (2) com y t e t - e t-1 0,8e t-2. Em ambos os casos, e t é normalmente distribuído ruído branco com média zero e variância um. A Figura 8.6 mostra alguns dados de um modelo MA (1) e um modelo MA (2). Alterando os parâmetros theta1, dots, thetaq resulta em diferentes padrões de séries temporais. Tal como acontece com modelos autorregressivos, a variância do termo de erro e só irá alterar a escala da série, e não os padrões. É possível escrever qualquer modelo estacionário AR (p) como um modelo MA (infty). Por exemplo, usando a substituição repetida, podemos demonstrar isso para um modelo AR (1): begin yt amp phi1y et amp phi1 (phi1y e) amp phi12y phi1 e amp phi13y phi12e phi1 e et amptext end Provided -1 lt phi1 lt 1, o valor de phi1k será menor à medida que k for maior. Assim, eventualmente, obtemos yt et phi1 e phi12 e phi13 e cdots, um processo MA (infty). O resultado inverso é válido se impomos algumas restrições nos parâmetros MA. Em seguida, o modelo MA é chamado invertible. Ou seja, que podemos escrever qualquer processo de MA (q) invertível como um processo AR (infty). Os modelos Invertible não nos permitem simplesmente converter modelos MA para modelos AR. Eles também têm algumas propriedades matemáticas que torná-los mais fáceis de usar na prática. As restrições de invertibilidade são semelhantes às restrições de estacionaridade. Para um modelo MA (1): -1lttheta1lt1. Para um modelo MA (2): -1lttheta2lt1, theta2theta1 gt-1, theta1-theta2 lt 1. Condições mais complicadas mantêm-se para qge3. Novamente, R irá cuidar dessas restrições ao estimar os modelos.

Comments