четверг, 17 мая 2018 г.

Modelo de modelo médio em movimento


Um relato de Correlogram Na análise de dados, geralmente começamos com as propriedades estatísticas descritivas dos dados da amostra (por exemplo, média, desvio padrão, distorção, curtose, distribuição empírica, etc.). Esses cálculos são certamente úteis, mas eles não contabilizam a ordem das observações nos dados da amostra. A análise de séries temporais exige que prestem atenção à ordem e, portanto, requer um tipo diferente de estatística descritiva: estatística descritiva de séries temporais ou simplesmente análise de correlograma. A análise de correlograma examina a dependência tempo-espaço dentro dos dados da amostra, e enfoca a auto-covariância empírica, auto-correlação e testes estatísticos relacionados. Finalmente, o correlograma é uma pedra angular para identificar o (s) modelo (s) e modelo (s). O que um gráfico para auto correlação (ACF) ou auto-correlação parcial (PACF) nos informa sobre a dinâmica do processo subjacente Este tutorial é um pouco mais teórico do que os tutoriais anteriores na mesma série, mas faremos o nosso melhor para dirigir as intuições Casa para você. Antecedentes Primeiro, comece com uma definição para a função de auto-correlação, simplifique-a e investigue o ACF teórico para um processo de ARMA. Função de auto-correlação (ACF) Por definição, a correlação automática para lag k é expressa da seguinte forma: Este gráfico ACF também é infinito, mas a forma real pode seguir padrões diferentes. Um processo de AR pode ser representado por um processo de MA infinito. O AR possui memória infinita. Mas o efeito diminui ao longo do tempo. As funções de suavização exponencial são casos especiais de um processo AR e também possuem memória infinita. Exemplo 4 - Modelo ARMA (p, q) Agora, vemos o que o argumento ACF de um processo puro de MA e AR parece Como, mas sobre uma mistura dos dois modelos Pergunta: por que precisamos considerar um modelo de mistura como o ARMA, pois podemos representar qualquer modelo como MA ou modelo AR. Resposta: estamos tentando reduzir o requisito de memória e o Complexidade do processo superestimando os dois modelos. Usando a fórmula de auto-correlação MA (q), podemos calcular as funções de auto-correlação ARMA (p, q) para sua representação de MA. Isso está ficando intenso Alguns de vocês podem estar se perguntando por que não usamos VAR ou uma representação espacial de estados para simplificar as notações. Eu fiz um ponto para permanecer no domínio do tempo e evitei novas idéias ou truques de matemática, pois não serviriam nossas intenções aqui: Implicando a ordem ARMA exata usando os valores de ACF por si mesmos, o que é tudo menos preciso. Intuição: os valores de ACF podem ser considerados como valores de coeficientes do modelo equivalente de MA. Intuição: A variância condicional não tem barreira (efeito) nos cálculos de auto-correlação. Intuição: A média de longo prazo também não possui barreira (efeito) nas auto-correlações. Função de auto-correlação parcial (PACF) Até agora, vimos que identificar a ordem do modelo (MA ou AR) não é trivial para casos não simples, por isso precisamos de outra ferramenta de auto-correlação parcial (PACF). A função de auto-correlação parcial (PACF) desempenha um papel importante na análise de dados com o objetivo de identificar a extensão do atraso em um modelo autoregressivo. O uso desta função foi introduzido como parte da abordagem Box-Jenkins para a modelagem de séries temporais, pelo que se poderia determinar os atrasos adequados p em um modelo AR (p) ou em um modelo ARIMA (p, d, q) estendido, traçando As funções de auto-correlação parcial. Simplificando, o PACF para lag k é o coeficiente de regressão para o kth term, como mostrado abaixo: O PACF assume que o modelo subjacente é AR (k) e usa múltiplas regressões para calcular o último coeficiente de regressão. Intuição rápida: os valores de PACF podem ser pensados ​​(grosso modo) como valores de coeficientes do modelo de AR equivalente. Como o PACF é útil para nós Supondo que temos um processo AR (p), então o PACF terá valores significativos para os primeiros períodos de p e cairá para zero depois. E quanto ao processo MA O processo MA tem valores PACF não-nulos para um número (de teorias) infinito de atrasos. Exemplo 4: MA (1) Identificando os números de termos AR ou MA em um modelo ARIMA ACF e PACF: Depois de uma série temporal ter sido estacionada por diferenciação, o próximo passo na montagem de um modelo ARIMA é determinar se os termos AR ou MA São necessários para corrigir qualquer autocorrelação que permaneça na série diferenciada. Claro, com um software como o Statgraphics, você poderia tentar algumas combinações diferentes de termos e ver o que funciona melhor. Mas há uma maneira mais sistemática de fazer isso. Ao analisar as linhas de função de autocorrelação (ACF) e autocorrelação parcial (PACF) da série diferenciada, você pode identificar tentativamente os números de termos AR e ou MA que são necessários. Você já conhece o gráfico ACF: é apenas um gráfico de barras dos coeficientes de correlação entre séries temporais e atrasos em si. O gráfico PACF é um gráfico dos coeficientes de correlação parciais entre a série e os atrasos de si. Em geral, a correlação quotpartial entre duas variáveis ​​é a quantidade de correlação entre elas que não é explicada por suas correlações mútuas com um conjunto especificado de outras variáveis. Por exemplo, se estamos regredindo uma variável Y em outras variáveis ​​X1, X2 e X3, a correlação parcial entre Y e X3 é a quantidade de correlação entre Y e X3 que não é explicada pelas suas correlações comuns com X1 e X2. Essa correlação parcial pode ser calculada como a raiz quadrada da redução de variância que é alcançada pela adição de X3 à regressão de Y em X1 e X2. Uma correlação automática parcial é a quantidade de correlação entre uma variável e um atraso de si mesmo que não é explicado por correlações em todas as notas de ordem inferior. A autocorrelação de uma série temporal Y no intervalo 1 é o coeficiente de correlação entre Y t e Y t - 1. O que é presumivelmente também a correlação entre Y t -1 e Y t -2. Mas se Y t está correlacionado com Y t -1. E Y t -1 está igualmente correlacionado com Y t -2. Então também devemos esperar encontrar correlação entre Y t e Y t-2. Na verdade, a quantidade de correlação que devemos esperar no intervalo 2 é precisamente o quadrado da correlação lag-1. Assim, a correlação no intervalo de 1 quotpropagatesquot para lag 2 e presumivelmente para atrasos de ordem superior. A autocorrelação parcial no lag 2 é, portanto, a diferença entre a correlação real no intervalo 2 e a correlação esperada devido à propagação da correlação no lag 1. Aqui está a função de autocorrelação (ACF) da série UNITS, antes de qualquer diferenciação ser realizada: As autocorrelações são significativas para um grande número de atrasos - mas talvez as autocorrelações nos intervalos 2 e acima sejam meramente decorrentes da propagação da autocorrelação no intervalo 1. Isso é confirmado pelo argumento do PACF: Observe que o gráfico do PACF tem uma significância Pico apenas no intervalo 1, o que significa que todas as autocorrelações de ordem superior são efetivamente explicadas pela autocorrelação lag-1. As autocorrelações parciais em todos os atrasos podem ser calculadas ajustando uma sucessão de modelos autorregressivos com um número crescente de atrasos. Em particular, a autocorrelação parcial no intervalo k é igual ao coeficiente estimado de AR (k) em um modelo auto-regressivo com termos k - isto é. Um modelo de regressão múltipla em que Y é regredido em LAG (Y, 1), LAG (Y, 2), etc. até LAG (Y, k). Assim, por mera inspeção do PACF, você pode determinar quantos termos de AR você precisa usar para explicar o padrão de autocorrelação em uma série de tempo: se a autocorrelação parcial é significativa no intervalo k e não significativa em atrasos de ordem superior - ou seja. Se o PACF quotcuts offquot at lag k - então isso sugere que você deve tentar ajustar um modelo de ordem autorregressivo k O PACF da série UNITS fornece um exemplo extremo do fenômeno de corte: ele tem um pico muito grande no intervalo 1 E nenhum outro pico significativo, indicando que na ausência de diferenciação, um modelo AR (1) deve ser usado. No entanto, o termo AR (1) neste modelo resultará ser equivalente a uma primeira diferença, porque o coeficiente estimado de AR (1) (que é a altura do pico PACF no intervalo 1) será quase exatamente igual a 1 . Agora, a equação de previsão para um modelo AR (1) para uma série Y sem ordens de diferenciação é: Se o coeficiente AR (1) 981 1 nesta equação for igual a 1, é equivalente a prever que a primeira diferença De Y é constante - ou seja É equivalente à equação do modelo de caminhada aleatória com crescimento: o PACF da série UNITS está nos dizendo que, se não diferenciarmos, devemos caber um modelo AR (1) que se tornará equivalente a tomar Uma primeira diferença. Em outras palavras, está nos dizendo que UNITS realmente precisa de uma ordem de diferenciação para ser estacionada. Assinaturas AR e MA: se o PACF exibir um corte nítido enquanto o ACF decai mais devagar (ou seja, tem picos significativos em atrasos maiores), dizemos que a série estacionada exibe uma assinatura quotAR, o que significa que o padrão de autocorrelação pode ser explicado com mais facilidade Adicionando termos AR do que adicionando termos MA. Você provavelmente descobrirá que uma assinatura de AR é comumente associada à autocorrelação positiva no intervalo 1 - isto é. Ele tende a surgir em séries que são ligeiramente inferiores. A razão para isso é que um termo AR pode atuar como uma diferença quotparcial na equação de previsão. Por exemplo, em um modelo AR (1), o termo AR age como uma primeira diferença se o coeficiente autorregressivo for igual a 1, não faz nada se o coeficiente autorregressivo for zero, e ele age como uma diferença parcial se o coeficiente for entre 0 e 1. Então, se a série for ligeiramente inferior à diferença - ou seja Se o padrão não estacionário de autocorrelação positiva não tiver sido completamente eliminado, ele irá trocar por uma diferença parcial ao exibir uma assinatura AR. Portanto, temos a seguinte regra de ouro para determinar quando adicionar termos AR: Regra 6: Se o PACF da série diferenciada exibir um corte nítido e ou a autocorrelação lag-1 é positiva - isto é. Se a série aparecer um pouco quotunderdifferencedquot - então considere adicionar um termo AR ao modelo. O atraso em que o PACF corta é o número indicado de termos AR. Em princípio, qualquer padrão de autocorrelação pode ser removido de uma série estacionada, adicionando termos autorregressivos suficientes (atrasos da série estacionada) para a equação de previsão, e o PACF lhe diz quantos desses termos provavelmente serão necessários. No entanto, esta não é sempre a maneira mais simples de explicar um determinado padrão de autocorrelação: às vezes é mais eficiente adicionar os termos MA (atrasos dos erros de previsão). A função de autocorrelação (ACF) desempenha o mesmo papel para os termos MA que o PACF reproduz para os termos AR - ou seja, o ACF informa quantos termos MA são susceptíveis de serem necessários para remover a autocorrelação restante da série diferenciada. Se a autocorrelação é significante no intervalo k mas não em atrasos maiores - isto é. Se o ACF quotcuts offquot no lag k - isso indica que exatamente os termos de k MA devem ser usados ​​na equação de previsão. No último caso, dizemos que a série estacionada exibe uma assinatura quotMA, o que significa que o padrão de autocorrelação pode ser explicado mais facilmente adicionando termos MA que adicionando termos AR. Uma assinatura MA é comumente associada à autocorrelação negativa no intervalo 1 - isto é. Tende a surgir em séries que são ligeiramente diferenciadas. A razão para isso é que um termo MA pode quetparcialmente cancelar uma ordem de diferenciação na equação de previsão. Para ver isso, lembre-se de que um modelo ARIMA (0,1,1) sem constante é equivalente a um modelo de Suavização Exponencial Simples. A equação de previsão para este modelo é onde o coeficiente MA (1) 952 1 corresponde à quantidade 1 - 945 no modelo SES. Se 952 1 for igual a 1, isso corresponde a um modelo SES com 945 0, que é apenas um modelo CONSTANT porque a previsão nunca é atualizada. Isso significa que quando 952 1 é igual a 1, ele realmente está cancelando a operação de diferenciação que normalmente permite que a previsão de SES se ancore novamente na última observação. Por outro lado, se o coeficiente de média móvel for igual a 0, este modelo reduz-se a um modelo de caminhada aleatória - ou seja. Ele deixa a operação de diferenciação sozinha. Então, se 952 1 é algo maior do que 0, é como se cancelássemos parcialmente uma ordem de diferenciação. Se a série já estiver ligeiramente diferenciada - ou seja. Se a autocorrelação negativa tiver sido introduzida - então, as cotas para uma diferença serão parcialmente canceladas ao exibir uma assinatura MA. (Muita onda de braços está acontecendo aqui. Uma explicação mais rigorosa sobre esse efeito é encontrada na documentação sobre Estrutura Matemática do modelo ARIMA.) Daí a seguinte regra adicional: Regra 7: Se o ACF da série diferenciada exibir uma O corte nítido e a autocorrelação de lag-1 são negativos --e Se a série aparecer um pouco quotoverdifferencedquot - então considere adicionar um termo MA ao modelo. O atraso em que o ACF corta é o número indicado de termos MA. Um modelo para a série UNITS - ARIMA (2,1,0): Anteriormente, determinamos que a série UNITS precisava (pelo menos) de uma estação de diferencial não-estacional para ser estacionada. Depois de tomar uma diferença não sazonal - ou seja. Ajustando um modelo ARIMA (0,1,0) com constante - as parcelas ACF e PACF se parecem com isto: Observe que (a) a correlação no intervalo 1 é significativa e positiva, e (b) o PACF mostra um quotcutoffquot mais nítido do que O ACF. Em particular, o PACF tem apenas dois picos significativos, enquanto o ACF tem quatro. Assim, de acordo com a Regra 7 acima, a série diferenciada exibe uma assinatura AR (2). Se, portanto, definir a ordem do termo AR para 2 - ou seja. Ajustar um modelo ARIMA (2,1,0) - obtemos os seguintes gráficos ACF e PACF para os resíduos: a autocorrelação nos atrasos cruciais - ou seja, atrasos 1 e 2 - foi eliminada e não há padrão discernível Em atrasos de ordem superior. A série de séries temporais dos resíduos mostra uma tendência ligeiramente preocupante para se afastar da média: no entanto, o relatório de resumo da análise mostra que o modelo, no entanto, funciona bastante bem no período de validação, ambos os coeficientes de AR são significativamente diferentes de zero e o padrão O desvio dos resíduos foi reduzido de 1.54371 para 1.4215 (quase 10) pela adição dos termos AR. Além disso, não existe nenhum sinal de quotunit rootquot porque a soma dos coeficientes de AR (0.2522540.195572) não é próxima de 1. (as raízes da unidade são discutidas com mais detalhes abaixo). No geral, isso parece ser um bom modelo . As previsões (não transformadas) para o modelo mostram uma tendência ascendente linear projetada para o futuro: a tendência nas previsões de longo prazo deve-se ao fato de que o modelo inclui uma diferença não-temporária e um termo constante: este modelo é basicamente uma caminhada aleatória com Crescimento ajustado pela adição de dois termos autorregressivos - ou seja Dois atrasos da série diferenciada. A inclinação das previsões de longo prazo (ou seja, o aumento médio de um período para outro) é igual ao termo médio no resumo do modelo (0.467566). A equação de previsão é: onde 956 é o termo constante no resumo do modelo (0.258178), 981 1 é o coeficiente AR (1) (0.25224) e 981 2 é o coeficiente AR (2) (0.195572). Média versus constante: em geral, o termo quotmean no termo de um modelo ARIMA refere-se à média da série diferenciada (ou seja, a tendência média se a ordem de diferenciação for igual a 1), enquanto o quotconstantquot é o termo constante que aparece No lado direito da equação de previsão. Os termos médios e constantes são relacionados pela equação: MEIO CONSTANTE (1 menos a soma dos coeficientes AR). Neste caso, temos 0.258178 0.467566 (1 - 0.25224 - 0.195572) Modelo alternativo para a série UNITS - ARIMA (0,2,1): Lembre-se de que, quando começamos a analisar a série UNITS, não estávamos inteiramente certos do Ordem correta de diferenciação para uso. Uma ordem de diferenciação não-sazonal produziu o desvio padrão mais baixo (e um padrão de autocorrelação positiva leve), enquanto duas ordens de diferenciação não-sazonal produziram uma trama de séries temporais mais estacionárias (mas com autocorrelação negativa bastante forte). Aqui estão ambos ACF e PACF da série com duas diferenças não-sazonais: o único pico negativo no intervalo 1 no ACF é uma assinatura MA (1), de acordo com a Regra 8 acima. Assim, se usássemos 2 diferenças não sazonais, também gostaríamos de incluir um termo MA (1), produzindo um modelo ARIMA (0,2,1). De acordo com a Regra 5, também queremos suprimir o termo constante. Aqui, então, são os resultados da montagem de um modelo ARIMA (0,2,1) sem constante: Observe que o desvio padrão de ruído branco estimado (RMSE) é apenas muito ligeiramente maior para esse modelo do que o anterior (1.46301 aqui versus 1.45215 anteriormente). A equação de previsão para este modelo é: onde theta-1 é o coeficiente MA (1). Lembre-se que isso é semelhante a um modelo Linear Exponential Suavização, com o coeficiente MA (1) correspondente à quantidade 2 (1-alfa) no modelo LES. O coeficiente MA (1) de 0,76 neste modelo sugere que um modelo de LES com alfa na proximidade de 0,72 se encaixaria igualmente bem. Na verdade, quando um modelo LES é ajustado para os mesmos dados, o valor ideal de alfa é de aproximadamente 0,61, o que não está muito longe. Aqui está um relatório de comparação de modelos que mostra os resultados da montagem do modelo ARIMA (2,1,0) com constante, o modelo ARIMA (0,2,1) sem constante eo modelo LES: os três modelos funcionam quase idênticamente em O período de estimação eo modelo ARIMA (2,1,0) com constante aparece um pouco melhor do que os outros dois no período de validação. Com base apenas nestes resultados estatísticos, seria difícil escolher entre os três modelos. No entanto, se traçamos as previsões de longo prazo feitas pelo modelo ARIMA (0,2,1) sem constante (que são essencialmente iguais às do modelo LES), vemos uma diferença significativa daqueles do modelo anterior: As previsões têm um pouco menos de tendência ascendente do que as do modelo anterior - porque a tendência local próxima ao final da série é ligeiramente inferior à tendência média em toda a série -, mas os intervalos de confiança se expandem muito mais rapidamente. O modelo com duas ordens de diferenciação pressupõe que a tendência da série é variável no tempo, portanto, considera que o futuro distante é muito mais incerto do que o modelo com apenas uma ordem de diferenciação. Qual modelo devemos escolher. Isso depende dos pressupostos que fazemos com relação à constância da tendência nos dados. O modelo com apenas uma ordem de diferenciação assume uma tendência média constante - é essencialmente um modelo de caminhada aleatória ajustado com crescimento - e, portanto, faz projeções de tendência relativamente conservadoras. Também é bastante otimista sobre a precisão com que pode prever mais de um período à frente. O modelo com duas ordens de diferenciação pressupõe uma tendência local variável no tempo - é essencialmente um modelo de alisamento exponencial linear - e suas projeções de tendência são um pouco mais difíceis. Como regra geral neste tipo de situação, eu recomendaria escolher o modelo com a menor ordem de diferenciação, outras coisas sendo aproximadamente iguais. Na prática, os modelos de alinhamento aleatório ou simples-exponencial-suavização parecem funcionar melhor do que os modelos de alisamento exponencial linear. Modelos mistos: na maioria dos casos, o melhor modelo revela um modelo que usa apenas os termos AR ou apenas os termos MA, embora em alguns casos um modelo quotmixedquot com ambos os termos AR e MA possa fornecer o melhor ajuste para os dados. No entanto, deve-se ter cuidado ao montar modelos mistos. É possível um termo AR e um termo MA para cancelar os efeitos uns dos outros. Mesmo que ambos possam parecer significativos no modelo (conforme julgado pelas estatísticas t de seus coeficientes). Assim, por exemplo, suponha que o modelo quotcorrectquot para uma série temporal seja um modelo ARIMA (0,1,1), mas, em vez disso, você se encaixa em um modelo ARIMA (1,1,2) - ou seja. Você inclui um termo de AR adicional e um termo de MA adicional. Em seguida, os termos adicionais podem acabar aparecendo significativo no modelo, mas, no interior, eles podem estar apenas trabalhando uns contra os outros. As estimativas de parâmetros resultantes podem ser ambíguas e o processo de estimação de parâmetros pode levar muitas (por exemplo, mais de 10) iterações para convergir. Assim: Regra 8: É possível que um termo de AR e um termo de MA cancelem os efeitos uns dos outros, então, se um modelo de AR-MA misturado parece se adequar aos dados, também tente um modelo com um termo de AR menos e um termo de MA menor - principalmente se as estimativas de parâmetros no modelo original exigirem mais de 10 iterações para convergir. Por esse motivo, os modelos ARIMA não podem ser identificados por uma abordagem passo a passo que inclui os termos AR e MA. Em outras palavras, você não pode começar por incluir vários termos de cada tipo e, em seguida, atirar aqueles cujos coeficientes estimados não são significativos. Em vez disso, você normalmente segue uma abordagem quotforward stepwisequot, adicionando termos de um tipo ou outro como indicado pela aparência das parcelas ACF e PACF. Raizes da unidade: se uma série estiver grosseiramente subjugada ou superdiferenciada - isto é. Se toda uma ordem de diferenciação precisa ser adicionada ou cancelada, isso geralmente é sinalizado por uma quotunit rootquot nos coeficientes estimados de AR ou MA do modelo. Um modelo de AR (1) é dito ter uma raiz de unidade se o coeficiente estimado de AR (1) for quase exatamente igual a 1. (Por citar exatamente o quot, eu realmente não significa significativamente diferente de. Em termos do erro padrão próprio dos coeficientes. ) Quando isso acontece, significa que o termo AR (1) imita precisamente uma primeira diferença, caso em que você deve remover o termo AR (1) e, em vez disso, adicionar uma ordem de diferenciação. (Isso é exatamente o que aconteceria se você montasse um modelo AR (1) para a série UNITS indiferenciada, como observado anteriormente.) Em um modelo AR de ordem superior, existe uma raiz unitária na parte AR do modelo se a soma de Os coeficientes AR são exatamente iguais a 1. Neste caso, você deve reduzir o orden do termo AR por 1 e adicionar uma ordem de diferenciação. Uma série de tempo com uma raiz de unidade nos coeficientes de AR é não estacionária - ou seja. Ele precisa de uma maior ordem de diferenciação. Regra 9: Se houver uma unidade de raiz na parte AR do modelo - isto é. Se a soma dos coeficientes AR for quase exatamente 1 - você deve reduzir o número de termos AR em um e aumentar a ordem de diferenciação por um. Da mesma forma, um modelo MA (1) diz ter uma unidade de raiz se o coeficiente de MA estimado (1) for exatamente igual a 1. Quando isso acontece, significa que o termo MA (1) é exatamente cancelar uma primeira diferença, em Em qual caso, você deve remover o termo MA (1) e também reduzir a ordem de diferenciação por um. Em um modelo de MA de ordem superior, existe uma raiz de unidade se a soma dos coeficientes MA for exatamente igual a 1. Regra 10: Se houver uma raiz de unidade na parte MA do modelo - isto é. Se a soma dos coeficientes MA for quase exatamente 1 - você deve reduzir o número de termos MA em um e reduzir a ordem de diferenciação por um. Por exemplo, se você encaixa um modelo de alisamento exponencial linear (um modelo ARIMA (0,2,2)) quando um modelo de suavização exponencial simples (um modelo ARIMA (0,1,1) teria sido suficiente, você pode achar que A soma dos dois coeficientes MA é quase igual a 1. Ao reduzir a ordem MA e a ordem de diferenciação por cada uma delas, você obtém o modelo SES mais apropriado. Um modelo de previsão com uma unidade de raiz nos coeficientes de MA estimados é considerado não invariável. O que significa que os resíduos do modelo não podem ser considerados como estimativas do ruído aleatório quottruequot que gerou as séries temporais. Outro sintoma de uma raiz unitária é que as previsões do modelo podem permitir-se ou comportar-se com estranheza. Se o gráfico de séries temporais das previsões de longo prazo do modelo parecer estranho, você deve verificar os coeficientes estimados do seu modelo para a presença de uma unidade de raiz. Regra 11: Se as previsões a longo prazo parecerem erráticas ou instáveis, pode haver uma unidade de raiz nos coeficientes AR ou MA. Nenhum desses problemas surgiu com os dois modelos instalados aqui, porque fomos cuidadosos para começar com ordens plausíveis de diferenciação e números apropriados de coeficientes AR e MA ao estudar os modelos ACF e PACF. Discussões mais detalhadas das raízes das unidades e efeitos de cancelamento entre os termos AR e MA podem ser encontradas na Estrutura Matemática do modelo de modelos ARIMA. Modelos ARIMA sazonais gerais: (0,1,1) x (0,1,1) etc. Esboço de Modelagem ARIMA sazonal: a parte sazonal de um modelo ARIMA tem a mesma estrutura que a parte não sazonal: pode ter um fator AR, um fator MA, ou uma ordem de diferenciação. Na parte sazonal do modelo, todos esses fatores operam em múltiplos de lag s (o número de períodos em uma estação). Um modelo ARIMA sazonal é classificado como um modelo ARIMA (p, d, q) x (P, D, Q), onde Pnumber de termos autorregressivos sazonais (SAR), Dnúmero de diferenças sazonais, termos Qnumber de média móvel sazonal (SMA) Ao identificar um modelo sazonal, o primeiro passo é determinar se é necessária ou não uma diferença sazonal, além de ou talvez em vez de uma diferença não sazonal. Você deve procurar parcelas de séries temporais e lotes ACF e PACF para todas as combinações possíveis de 0 ou 1 diferença não sazonal e 0 ou 1 diferença sazonal. Cuidado: nunca utilize mais de uma diferença sazonal, nem mais de DUAS diferenças totais (sazonal e não sazonal). Se o padrão sazonal é forte e estável ao longo do tempo (por exemplo, alto no verão e baixo no inverno, ou vice-versa), então você provavelmente deve usar uma diferença sazonal, independentemente de usar uma diferença não sazonal, pois isso Evitar que o padrão sazonal seja excluído das previsões de longo prazo. Vamos adicionar isso à nossa lista de regras para identificar modelos. Regra 12: Se a série tiver um padrão sazonal forte e consistente, então você deve usar uma ordem de diferenciação sazonal - mas nunca use mais do que uma ordem de diferenciação sazonal ou mais de 2 Ordens de diferenciação total (seasonalnonseasonal). A assinatura do SAR puro ou comportamento SMA puro é semelhante à assinatura de AR puro ou comportamento de MA puro, exceto que o padrão aparece em múltiplos de atrasos no ACF e PACF. Por exemplo, um processo puro de SAR (1) tem picos no ACF em atrasos s, 2s, 3s, etc., enquanto o PACF corta após o atraso s. Por outro lado, um processo puro de SMA (1) tem picos no PACF em atrasos s, 2s, 3s, etc., enquanto o ACF corta após o atraso. Uma assinatura de SAR geralmente ocorre quando a autocorrelação no período sazonal é positiva, enquanto que uma assinatura de SMA geralmente ocorre quando a autocorrelação sazonal é negativa. Portanto: Regra 13: se a autocorrelação no período sazonal é positiva. Considere adicionar um termo SAR ao modelo. Se a autocorrelação no período sazonal é negativa. Considere adicionar um termo SMA ao modelo. Tente evitar misturar os termos SAR e SMA no mesmo modelo, e evite usar mais do que um de qualquer tipo. Geralmente, um mandato SAR (1) ou SMA (1) é suficiente. Você raramente encontrará um processo genuíno de SAR (2) ou SMA (2), e ainda mais raramente tem dados suficientes para estimar 2 ou mais coeficientes sazonais sem o algoritmo de estimação entrar em um loop de quotfeedback. Embora um modelo ARIMA sazonal pareça ter Apenas alguns parâmetros, lembre-se de que o backforecast exige a estimativa de um ou dois períodos de parâmetros implícitos para inicializá-lo. Portanto, você deve ter pelo menos 4 ou 5 temporadas de dados para se adequar a um modelo ARIMA sazonal. Provavelmente, o modelo ARIMA sazonal mais usado é o modelo (0,1,1) x (0,1,1) - isto é. Um modelo MA (1) xSMA (1) com uma diferença sazonal e não sazonal. Este é essencialmente um modelo de alisamento exponencial quotseasonal. Quando os modelos ARIMA sazonais são ajustados aos dados registrados, eles são capazes de rastrear um padrão sazonal multiplicativo. Exemplo: série AUTOSALE revisitada Lembre-se de que prevemos a série de vendas automáticas de varejo usando uma combinação de deflação, ajuste sazonal e suavização exponencial. Vamos agora tentar ajustar a mesma série com os modelos sazonais ARIMA, usando a mesma amostra de dados de janeiro de 1970 a maio de 1993 (281 observações). Como antes, trabalharemos com vendas automáticas deflacionadas - ou seja. Usaremos a série AUTOSALECPI como variável de entrada. Aqui estão as séries de séries temporais e os gráficos ACF e PACF da série original, que são obtidos no procedimento de Previsão, traçando o quotresidual de um modelo ARIMA (0,0,0) x (0,0,0) com constante: O O padrão quotuspension bridgequot no ACF é típico de uma série que é não estacionária e fortemente sazonal. Claramente precisamos de pelo menos uma ordem de diferenciação. Se nós tomarmos uma diferença não sazonal, as parcelas correspondentes são as seguintes: A série diferenciada (os resíduos de um modelo de caminhada ao crescimento aleatório) parece mais ou menos estacionária, mas ainda há autocorrelação muito forte no período sazonal (Lag 12). Como o padrão sazonal é forte e estável, sabemos (da Regra 12) que queremos usar uma ordem de diferenciação sazonal no modelo. Aqui está o aspecto da imagem depois de uma diferença sazonal (apenas): a série estacionalmente diferenciada mostra um padrão muito forte de autocorrelação positiva, como lembramos da nossa tentativa anterior de se ajustar a um modelo de caminhada aleatória sazonal. Esta poderia ser uma assinatura de quotAR - ou poderia sinalizar a necessidade de outra diferença. Se tomarmos uma diferença sazonal e não sazonal, obtêm-se os seguintes resultados: estes são, obviamente, os resíduos do modelo de tendência aleatória sazonal que montamos nos dados de auto vendas anteriormente. Agora vemos os sinais reveladores de overdifferencing suave. Os picos positivos no ACF e PACF tornaram-se negativos. Qual é a ordem correta de diferenciação Mais uma informação que pode ser útil é um cálculo das estatísticas de erro da série em cada nível de diferenciação. Podemos calculá-los ajustando os modelos ARIMA correspondentes, nos quais apenas são utilizadas diferenças: os erros mais pequenos, tanto no período de estimação como no período de validação, são obtidos pelo modelo A, que usa uma diferença de cada tipo. Isso, juntamente com a aparência das parcelas acima, sugere fortemente que devemos usar uma diferença sazonal e não-sazonal. Note-se que, exceto o termo constante gratuitiário, o modelo A é o modelo de tendência aleatória sazonal (SRT), enquanto o modelo B é apenas o modelo de caminhada aleatória sazonal (SRW). Conforme observamos anteriormente, quando comparamos esses modelos, o modelo SRT parece ser melhor do que o modelo SRW. Na análise a seguir, tentaremos melhorar esses modelos através da adição de termos ARIMA sazonais. Voltar ao topo da página. The often-used ARIMA(0,1,1)x(0,1,1) model: SRT model plus MA(1) and SMA(1) terms Returning to the last set of plots above, notice that with one difference of each type there is a negative spike in the ACF at lag 1 and also a negative spike in the ACF at lag 12 . whereas the PACF shows a more gradual quotdecayquot pattern in the vicinity of both these lags. By applying our rules for identifying ARIMA models (specifically, Rule 7 and Rule 13), we may now conclude that the SRT model would be improved by the addition of an MA(1) term and also an SMA(1) term. Also, by Rule 5, we exclude the constant since two orders of differencing are involved. If we do all this, we obtain the ARIMA(0,1,1)x(0,1,1) model . which is the most commonly used seasonal ARIMA model . Its forecasting equation is: where 952 1 is the MA(1) coefficient and 920 1 ( capital theta-1) is the SMA(1) coefficient. Notice that this is just the seasonal random trend model fancied-up by adding multiples of the errors at lags 1, 12, and 13. Also, notice that the coefficient of the lag-13 error is the product of the MA(1) and SMA(1) coefficients. This model is conceptually similar to the Winters model insofar as it effectively applies exponential smoothing to level, trend, and seasonality all at once, although it rests on more solid theoretical foundations, particularly with regard to calculating confidence intervals for long-term forecasts. Its residual plots in this case are as follows: Although a slight amount of autocorrelation remains at lag 12, the overall appearance of the plots is good. The model fitting results show that the estimated MA(1) and SMA(1) coefficients (obtained after 7 iterations) are indeed significant: The forecasts from the model resemble those of the seasonal random trend model--i. e. they pick up the seasonal pattern and the local trend at the end of the series--but they are slightly smoother in appearance since both the seasonal pattern and the trend are effectively being averaged (in a exponential-smoothing kind of way) over the last few seasons: What is this model really doing You can think of it in the following way. First it computes the difference between each month8217s value and an 8220exponentially weighted historical average8221 for that month that is computed by applying exponential smoothing to values that were observed in the same month in previous years, where the amount of smoothing is determined by the SMA(1) coefficient. Then it applies simple exponential smoothing to these differences in order to predict the deviation from the historical average that will be observed next month. The value of the SMA(1) coefficient near 1.0 suggests that many seasons of data are being used to calculate the historical average for a given month of the year. Recall that an MA(1) coefficient in an ARIMA(0,1,1) model corresponds to 1-minus-alpha in the corresponding exponential smoothing model, and that the average age of the data in an exponential smoothing model forecast is 1alpha. The SMA(1) coefficient has a similar interpretation with respect to averages across seasons. Here its value of 0.91 suggests that the average age of the data used for estimating the historical seasonal pattern is a little more than 10 years (nearly half the length of the data set), which means that an almost constant seasonal pattern is being assumed. The much smaller value of 0.5 for the MA(1) coefficient suggests that relatively little smoothing is being done to estimate the current deviation from the historical average for the same month, so next month8217s predicted deviation from its historical average will be close to the deviations from the historical average that were observed over the last few months. The ARIMA(1,0,0)x(0,1,0) model with constant: SRW model plus AR(1) term The previous model was a Seasonal Random Trend (SRT) model fine-tuned by the addition of MA(1) and SMA(1) coefficients. An alternative ARIMA model for this series can be obtained by substituting an AR(1) term for the nonseasonal difference--i. e. by adding an AR(1) term to the Seasonal Random Walk (SRW) model. This will allow us to preserve the seasonal pattern in the model while lowering the total amount of differencing, thereby increasing the stability of the trend projections if desired. (Recall that with one seasonal difference alone, the series did show a strong AR(1) signature.) If we do this, we obtain an ARIMA(1,0,0)x(0,1,0) model with constant, which yields the following results: The AR(1) coefficient is indeed highly significant, and the RMSE is only 2.06, compared to 3.00 for the SRW model (Model B in the comparison report above). The forecasting equation for this model is: The additional term on the right-hand-side is a multiple of the seasonal difference observed in the last month, which has the effect of correcting the forecast for the effect of an unusually good or bad year. Here 981 1 denotes the AR(1) coefficient, whose estimated value is 0.73. Thus, for example, if sales last month were X dollars ahead of sales one year earlier, then the quantity 0.73X would be added to the forecast for this month. 956 denotes the CONSTANT in the forecasting equation, whose estimated value is 0.20. The estimated MEAN, whose value is 0.75, is the mean value of the seasonally differenced series, which is the annual trend in the long-term forecasts of this model. The constant is (by definition) equal to the mean times 1 minus the AR(1) coefficient: 0.2 0.75(1 8211 0.73). The forecast plot shows that the model indeed does a better job than the SRW model of tracking cyclical changes (i. e. unusually good or bad years): However, the MSE for this model is still significantly larger than what we obtained for the ARIMA(0,1,1)x(0,1,1) model. If we look at the plots of residuals, we see room for improvement. The residuals still show some sign of cyclical variation: The ACF and PACF suggest the need for both MA(1) and SMA(1) coefficients: An improved version: ARIMA(1,0,1)x(0,1,1) with constant If we add the indicated MA(1) and SMA(1) terms to the preceding model, we obtain an ARIMA(1,0,1)x(0,1,1) model with constant, whose forecasting equation is This is nearly the same as the ARIMA(0,1,1)x(0,1,1) model except that it replaces the nonseasonal difference with an AR(1) term (a quotpartial differencequot) and it incorporates a constant term representing the long-term trend. Hence, this model assumes a more stable trend than the ARIMA(0,1,1)x(0,1,1) model, and that is the principal difference between them. The model-fitting results are as follows: Notice that the estimated AR(1) coefficient ( 981 1 in the model equation) is 0.96, which is very close to 1.0 but not so close as to suggest that it absolutely ought to be replaced with a first difference: its standard error is 0.02, so it is about 2 standard errors from 1.0. The other statistics of the model (the estimated MA(1) and SMA(1) coefficients and error statistics in the estimation and validation periods) are otherwise nearly identical to those of the ARIMA(0,1,1)x(0,1,1) model. (The estimated MA(1) and SMA(1) coefficients are 0.45 and 0.91 in this model vs. 0.48 and 0.91 in the other.) The estimated MEAN of 0.68 is the predicted long-term trend (average annual increase). This is essentially the same value that was obtained in the (1,0,0)x(0,1,0)-with-constant model. The standard error of the estimated mean is 0.26, so the difference between 0.75 and 0.68 is not significant. If the constant was not included in this model, it would be a damped-trend model: the trend in its very-long-term forecasts would gradually flatten out. The point forecasts from this model look quite similar to those of the (0,1,1)x(0,1,1) model, because the average trend is similar to the local trend at the end of the series. However, the confidence intervals for this model widen somewhat less rapidly because of its assumption that the trend is stable. Notice that the confidence limits for the two-year-ahead forecasts now stay within the horizontal grid lines at 24 and 44, whereas those of the (0,1,1)x(0,1,1) model did not: Seasonal ARIMA versus exponential smoothing and seasonal adjustment: Now lets compare the performance the two best ARIMA models against simple and linear exponential smoothing models accompanied by multiplicative seasonal adjustment, and the Winters model, as shown in the slides on forecasting with seasonal adjustment: The error statistics for the one-period-ahead forecasts for all the models are extremely close in this case. It is hard to pick a 8220winner8221 based on these numbers alone. Return to top of page. What are the tradeoffs among the various seasonal models The three models that use multiplicative seasonal adjustment deal with seasonality in an explicit fashion--i. e. seasonal indices are broken out as an explicit part of the model. The ARIMA models deal with seasonality in a more implicit manner--we cant easily see in the ARIMA output how the average December, say, differs from the average July. Depending on whether it is deemed important to isolate the seasonal pattern, this might be a factor in choosing among models. The ARIMA models have the advantage that, once they have been initialized, they have fewer quotmoving partsquot than the exponential smoothing and adjustment models and as such they may be less likely to overfit the data. ARIMA models also have a more solid underlying theory with respect to the calculation of confidence intervals for longer-horizon forecasts than do the other models. There are more dramatic differences among the models with respect to the behavior of their forecasts and confidence intervals for forecasts more than 1 period into the future. This is where the assumptions that are made with respect to changes in the trend and seasonal pattern are very important. Between the two ARIMA models, one (model A) estimates a time-varying trend, while the other (model B) incorporates a long-term average trend. (We could, if we desired, flatten out the long-term trend in model B by suppressing the constant term.) Among the exponential-smoothing-plus-adjustment models, one (model C) assumes a flat trend, while the other (model D) assumes a time-varying trend. The Winters model (E) also assumes a time-varying trend. Models that assume a constant trend are relatively more confident in their long-term forecasts than models that do not, and this will usually be reflected in the extent to which confidence intervals for forecasts get wider at longer forecast horizons. Models that do not assume time-varying trends generally have narrower confidence intervals for longer-horizon forecasts, but narrower is not better unless this assumption is correct. The two exponential smoothing models combined with seasonal adjustment assume that the seasonal pattern has remained constant over the 23 years in the data sample, while the other three models do not. Insofar as the seasonal pattern accounts for most of the month-to-month variation in the data, getting it right is important for forecasting what will happen several months into the future. If the seasonal pattern is believed to have changed slowly over time, another approach would be to just use a shorter data history for fitting the models that estimate fixed seasonal indices. For the record, here are the forecasts and 95 confidence limits for May 1995 (24 months ahead) that are produced by the five models: The point forecasts are actually surprisingly close to each other, relative to the widths of all the confidence intervals. The SES point forecast is the lowest, because it is the only model that does not assume an upward trend at the end of the series. The ARIMA (1,0,1)x(0,1,1)c model has the narrowest confidence limits, because it assumes less time-variation in the parameters than the other models. Also, its point forecast is slightly larger than those of the other models, because it is extrapolating a long-term trend rather than a short-term trend (or zero trend). The Winters model is the least stable of the models and its forecast therefore has the widest confidence limits, as was apparent in the detailed forecast plots for the models. And the forecasts and confidence limits of the ARIMA(0,1,1)x(0,1,1) model and those of the LESseasonal adjustment model are virtually identical To log or not to log Something that we have not yet done, but might have, is include a log transformation as part of the model. Seasonal ARIMA models are inherently additive models, so if we want to capture a multiplicative seasonal pattern . we must do so by logging the data prior to fitting the ARIMA model. (In Statgraphics, we would just have to specify quotNatural Logquot as a modeling option--no big deal.) In this case, the deflation transformation seems to have done a satisfactory job of stabilizing the amplitudes of the seasonal cycles, so there does not appear to be a compelling reason to add a log transformation as far as long term trends are concerned. If the residuals showed a marked increase in variance over time, we might decide otherwise. There is still a question of whether the errors of these models have a consistent variance across months of the year . If they don8217t, then confidence intervals for forecasts might tend to be too wide or too narrow according to the season. The residual-vs-time plots do not show an obvious problem in this regard, but to be thorough, it would be good to look at the error variance by month. If there is indeed a problem, a log transformation might fix it. Return to top of page.

Комментариев нет:

Отправить комментарий