Wednesday 22 November 2017

Acf En Movimiento Promedio


AR / ARMA MA, Acf - FAP visualizaciones Como se ha mencionado en el post anterior. He estado trabajando con Autoregresivo y movimiento simulaciones Promedio. Para probar la exactitud de las estimaciones de nuestras simulaciones, empleamos ACF (autocorrelación) y FAP (autocorrelación parcial) para nuestro uso. Por diferente orden de AR y MA, obtenemos las visualizaciones que varían con ellos, tales como: curvas exponenciales decrecientes. ondas sinusoidales amortiguadas. picos positivos y negativos, etc. Mientras que analizar y escribir pruebas para misma, también tuve un poco de tiempo para visualizar los datos en gráficos y ilne bar para conseguir una imagen más clara: AR (1) proceso AR (1) proceso es la simulación con autorregresivo orden p 1, es decir, con un valor de phi. (P) proceso ideal AR está representado por: Para simular esto, instale statsample-series de tiempo de aquí. Para ACF AR (p), ACF debe dar una onda sinusoidal de amortiguación. El patrón depende en gran medida del valor y el signo de los parámetros phi. Cuando el contenido positivo en coeficientes Phi es más, se obtiene una onda sinusoidal de partida desde el lado positivo, de lo contrario, onda sinusoidal se iniciará desde el lado negativo. Aviso, la amortiguación de onda sinusoidal a partir del lado positivo aquí: y el lado negativo aquí. FAP FAP da pico en el retardo 0 (valor de 1.0, por defecto) y debido al desfase de 1 a retrasarse k. El ejemplo anterior, cuenta con AR (2) proceso, para ello, hay que tener picos en el retardo 1 - 2 cuando: MA (1) MA proceso (1) proceso de simulación es la media móvil de orden q 1. es decir, con un valor de theta. Para simular esto, utilizar el método de Masim Statsample :: :: ARIMA ARIMA MA (q) Proceso ACF FAP ARMA (p, q) proceso ARMA (p, q) es una combinación de autorregresivo y moviendo simulaciones promedio. Cuando q 0. El proceso se denomina como proceso autorregresivo puro cuando p 0. El proceso es puramente media móvil. El simulador de ARMA se puede encontrar como armasim en Statsample :: :: ARIMA ARIMA. Para ARMA (1, 1) de proceso, aquí están las comparaciones de las visualizaciones de R y este código, que acaba de hacer mi día :) Saludos, - Ankur Goel Publicado por Ankur Goel 20 jul. 2013 Las publicaciones más recientes cuento de GitHub Reposa Correlograma En el análisis de datos, que suelen comenzar con las propiedades estadísticas descriptivas de los datos de la muestra (por ejemplo, media, desviación estándar, asimetría, curtosis, distribución empírica, etc.). Estos cálculos son ciertamente útiles, pero no tienen en cuenta el orden de las observaciones en los datos de la muestra. Tiempo demandas de análisis de series que prestar atención a la orden, y por lo tanto requiere un tipo diferente de estadísticos descriptivos: las estadísticas descriptivas de series de tiempo, o simplemente análisis correlogram. El análisis correlogram examina la dependencia espacio-temporal dentro de los datos de la muestra, y se centra en lo empírico de auto-covarianza, la auto-correlación, y las pruebas estadísticas relacionadas. Por último, el correlogram es una piedra angular para identificar el modelo y el modelo de pedido (s). Lo que hace un diagrama de autocorrelación (ACF) y / o auto-correlación parcial (FAP) nos dice acerca de la dinámica del proceso subyacentes Este tutorial es un poco más teórico que tutoriales anteriores de la misma serie, pero vamos a hacer todo lo posible para conducir el hogar intuiciones para usted. Antecedentes En primer lugar, así se inicia con una definición de la función de auto-correlación, simplificación de la misma, e investigar la ACF teórico para un tipo de proceso ARMA. función de auto-correlación (ACF) Por definición, la autocorrelación de retardo k se expresa de la siguiente manera: Utilizando la fórmula MA (q) la auto-correlación, podemos calcular la ARMA (p, q) las funciones de autocorrelación para su representación MA . Esto se está poniendo intensa Algunos de ustedes se estarán preguntando por qué nos has VAR usado o un espacio de estados para simplificar las notaciones. Hice un punto para mantenerse en el dominio del tiempo, y evitó cualquier nueva idea o trucos de matemáticas, ya que no servirían nuestras intenciones aquí: Dando a entender el orden AR / MA exacta utilizando los valores de ACF por sí mismos, que es cualquier cosa menos precisa. La intuición: Los valores de ACF pueden ser considerados como los valores de los coeficientes del modelo MA equivalente. La intuición: La varianza condicional no tiene barrera (efecto) en los cálculos de auto-correlación. La intuición: el largo plazo significa también no tiene ningún tipo de barrera (efecto) en las autocorrelaciones. Parcial función Auto-correlación (FAP) Por ahora, hemos visto que la identificación de la orden del modelo (MA o el AR) no es trivial para los casos que no son simples, por lo que necesitamos otra función de auto-correlación parcial herramienta (FAP). La función de autocorrelación parcial (FAP) juega un papel importante en el análisis de datos destinado a identificar la magnitud del retraso en un modelo autorregresivo. El uso de esta función se introdujo como parte del enfoque Box-Jenkins para el modelado de series de tiempo, con lo cual se podría determinar la apropiada retrasa p en un modelo AR (p) o en una (p, d, q) modelo extendido ARIMA trazando las funciones de correlación de auto parciales. En pocas palabras, el FAP de retardo k es el coeficiente de regresión para el término de orden k, como se muestra a continuación: El FAP que asume el modelo subyacente es un AR (k) y utiliza regresiones múltiples para calcular el coeficiente de regresión pasado. intuición rápida: los valores FAP pueden ser considerados (en términos generales) como los valores de los coeficientes del modelo AR equivalente. ¿Cómo es el FAP útil para nosotros Suponiendo que tenemos un proceso AR (p), entonces el FAP tendrán valores significativos para la primera p se queda, y se reducirá a cero después. ¿Qué pasa con el proceso de MA MA El proceso tiene valores distintos de cero para un FAP (teóricamente) número infinito de retardos. Ejemplo 4: MA (1) Identificar el número de términos AR o MA en un ARIMA modelo FAS y FAP parcelas: Después de una serie de tiempo se ha stationarized por diferenciación, el siguiente paso en el montaje de un modelo ARIMA es determinar si los términos AR o MA son necesarios para corregir cualquier autocorrelación que permanece en la serie diferenciada. Por supuesto, al igual que con el software Statgraphics, usted podría intentar algunas combinaciones diferentes de los Términos y ver lo que funciona mejor. Pero hay una manera más sistemática para hacer esto. Al observar la función de autocorrelación (ACF) y las parcelas de autocorrelación parcial (FAP) de la serie diferenciada, se puede identificar tentativamente el número de términos AR y / o MA que se necesitan. Que ya está familiarizado con la trama ACF: es simplemente un gráfico de barras de los coeficientes de correlación entre una serie de tiempo, estando muy por sí misma. La trama FAP es una gráfica de los coeficientes de correlación parcial entre la serie y se queda de por sí. En general, la correlación entre dos variables quotpartialquot es la cantidad de correlación entre ellos que no se explica por sus correlaciones mutuas con un conjunto determinado de otras variables. Por ejemplo, si estamos retrocediendo una variable Y en otra variables X1, X2, y X3, la correlación parcial entre Y y X3 es la cantidad de correlación entre Y y X3 que no se explica por sus correlaciones comunes con X1 y X2. Esta correlación parcial se puede calcular como la raíz cuadrada de la reducción de la varianza que se logra mediante la adición de X3 a la regresión de Y sobre X1 y X2. Un auto correlación parcial es la cantidad de correlación entre una variable y un retraso de por sí que no se explica por las correlaciones en todo - lags de orden inferior. La autocorrelación de una serie de tiempo Y en el retardo 1 es el coeficiente de correlación entre Y e Y t t - 1. que es de suponer también la correlación entre Y t -1 y -2 Y t. Pero si Yt se correlaciona con Y t-1. e Y t -1 igualmente correlacionada con Y t -2. entonces nosotros también debemos esperar encontrar correlación entre Y e Y t t-2. De hecho, la cantidad de correlación que debemos esperar en el retardo 2 es precisamente el cuadrado de la correlación de retardo-1. Por lo tanto, la correlación en el retardo 1 quotpropagatesquot se retrase 2 y es de suponer que de orden superior se retrasa. Por tanto, la correlación parcial en el retardo 2 es la diferencia entre la correlación real en el retardo 2 y la correlación esperada debido a la propagación de correlación en el retardo 1. Aquí está la función de autocorrelación (ACF) de la serie UNIDADES, antes de realizar cualquier diferenciación: las autocorrelaciones son importantes para un gran número de retardos - pero tal vez las autocorrelaciones en los retardos 2 y anteriormente son meramente debido a la propagación de la autocorrelación en el retraso 1. Esto se confirma por la trama FAP: tenga en cuenta que la trama FAP tiene una significativa pico solamente en el retardo 1, lo que significa que todas las autocorrelaciones de orden superior se explican de manera efectiva por la autocorrelación de retardo-1. Las autocorrelaciones parciales en todos los desfases pueden calcularse mediante el ajuste de una sucesión de modelos autorregresivos con los números de retardos cada vez mayor. En particular, la autocorrelación parcial en el retardo k es igual al coeficiente de AR estimada (k) en un modelo autorregresivo con términos k - es decir. un modelo de regresión múltiple en la que Y es retrocedido en GAL (Y, 1), LAG (Y, 2), etc., hasta LAG (Y, K). Por lo tanto, por la simple inspección de la FAP que se puede determinar el número de términos AR es necesario utilizar para explicar el patrón de autocorrelación en una serie de tiempo: si la correlación parcial es significativo en el retardo k y no significativos en cualquier orden superior se retrasa - es decir. si el FAP quotcuts offquot en el retardo k --¡entonces esto sugiere que usted debe tratar de ajustar un modelo autorregresivo de orden k El FAP de la serie UNIDADES ofrece un ejemplo extremo del fenómeno de corte: tiene un pico muy grande en el retardo 1 y no hay otros picos significativos, indicando que, en ausencia de diferenciación un AR (1) modelo debe ser utilizado. Sin embargo, la AR (1) término en este modelo va a llegar a ser equivalente a una primera diferencia, porque la AR estimado (1) coeficiente (que es la altura de la espiga FAP en el retardo 1) será casi exactamente igual a 1 . modelo Ahora, la ecuación de predicción para un AR (1) para una serie Y sin órdenes de diferenciación es: Si el AR (1) coeficiente de 981 1 en esta ecuación es igual a 1, es equivalente a la predicción de que la primera diferencia de Y es constante - es decir, es equivalente a la ecuación del modelo de paseo aleatorio con el crecimiento: El FAP de la serie UNIDADES nos está diciendo que, si nosotros no diferencia que, entonces deberíamos colocar una (1) modelo AR que llegar a ser equivalente a tomar una primera diferencia. En otras palabras, nos está diciendo que las unidades realmente necesita una orden de diferenciación para ser stationarized. firmas AR y MA: Si el FAP muestra un corte brusco mientras que el ACF decae más lentamente (es decir, tiene picos significativos en los retardos más altos), se dice que la serie stationarized muestra una firma quotAR, significado quot que el patrón de autocorrelación se explica con mayor facilidad mediante la adición de términos AR que mediante la adición de términos MA. Es probable que encuentre que una firma AR se asocia comúnmente con autocorrelación positiva en el retardo 1 - es decir. que tiende a surgir en serie que son ligeramente bajo diferenciada. La razón de esto es que un término AR puede actuar como un differencequot quotpartial en la ecuación de predicción. Por ejemplo, en una (1) modelo de AR, el término AR actúa como una primera diferencia si el coeficiente autorregresivo es igual a 1, no hace nada si el coeficiente autorregresivo es cero, y que actúa como una diferencia parcial si el coeficiente es de entre 0 y 1. Por lo tanto, si la serie está ligeramente underdifferenced - es decir, Si el patrón no estacionario de autocorrelación positiva por completo no se ha eliminado, se quotask forquot una diferencia parcial mostrando una firma AR. Por lo tanto, tenemos la siguiente regla general para determinar cuándo se debe añadir términos AR: Regla 6: Si el FAP de la serie diferenciada muestra un corte brusco y / o la autocorrelación de retardo-1 es --i. e positivo. si la serie aparece ligeramente quotunderdifferencedquot - a continuación, considerar la adición de un término AR al modelo. El retraso en el que la PACF corta es el número indicado de términos AR. En principio, cualquier patrón de autocorrelación puede ser retirado de una serie stationarized añadiendo suficientes términos autorregresivos (GAL de la serie stationarized) a la ecuación de predicción, y la FAP que le indica cómo es probable que se necesiten muchos de estos términos. Sin embargo, esto no siempre es la forma más sencilla de explicar un determinado patrón de autocorrelación: a veces es más eficiente para añadir términos MA (GAL de los errores de pronóstico) en su lugar. La función de autocorrelación (ACF) juega el mismo papel para los términos de MA que la FAP que juega en términos AR - es decir, la ACF se explica cómo es probable que sean necesarias para eliminar la autocorrelación que queda de la serie diferenciada muchos términos MA. Si la autocorrelación es significativo en el retardo k, pero no a cualquier retardos mayores - es decir. si el ACF quotcuts offquot en el retardo k-- esto indica que exactamente términos k MA deben ser usados ​​en la ecuación de predicción. En este último caso, se dice que la serie stationarized muestra una firma quotMA, quot lo que significa que el patrón de autocorrelación puede explicarse más fácilmente mediante la adición de términos MA que mediante la adición de términos AR. Una firma MA se asocia comúnmente con autocorrelación negativa en el retardo 1 - es decir. que tiende a surgir en serie que son ligeramente más diferenciada. La razón de esto es que un término MA puede cancelquot quotpartially un orden de diferenciación en la ecuación de predicción. Para ver esto, hay que recordar que un modelo ARIMA (0,1,1) sin constante es equivalente a un modelo de suavizado exponencial simple. La ecuación de predicción para este modelo es en el que el MA (1) Coeficiente de 952 1 corresponde a la cantidad desde 1 hasta 945 en el modelo de SES. Si 952 1 es igual a 1, esto corresponde a un modelo con SES 945 0, que es sólo un modelo constante debido a la previsión no se actualiza. Esto significa que cuando 952 1 es igual a 1, en realidad está cancelando a cabo la operación de diferenciación que permite normalmente pronostica que el SES para volver a anclarse en la última observación. Por otro lado, si el coeficiente de media móvil es igual a 0, este modelo reduce a un modelo de paseo aleatorio - es decir. que sale de la operación de diferenciación solo. Por lo tanto, si 952 1 es algo mayor que 0, es como si estamos cancelando parcialmente una orden de diferenciación. Si la serie ya es ligeramente más diferenciado - es decir. si autocorrelación negativa ha sido introducido - a continuación, se quotask forquot una diferencia que ser cancelado en parte mediante la visualización de una firma MA. (Mucha agitando los brazos está pasando aquí una explicación más rigurosa de este efecto se encuentra en la estructura matemática de ARIMA Modelos folleto.) Por lo tanto, la siguiente regla adicional de oro: Regla 7: Si el ACF de la serie diferenciada muestra una corte brusco y / o la autocorrelación de retardo-1 es --es decir, negativo si la serie aparece ligeramente quotoverdifferencedquot - a continuación, considerar la adición de un término MA al modelo. El retraso en el que el ACF corta es el número indicado de términos MA. Un modelo para la serie UNIDADES - ARIMA (2,1,0): Anteriormente hemos determinado que la serie de unidades necesarias (al menos) un orden de diferenciación no estacional que se stationarized. Después de tomar una diferencia no estacional - es decir. el montaje de un modelo ARIMA (0,1,0) con constante - las parcelas FAS y FAP tienen el siguiente aspecto: Nótese que (a) la correlación en el retardo 1 es significativa y positiva, y (b) en las FAP muestra una quotcutoffquot cortante que la ACF. En particular, el FAP tiene sólo dos picos significativos, mientras que el ACF tiene cuatro. Por lo tanto, de acuerdo con la Regla 7 anterior, la serie diferenciada muestra una (2) la firma AR. Por tanto, si nos fijamos el fin del término AR a 2 - es decir. ajustar un modelo ARIMA (2,1,0) modelo - se obtienen las siguientes parcelas FAS y FAP para los residuos: La autocorrelación en los retardos cruciales - a saber, desfases 1 y 2 - ha sido eliminado, y no hay un patrón discernible en orden superior se retrasa. El gráfico de series temporales de los residuos muestra una ligera tendencia preocupante a vagar lejos de la media: Sin embargo, el informe resumen del análisis demuestra que el modelo, sin embargo, tiene muy buenos resultados en el período de validación, tanto los coeficientes AR son significativamente diferentes de cero, y la norma desviación de los residuos se ha reducido desde 1,54371 hasta 1,4215 (casi 10) mediante la adición de los términos AR. Por otra parte, no hay ninguna señal de un rootquot quotunit porque la suma de los coeficientes AR (0.2522540.195572) no está cerca de 1. (Raíces unitarias se discuten en más detalle a continuación.) En general, esto parece ser un buen modelo . Las previsiones (no transformadas) para el modelo muestran una tendencia al alza lineal proyectado hacia el futuro: La tendencia en los pronósticos a largo plazo se debe al hecho de que el modelo incluye una diferencia no estacional y un término constante: este modelo es básicamente un paseo aleatorio con puso a punto el crecimiento mediante la adición de dos términos autorregresivos - es decir, dos rezagos de la serie diferenciada. La pendiente de las previsiones a largo plazo (es decir, el incremento medio de un período a otro) es igual al término medio en el resumen del modelo (0,467566). La ecuación de predicción es: donde 956 es el término constante en el resumen del modelo (0,258178), 1 es el 981 AR (1) coeficiente (0,25224) y 981 2 es la (2) Coeficiente de AR (0,195572). Media con respecto al constante: En general, el término quotmeanquot en la salida de un modelo ARIMA se refiere a la media de la serie diferenciada (es decir, la tendencia media si el orden de diferenciación es igual a 1), mientras que el quotconstantquot es el término constante que aparece en la mano del lado derecho de la ecuación de predicción. Los términos de medias y constantes están relacionadas por la ecuación: media constante (1 menos la suma de los coeficientes AR). En este caso, tenemos 0.258178 0.467566 (1 - 0.25224 - 0,195572) modelo alternativo para la serie UNIDADES - ARIMA (0,2,1): Recuerdo que cuando comenzamos a analizar la serie UNIDADES, no estábamos del todo seguro de la orden correcto de diferenciación de usar. Un orden de diferenciación no estacional produjo la desviación estándar más bajo (y un patrón de autocorrelación positiva leve), mientras que dos órdenes de diferenciación no estacional produjeron un gráfico de series temporales de aspecto más parado (pero con bastante fuerte autocorrelación negativa). Aquí están las FAS y FAP de la serie con dos diferencias no estacionales: El pico negativo sola en el retardo 1 en el ACF es un MA (1) la firma, de acuerdo con el artículo 8 anterior. Por lo tanto, si tuviéramos que utilizar 2 diferencias no estacionales, tendríamos también queremos incluir un (1) MA plazo, produciendo un modelo ARIMA (0,2,1). De acuerdo con la Regla 5, también nos quieren suprimir el término constante. Aquí, entonces, son los resultados de montaje de un modelo ARIMA (0,2,1) sin constante: Nótese que la desviación estándar del ruido blanco estimada (ECM) es sólo muy ligeramente más alto para este modelo que el anterior (1.46301 1.45215 aquí frente previamente). La ecuación de predicción para este modelo es: donde theta-1 es la (1) Coeficiente de MA. Recordemos que esto es similar a un modelo lineal de suavizado exponencial, con la (1) Coeficiente de MA correspondiente a la cantidad 2 (1-alfa) en el modelo de LES. El MA (1) Coeficiente de 0,76 en este modelo sugiere que un modelo de LES con alfa en el entorno de 0,72 encajaría igual de bien. En realidad, cuando un modelo de LES se ajustó a los mismos datos, el valor óptimo de la alfa resulta ser alrededor de 0,61, lo que no está demasiado lejos. Aquí es un informe de comparación de modelo que muestra los resultados de montar el ARIMA (2,1,0) modelo con constante, el modelo ARIMA (0,2,1) sin constante, y el modelo de LES: Los tres modelos realizan casi idéntica en el período de estimación, y la ARIMA (2,1,0) modelo con constante aparece ligeramente mejor que los otros dos en el período de validación. Sobre la base de estos resultados estadísticos solos, sería difícil elegir entre los tres modelos. Sin embargo, si trazamos las previsiones a largo plazo realizadas por el modelo ARIMA (0,2,1) sin constante (que son esencialmente los mismos que los del modelo LES), se observa una diferencia significativa de las del modelo anterior: las previsiones tienen algo menos de una tendencia al alza de las del modelo anterior - porque la tendencia local cerca del final de la serie es ligeramente menor que la tendencia promedio sobre toda la serie - pero los intervalos de confianza a ampliar mucho más rápidamente. El modelo con dos órdenes de diferenciación asume que la tendencia de la serie es variable en el tiempo, por lo que considera un futuro lejano para ser mucho más incierto que hace el modelo con sólo una orden de diferenciación. ¿Qué modelo deberíamos elegir Eso depende de los supuestos que están haciendo cómodo con respecto a la constancia de la tendencia de los datos. El modelo con una sola orden de diferenciación asume una tendencia constante de media - es esencialmente un modelo de camino aleatorio afinado con el crecimiento - y por lo tanto hace que las proyecciones de tendencias relativamente conservadoras. También es bastante optimista acerca de la exactitud con la que se puede prever más de un período que se avecina. El modelo con dos órdenes de diferenciación asume una tendencia local, variable en el tiempo - es esencialmente un modelo de suavizado exponencial lineal - y sus proyecciones de tendencias son algo más más voluble. Como norma general, en este tipo de situación, recomendaría elegir el modelo con el fin inferior de diferenciación, otras cosas siendo más o menos igual. En la práctica, los modelos-simples-suavizado exponencial del paseo aleatorio o a menudo parecen funcionar mejor que los modelos de suavizado exponencial lineales. Los modelos mixtos: En la mayoría de los casos, el mejor modelo resulta un modelo que utiliza ya sea solo o términos AR únicos términos MA, aunque en algunos casos un modelo quotmixedquot con ambos términos AR y MA puede proporcionar el mejor ajuste a los datos. Sin embargo, se debe tener cuidado durante el montaje de los modelos mixtos. Es posible que un término AR y un término MA a anularse entre otros efectos. a pesar de que ambos pueden aparecer significativo en el modelo (a juzgar por las estadísticas t de sus coeficientes). Así, por ejemplo, supongamos que el modelo quotcorrectquot para una serie de tiempo es un modelo ARIMA (0,1,1), pero en cambio se quiere ajustar un modelo ARIMA (1,1,2) - es decir. se incluye un término adicional de AR y un término MA adicional. A continuación, los términos adicionales pueden acabar apareciendo significativo en el modelo, pero internamente se pueden simplemente trabajar el uno contra el otro. Las estimaciones de los parámetros resultantes pueden ser ambiguas, y el proceso de estimación de parámetros pueden tomar muchas (por ejemplo, más de 10) iteraciones para converger. Por lo tanto: Regla 8: Es posible que un término AR y un término MA para cancelar cada otros efectos, por lo que si un modelo AR-MA mixta parece ajustarse a los datos, también tratan de un modelo con uno menos a término AR y uno menos término MA --en especial si las estimaciones de los parámetros en el modelo original requieren más de 10 iteraciones para converger. Por esta razón, los modelos ARIMA no pueden ser identificados por el enfoque stepwisequot quotbackward que incluye ambos términos AR y MA. En otras palabras, no se puede iniciar mediante la inclusión de varios términos de cada clase y luego tirar aquellos cuyos coeficientes estimados no son significativos. En su lugar, normalmente se sigue un enfoque quotforward stepwisequot, añadiendo términos de un tipo u otro, como se indica por la aparición de las parcelas FAS y FAP. raíces unitarias: Si una serie es manifiestamente insuficiente o overdifferenced - es decir. si todo un orden de diferenciación necesita ser añadido o cancelado, esto es a menudo señalado por una rootquot quotunit en el AR estimado o coeficientes MA del modelo. Un AR (1) modelo se dice que tiene una raíz unitaria si el AR estimado (1) coeficiente es casi exactamente igual a 1. (Por quotexactly igual quot Realmente no quiero decir significativamente diferente de. En términos de los coeficientes propio error estándar. ) Cuando esto ocurre, significa que la AR (1) término está imitando precisamente una primera diferencia, en cuyo caso se debe quitar la AR (1) plazo y añadir una orden de diferenciación en su lugar. (Esto es exactamente lo que sucedería si empotrados un AR (1) modelo de la serie UNIDADES Undifferenced, como se señaló anteriormente.) En un modelo AR de orden superior, existe una raíz unitaria en la parte AR del modelo si la suma de los coeficientes AR es exactamente igual a 1. En este caso se debe reducir el orden del término AR en 1 y añadir una orden de diferenciación. Una serie de tiempo con una raíz unitaria en los coeficientes AR es --i. e no estacionario. que necesita un orden superior de diferenciación. Regla 9: Si hay una raíz unitaria en la parte del modelo AR - es decir. si la suma de los coeficientes de AR es casi exactamente 1 - se debe reducir el número de términos AR por uno y aumentar el orden de diferenciación por uno. Del mismo modo, se dice que un MA (1) modelo de tener una raíz unitaria si el MA estimado (1) coeficiente es exactamente igual a 1. Cuando esto sucede, significa que el MA (1) término está cancelando exactamente una primera diferencia, en cuyo caso, debe quitar el MA (1) plazo y también reducir el orden de diferenciación por uno. En un modelo MA de orden superior, existe una raíz unitaria si la suma de los coeficientes MA es exactamente igual a 1. Regla 10: Si hay una raíz unitaria en la parte MA del modelo - es decir. si la suma de los coeficientes MA es casi exactamente 1 - usted debe reducir el número de términos MA por uno y reducir el orden de diferenciación por uno. Por ejemplo, si encaja en un modelo de suavizado exponencial lineal (ARIMA (0,2,2) modelo) cuando un simple modelo de suavizado exponencial (una (0,1,1) modelo ARIMA) habría sido suficiente, es posible que la suma de los dos coeficientes MA es casi igual a 1. al reducir el fin de MA y el orden de diferenciación por uno cada uno, se puede obtener el modelo más apropiado SES. Un modelo de pronóstico con una raíz unitaria en los coeficientes estimados MA se dice que es no invertible. lo que significa que los residuos del modelo no pueden ser considerados como estimaciones de ruido aleatorio quottruequot que generó la serie temporal. Otro síntoma de una raíz unitaria es que las predicciones del modelo pueden quotblow upquot o de otra forma actuar de manera extraña. Si el gráfico de series temporales de los pronósticos a más largo plazo del modelo tiene un aspecto extraño, debe comprobar los coeficientes estimados de su modelo para determinar la presencia de una raíz unitaria. Regla 11: Si las previsiones a largo plazo parecen irregular o inestable, puede haber una raíz unitaria en la AR o coeficientes MA. Ninguno de estos problemas surgió con los dos modelos ajustados aquí, porque fuimos cuidadosos para comenzar con las órdenes de diferenciación y plausibles de un número adecuado de coeficientes AR y MA mediante el estudio de los modelos FAS y FAP. discusiones más detalladas de raíces unitarias y los efectos de cancelación entre los términos AR y MA se pueden encontrar en la estructura matemática de los modelos ARIMA handout.2.1 Moving Modelos Promedio (modelos MA) modelos de series temporales conocidos como modelos ARIMA pueden incluir términos autorregresivos y / o media móvil condiciones. En la Semana 1, aprendimos un término autorregresivo en un modelo de series de tiempo para la variable x t es un valor rezagado de x t. Por ejemplo, un retraso de 1 x término autorregresivo es t-1 (multiplicado por un coeficiente). Esta lección define términos de medias móviles. Un término promedio móvil en un modelo de series de tiempo es un error pasado (multiplicado por un coeficiente). Sea (en peso desbordado N (0, sigma2w)), lo que significa que el w t son de forma idéntica, distribuido de forma independiente, cada uno con una distribución normal con media 0 y la misma varianza. El 1º orden moviendo modelo de media, denotado por MA (1) es (xt theta1w mu peso) El orden 2º movimiento modelo de media, denotado por MA (2) es (mu xt peso theta1w theta2w) El q º orden moviendo modelo de media , denotado por MA (q) es (mu xt wt theta1w theta2w puntos thetaqw) Nota. Muchos libros de texto y programas de software definen el modelo con signos negativos antes de los términos. Esto no cambia las propiedades teóricas generales del modelo, aunque no voltear los signos algebraicos de valores de los coeficientes estimados y los términos (unsquared) en las fórmulas para FCA y varianzas. Es necesario comprobar su software para verificar si los signos negativos o positivos se han utilizado con el fin de escribir correctamente el modelo estimado. R utiliza señales positivas en su modelo subyacente, como lo hacemos aquí. Propiedades teóricas de una serie de tiempo con un MA (1) Nota Modelo que el único valor distinto de cero en el ACF teórico es de retardo 1. Todos los demás autocorrelaciones son 0. Así, un ACF muestra con una autocorrelación significativa sólo en el retardo 1 es un indicador de un posible MA (1) modelo. Para los estudiantes interesados, pruebas de estas propiedades son un apéndice de este folleto. Ejemplo 1 Supongamos que un MA (1) modelo es x t 10 w w t 0,7 t-1. donde (en peso desbordado N (0,1)). Por lo tanto el coeficiente 1 0.7. El ACF teórico está dado por una trama de esta sigue ACF. La trama se acaba de mostrar es la ACF teórico para un MA (1) con 1 0.7. En la práctica, una muestra de costumbre suelen proporcionar un patrón tan claro. El uso de R, simulamos n 100 valores de las muestras utilizando el modelo x 10 w t t t 0,7 W-1 donde w t iid N (0,1). Para esta simulación, un gráfico de series temporales de datos de la muestra de la siguiente manera. No podemos decir mucho de esta trama. El ACF de la muestra para la simulación de datos sigue. Vemos un aumento en el retardo 1 seguido por valores generalmente no significativos para retardos pasado 1. Tenga en cuenta que la muestra ACF no coincide con el patrón teórico de la MA subyacente (1), que es que todas las autocorrelaciones para los retrasos del pasado 1 estarán 0 . una muestra tendría un ACF muestra ligeramente diferente se muestra a continuación, pero probablemente tendría las mismas características generales. Theroretical Propiedades de una serie temporal con un modelo MA (2) Para el (2) Modelo MA, propiedades teóricas son las siguientes: Tenga en cuenta que los únicos valores no nulos en la ACF teórica son los GAL 1 y 2. Autocorrelaciones para retardos más altos son 0 . por lo tanto, una muestra con ACF autocorrelaciones significativas en los retardos 1 y 2, pero autocorrelaciones no significativos para retardos más alto indica una posible MA (2) del modelo. iid N (0,1). Los coeficientes son 1 0,5 y 2 0.3. Debido a que este es un MA (2), el ACF teórica tendrá valores distintos de cero solamente en los retardos 1 y 2. Los valores de los dos autocorrelaciones son distintos de cero Una trama de la ACF teórico sigue. Como casi siempre es el caso, datos de la muestra suele comportarse tan perfectamente como teoría. Hemos simulado n 150 valores de la muestra para el modelo x 10 w t t t-0,5 W 0,3 W 1 T-2. donde w t iid N (0,1). El gráfico de series temporales de datos de la siguiente manera. Al igual que con el gráfico de series temporales de los (1) datos de las muestras MA, usted no puede decir mucho de ella. El ACF de la muestra para la simulación de datos sigue. El patrón es típico para situaciones en las que una (2) modelo de MA puede ser útil. Hay dos picos estadísticamente significativas en los retardos 1 y 2, seguido por los valores no significativos para otros retardos. Tenga en cuenta que debido a un error de muestreo, el ACF muestra no coincide con el patrón teórico exactamente. ACF para el general MA (q) Modelos Una característica de los modelos MA (q), en general, es que hay autocorrelaciones distintos de cero para los primeros retardos q autocorrelaciones y 0 para todos los GAL gt q. No unicidad de la conexión entre los valores de 1 y (Rho1) en MA (1) Modelo. En el MA (1) modelo, para cualquier valor de 1. el recíproco 1/1 da el mismo valor para A modo de ejemplo, utilizar 0,5 por 1. y luego usar 1 / (0,5) 2 por 1. Usted conseguirá (Rho1) 0,4 en ambos casos. Para satisfacer una restricción teórica llamada invertibilidad. que restringir MA (1) modelos de tener valores con valor absoluto menor que 1. En el ejemplo dado, 1 0,5 habrá un valor de parámetro permisible, mientras que 1 1 / 0.5 2 no lo hará. Invertibilidad de modelos Un modelo MA MA se dice que es invertible si es algebraicamente equivalente a un modelo AR orden infinito convergentes. Al converger, nos referimos a que los coeficientes AR disminuyen a 0 a medida que avanzamos en el tiempo. Invertibilidad es una restricción de software programado en series de tiempo utilizado para estimar los coeficientes de los modelos con los términos MA. No es algo que comprobamos en el análisis de datos. Información adicional acerca de la restricción invertibilidad de MA (1) modelos se da en el apéndice. Teoría avanzada Nota. Para un modelo MA (q) con un ACF especificado, sólo hay un modelo invertible. La condición necesaria para invertibilidad es que los coeficientes tienen valores tales que la ecuación 1- 1 y-. - Q y q 0 tiene soluciones para y que están fuera del círculo unitario. R Código de los ejemplos en el Ejemplo 1, que representa el ACF teórica del modelo x 10 w t t. 7w t-1. y luego simulado n 150 valores de este modelo y se representó la serie temporal de la muestra y la ACF muestra para los datos simulados. Los comandos R utilizan para trazar el ACF teórico fueron: acfma1ARMAacf (mac (0,7), lag. max10) 10 rezagos de ACF para MA (1) con 0,7 theta1 lags0: 10 crea una variable llamada desfases que va de 0 a 10. parcela (retardos, acfma1, xlimc (1,10), ylabr, Type H, principal ACF para MA (1) con theta1 0,7) abline (H0) agrega un eje horizontal de la gráfica el primer comando determina la ACF y lo almacena en un objeto acfma1 llamado (nuestra elección del nombre). El comando plot (los comandos 3º) parcelas se retrasa en comparación con los valores de ACF para desfases del 1 al 10. Cuando las etiquetas El parámetro ylab el eje Y y el parámetro principal pone un título en la parcela. Para ver los valores numéricos de la ACF sólo tiene que utilizar el comando acfma1. La simulación y las parcelas se realizaron con los siguientes comandos. xcarima. sim (n150, lista (mac (0,7))) Simula n 150 valores de MA (1) xxc10 añade 10 para hacer medias por defecto 10. Simulación en el sentido de 0. plot (x, TypeB, mainSimulated MA (1) datos) ACF (x, xlimc (1,10), mainACF para datos de muestras simuladas) En el Ejemplo 2, se representa gráficamente la ACF teórica del modelo XT 10 en peso de 0,5 w t-1 0,3 w T-2. y luego simulado n 150 valores de este modelo y se representó la serie temporal de la muestra y la ACF muestra para los datos simulados. Los comandos R utilizados fueron acfma2ARMAacf (mac (0.5,0.3), lag. max10) acfma2 lags0: 10 parcela (GAL, acfma2, xlimc (1,10), ylabr, Type H, principal ACF para MA (2) con theta1 0,5, theta20.3) abline (H0) xcarima. sim (n150, lista (mac (0,5, 0,3))) xxc10 plot (x, TypeB, principal simulada MA (2) Serie) ACF (x, xlimc (1,10), mainACF para MA simulada (2) datos) Apéndice: Prueba de propiedades de MA (1) para los estudiantes interesados, aquí están las pruebas de las propiedades teóricas de la (1) modelo MA. Diferencia: (texto (xt) w texto (mu theta1 en peso) 0 texto (en peso) de texto (theta1w) sigma2w theta21sigma2w (1theta21) sigma2w) Cuando h 1, la expresión anterior 1 w 2. Para cualquier h 2, la expresión anterior 0 . la razón es que, por definición de independencia del peso. E (k w w j) 0 para cualquier k j. Además, como la w t tiene media 0, E (w w j j) E (w j 2) w 2. Por una serie de tiempo, aplicar este resultado para obtener el ACF dado anteriormente. Un modelo MA invertible es uno que puede ser escrito como un modelo AR orden infinito que converge de manera que los coeficientes AR convergen a 0 a medida que avanzamos infinitamente en el tiempo. Bien demostrar invertibilidad para el (1) modelo de MA. Tenemos entonces sustituto de la relación (2) A la hora de w t-1 en la ecuación (1) (3) (ZT en peso theta1 (z - theta1w) en peso theta1z - theta2w) t-2. la ecuación (2) se convierte en A continuación, sustituir relación (4) para W t-2 en la ecuación (3) (ZT en peso theta1 z - theta21w peso theta1z - theta21 (z - theta1w) en peso theta1z - theta12z theta31w) Si tuviéramos que continuar ( infinitamente), obtendríamos el modelo AR orden infinito (ZT en peso theta1 z - theta21z theta31z - theta41z puntos) Obsérvese, sin embargo, que si 1 1, los coeficientes multiplicadores de los retardos z aumentará (infinitamente) de tamaño a medida que avanzamos en la espalda hora. Para evitar esto, necesitamos 1 LT1. Esta es la condición para un MA (1) modelo invertible. Modelo de la orden infinito MA En la semana 3, así que ver un AR (1) modelo puede ser convertido en un modelo de orden infinito MA: (xt - mu peso phi1w phi21w puntos phik1 w puntos resumen phij1w) Esta suma de términos de ruido blanco es conocido últimos como la representación causal de un AR (1). En otras palabras, x t es un tipo especial de MA con un número infinito de términos que se remontan en el tiempo. Esto se llama una orden infinito MA o MA (). Una orden MA finito es un AR orden infinito y cualquier orden de AR finito es un MA orden infinito. Recordemos en la semana 1, se observó que la exigencia de un AR estacionario (1) es que 1 LT1. Permite calcular el Var (x t) utilizando la representación causal. Este último paso se utiliza un hecho básico acerca serie geométrica que requiere (phi1lt1) diverge de lo contrario las series. NavigationLecture 9mdashTuesday 9 de febrero de 2010 Esquema de la conferencia El problema de los datos correlacionados bien pasar las próximas tres semanas discutir métodos para el manejo de datos correlacionados. Nos centramos en tres enfoques distintos. mínimos cuadrados generalizados (GLS). Esta es una generalización de los mínimos cuadrados ordinarios en la que cuenta de forma explícita para la correlación de datos. Para que funcione necesitamos tener suficientes datos para poder estimar con precisión las correlaciones. Por esta razón mínimos cuadrados generalizados es especialmente adecuado para los datos temporales que consisten en series de tiempo largo. Debido a sus mínimos cuadrados, es más apropiado cuando la variable de respuesta se puede suponer que se distribuye normalmente. Los modelos de efectos mixtos. Este es un enfoque general y es especialmente apropiado cuando la presencia de correlación es obvio, pero la forma exacta de la correlación no es. Hablando en términos generales a menudo se utiliza un modelo de efectos mixtos si es sintieron que hacer algo, incluso si su crudo, es mejor que no hacer nada en absoluto. Con efectos temporales de datos mezclados modelos son especialmente adecuados para series de tiempo corto, donde tampoco hay datos suficientes para determinar con precisión la naturaleza exacta de la estructura de correlación. Un problema serio con los modelos de efectos mixtos es que para las variables de respuesta no normales, datos binarios sobre todo con un enlace logit, su interpretación es problemática y contrario a la intuición. ecuaciones de estimación generalizadas (GEE). GEE se puede considerar análogo a GLS para las respuestas no normales. Se supone que las observaciones vienen en grupos tales que las observaciones de la misma agrupación están correlacionados pero las observaciones de diferentes grupos no lo son. Como es el caso con GLS en GEE la correlación se modela de forma explícita. Esta lista deja fuera a una gran cantidad de otros enfoques más especializados, en particular aquellos para tratar con tipos específicos de correlación espacial. Los ejemplos incluyen CAR (autorregresiva condicional) y SAR (autorregresivo simultánea) modelos que son casos complicados modelos de efectos mixtos cuando las observaciones tienen una estructura de vecindad identificable. Estos se manejan mejor, tanto desde una perspectiva bayesiana. ¿Por qué no puede ignoramos correlación de los datos Si estamos tomando una perspectiva de probabilidad, la probabilidad que hemos estado formulando está mal si los datos están realmente correlacionados. En el caso discreto la probabilidad de que nuestros datos mediante un modelo determinado es la probabilidad conjunta de obtener nuestros datos bajo el modelo dado. Ahora bien, si x 1. x 2. x n son una muestra aleatoria entonces las observaciones son independientes y su probabilidad conjunta se pueden escribir como un producto de sus distribuciones marginales idénticas. De acuerdo con el diario de probabilidad es la suma de las probabilidades de registro individuales. Este es el escenario que hemos asumido con el fin de obtener las estimaciones de los parámetros de los modelos lineales generalizados. Si los datos no son independientes, entonces el factorización anterior es válido. Como resultado, la probabilidad y la AIC se equivocan, los resultados de la selección del modelo pueden ser incorrectas, y las estimaciones de los parámetros y sus errores estándar pueden verse afectadas. Si utilizamos mínimos cuadrados para estimar el modelo y, normalmente, hemos distribuido la respuesta, a continuación, las estimaciones de los parámetros que obtenemos seguirán siendo correcta, pero las pruebas de significación reportados para estos parámetros serán incorrectos. Este razones para esto son las siguientes. Los errores estándar reportados serán demasiado pequeños (en el supuesto de que las observaciones están positivamente correlatedmdashthe caso habitual para los datos temporalmente correlacionados). De este modo podemos obtener resultados significativos cuando no debería. El tamaño de la muestra se infla. Si tenemos una muestra aleatoria con n 100, entonces tenemos 100 bits distintos de información. Si por el contrario se correlacionan los datos de nuestra muestra a continuación, desde una perspectiva de información teórica parte de la información es redundante y que realmente tienen menos de 100 bits de información. Así, la muestra real es n lt 100. Esto a su vez afecta a los errores estándar y los grados de libertad para nuestras pruebas. Vale la pena señalar que la mayoría de los conjuntos de datos ecológicos poseen extensión espacial y / o temporal y por lo tanto estará en proporción con algún grado. Cuando asumimos la independencia en la formulación de la probabilidad, la independencia está condicionada a los valores de los parámetros del modelo. En un modelo de regresión estimaciones de los parámetros son funciones de los predictores modelo. En consecuencia, si los predictores en el modelo también varían tanto espacial como temporalmente, esperamos que al menos algunos, si no todos de la correlación de la variable de respuesta se explica por el modelo de regresión. Teniendo en cuenta este nuestro enfoque aquí será lo siguiente. Después de montar el mejor modelo de regresión que podamos, lo que deberíamos hacer al respecto ninguna correlación persistente que permanece en la variable de respuesta Las características especiales de los datos temporales de introducir métodos para tratar con datos correlacionados nos centraremos en los datos temporales ya que los datos temporales son los más fáciles de modelo. correlación temporal es unidimensional y unidireccional. Higo. Higo. Higo. Higo. Higo. Higo. Higo.

No comments:

Post a Comment