Tuesday, November 29, 2016

Autorregresivos Integrados De Media Móvil Spss

Un RIMA significa autorregresivos integrados en movimiento modelos Promedio. Univariado (solo vector) ARIMA es una técnica de predicción que proyecta los valores futuros de una serie basada enteramente en su propia inercia. Su principal aplicación es en el área de predicción a corto plazo que requiere un mínimo de 40 puntos de datos históricos. Funciona mejor cuando sus datos exhibe un patrón estable o constante en el tiempo con una cantidad mínima de valores atípicos. A veces llamado Box-Jenkins (después de que los autores originales), ARIMA es generalmente superior a técnicas de suavizado exponencial cuando los datos son razonablemente largo y la correlación entre las observaciones anteriores es estable. Si los datos son de corto o muy volátiles, y luego algún método de alisado puede funcionar mejor. Si usted no tiene al menos 38 puntos de datos, se debe considerar otro método que no ARIMA. El primer paso en la aplicación de la metodología ARIMA es para comprobar si hay estacionariedad. Estacionariedad implica que la serie se mantiene en un nivel bastante constante en el tiempo. Si existe una tendencia, como en la mayoría de las aplicaciones económicas o de negocios, a continuación, sus datos no es estacionaria. Los datos también debe mostrar una varianza constante en sus fluctuaciones en el tiempo. Esto se ve fácilmente con una serie que es muy estacional y crece a un ritmo más rápido. En tal caso, las subidas y bajadas en la estacionalidad se harán más dramática en el tiempo. Sin estas condiciones de estacionariedad se cumplen, muchos de los cálculos asociados con el proceso no se puede calcular. Si una representación gráfica de los datos indica no estacionariedad, entonces debería diferencia de la serie. La diferenciación es una excelente manera de transformar una serie no estacionaria a uno estacionario. Esto se realiza restando la observación en el periodo actual de la anterior. Si esta transformación se realiza sólo una vez para una serie, se dice que los datos han sido primera diferenciados. Este proceso elimina esencialmente la tendencia si la serie está creciendo a un ritmo bastante constante. Si está creciendo a un ritmo creciente, se puede aplicar el mismo procedimiento y la diferencia de los datos de nuevo. Sus datos serían entonces segundo diferenciada. Autocorrelaciones son valores numéricos que indican cómo una serie de datos está relacionado con sí mismo en el tiempo. Más precisamente, se mide la fuerza con los valores de datos en un número especificado de periodos aparte se correlacionan entre sí en el tiempo. El número de períodos separados generalmente se llama el retraso. Por ejemplo, una autocorrelación en medidas de retardo 1 cómo valora 1 periodo aparte están correlacionados entre sí a lo largo de la serie. Una autocorrelación en el retraso de 2 medidas de cómo los datos de dos períodos separados están correlacionadas en toda la serie. Autocorrelaciones pueden variar 1--1. Un valor cercano a 1 indica una correlación positiva alta, mientras que un valor cercano a -1 indica una correlación negativa alta. Estas medidas son más a menudo evaluados a través de representaciones gráficas llamadas correlagrams. Un correlagram representa los valores de autocorrelación para una serie dada en diferentes retardos. Esto se conoce como la función de autocorrelación y es muy importante en el método ARIMA. metodología ARIMA intenta describir los movimientos de una serie de tiempo estacionaria en función de lo que se denomina autorregresivo y moviendo parámetros medios. Estos se conocen como parámetros AR (autoregessive) y los parámetros MA (promedios móviles). Un modelo AR con sólo 1 de parámetros se puede escribir como. X (t) Un (1) X (t-1) E (t) en la que X (t) de series de tiempo bajo investigación Un (1) el parámetro autorregresivo de orden 1 X (t-1) las series de tiempo se retrasó 1 periodo E (t) el término de error del modelo Esto simplemente significa que cualquier valor dado de X (t) puede explicarse por alguna función de su valor anterior, X (t-1), además de algunos errores aleatorios inexplicable, E (t). Si el valor estimado de A (1) fue 0,30, entonces el valor actual de la serie estaría relacionado con 30 de su valor hace 1 período. Por supuesto, la serie podría estar relacionado con más de un valor pasado. Por ejemplo, X (t) A (1) X (t-1) A (2) X (t-2) E (t) Esto indica que el valor actual de la serie es una combinación de los dos valores inmediatamente anteriores, X (t-1) y X (t-2), además de algunos al azar de error e (t). Nuestro modelo es ahora un modelo autorregresivo de orden 2. Mover Modelos Promedio: Un segundo tipo de modelo de Box-Jenkins se llama un modelo de media móvil. Aunque estos modelos son muy similares al modelo AR, el concepto detrás de ellos es muy diferente. Móviles parámetros medios relacionan lo que ocurre en el período t sólo a los errores aleatorios que ocurrieron en periodos pasados, es decir, E (t-1), E (t-2), etc en lugar de X (t-1), X ( t-2), (Xt-3) como en los enfoques autorregresivos. Un modelo de media móvil con un término MA se puede escribir de la siguiente manera. X (t) - B (1) E (t-1) E (t) El término B (1) se llama un MA de orden 1. El signo negativo delante del parámetro se utiliza para la única convención y por lo general se imprime a cabo automáticamente por la mayoría de los programas de ordenador. El modelo anterior simplemente dice que cualquier valor dado de X (t) está directamente relacionado solamente con el error aleatorio en el periodo anterior, E (t-1), y con el término de error actual, E (t). Como en el caso de los modelos autorregresivos, los modelos de media móvil se pueden extender a estructuras de orden superior que cubren diferentes combinaciones y en movimiento longitudes medias. metodología ARIMA también permite que los modelos que se construirán que incorporan tanto autorregresivo y moviendo parámetros medios juntos. Estos modelos se conocen como modelos mixtos a menudo. Aunque esto lo convierte en una herramienta de pronóstico más complicado, de hecho, la estructura puede simular la serie mejor y producir un pronóstico más exacto. modelos puros implican que la estructura se compone sólo de los parámetros AR o MA - no ambas. Los modelos desarrollados por este enfoque generalmente se llaman los modelos ARIMA, ya que utilizan una combinación de autorregresivo (AR), la integración (I) - refiriéndose al proceso de diferenciación inversa para producir el pronóstico, y moviendo las operaciones promedio (MA). Un modelo ARIMA se indica generalmente como ARIMA (p, d, q). Esto representa el orden de los componentes autorregresivos (P), el número de operadores de diferenciación (d), y el más alto orden del plazo de media móvil. Por ejemplo, ARIMA (2,1,1) significa que usted tiene un modelo de segundo orden autorregresivo de primer orden con un componente promedio cuya serie se ha diferenciado una vez para inducir estacionariedad en movimiento. Recogiendo la Especificación de la derecha: El principal problema en la clásica Box-Jenkins está tratando de decidir qué especificación ARIMA utilizar - i. e. cuántos parámetros AR y / o MA que incluyen. Esto es lo que gran parte de la caja-Jenkings 1976 se dedicó al proceso de identificación. Dependía de gráfica y numérica eva - luación de la autocorrelación de la muestra y las funciones de autocorrelación parcial. Bueno, para sus modelos básicos, la tarea no es demasiado difícil. Cada uno tiene funciones de autocorrelación que se ven de cierta manera. Sin embargo, cuando se sube en la complejidad, los patrones no se detectan tan fácilmente. Para hacer las cosas más difíciles, los datos representan solamente una muestra del proceso subyacente. Esto significa que los errores de muestreo (valores atípicos, error de medición, etc.) pueden distorsionar el proceso de identificación teórica. Es por ello que la modelización ARIMA tradicional es un arte más que un procedimiento science. SPSS On-Line Taller de Capacitación de serie temporal proporciona las herramientas para la creación de modelos, la aplicación de un modelo existente para el análisis de series temporales, la descomposición de temporada y el análisis espectral de datos de series de tiempo, como así como herramientas para la computación autocorrelaciones y correlaciones cruzadas. Los siguientes dos clips de película muestran cómo crear un modelo de series de tiempo de alisamiento exponencial y cómo aplicar un modelo de series de tiempo existente para el análisis de series temporales de datos. PELÍCULA: Modelo de suavizado exponencial PELÍCULA: Arima herramienta modelizador experto amplificador Modelo En este taller en línea, usted encontrará muchos clips de película. Cada clip de película demostrará un cierto uso específico de SPSS. Crear modelos de TS. Existen diferentes métodos disponibles en SPSS para la creación de modelos de series temporales. Existen procedimientos para alisamiento exponencial, modelos (ARIMA)-media móvil univariante y multivariante autorregresivo integrado. Estos procedimientos producen pronósticos. Métodos de suavizado Forecasting - Las medias móviles, las medias móviles ponderadas y los métodos de suavización exponencial en son de uso frecuente en el pronóstico. El objetivo principal de cada uno de estos métodos es para suavizar las fluctuaciones aleatorias en la serie temporal. Estos son eficaces cuando las series de tiempo no muestra tendencia significativa, cíclico o de efectos estacionales. Es decir, la serie de tiempo es estable. los métodos de suavizado son generalmente buenos para predicciones a corto plazo. Medias Móviles: Promedio Móvil utiliza la media de los valores más recientes k de datos de la serie temporal. Por definición, MA S (la mayoría de los últimos valores de k) / k. Las tasas medias de variación MA como nuevas observaciones disponibles. Media móvil ponderada: En el método MA, cada punto de datos recibe el mismo peso. En promedio móvil ponderado, utilizamos diferentes pesos para cada punto de datos. En la selección de los pesos, se calcula la media ponderada de los valores más recientes de datos k. En muchos casos, el más reciente punto de datos recibe la mayor cantidad de peso y disminuye el peso de los puntos de datos más antiguos. La suma de los pesos es igual a 1. Una forma de seleccionar los pesos es el uso de los pesos que minimicen el criterio de error cuadrático medio (MSE). el método de suavización exponencial. Este es un método de promedio ponderado especial. Este método selecciona el peso para la observación más reciente y los pesos para las observaciones de más edad se calculan automáticamente. Estos otros pesos disminuye a medida que se hacen mayores observaciones. El modelo de suavizado exponencial básica es donde F t 1 pronóstico para el periodo t 1, t observación en el período t. F t pronóstico para el periodo t. y un parámetro de suavizado (o constante) (0 lt un LT1). Por una serie de tiempo, nos propusimos F 1 1 para el período 1 y pronósticos para periodos subsiguientes 2, 3, puede ser calculado por la fórmula para F t1. Con este enfoque, se puede mostrar que el método de suavizado exponencial es un promedio ponderado de todos los puntos de datos anteriores de la serie de tiempo. Una vez que se conoce, lo que necesitamos saber t t y F con el fin de calcular el pronóstico para el periodo t 1. En general, se elige un a que minimiza el MSE. Simple: adecuado para las series en las que no existe una tendencia o estacionalidad. componente media (q) que se mueve: órdenes de media móvil especifican cómo las desviaciones de la serie para los valores anteriores se utilizan para predecir los valores actuales. Expertos modelizador de series temporales determina automáticamente el mejor ajuste para los datos de series de tiempo. Por defecto, el modelizador experto considera tanto suavizado exponencial y modelos ARIMA. El usuario puede seleccionar sólo sea modelos de suavizado o ARIMA y especificar la detección automática de valores atípicos. En el siguiente clip de película se muestra cómo crear un modelo ARIMA con el método ARIMA y el modelizador experto proporcionado por SPSS. El conjunto de datos utilizados para esta demostración es el conjunto de datos AirlinePassenger. Ver la página de conjunto de datos para obtener más información. Los datos de pasajeros de aerolíneas se da como la serie G en el análisis de series temporales libro: Predicción y control por Box y Jenkins (1976). El número variable es el total mensual de pasajeros en miles. En virtud de la transformación logarítmica, los datos han sido analizados en la literatura. Aplicar modelos de series temporales. Este procedimiento se carga un modelo de serie temporal existente desde un archivo externo y el modelo se aplica al conjunto de datos de SPSS activo. Esto se puede utilizar para obtener predicciones para series que están disponibles sin necesidad de iniciar la construcción de un nuevo modelo de datos nuevos o revisados. El cuadro de diálogo principal es similar al cuadro de diálogo Crear modelos principales. Análisis espectral . Este procedimiento se puede utilizar para mostrar el comportamiento periódico en serie de tiempo. Gráficos de secuencia. Este procedimiento se utiliza para trazar los casos en secuencia. Para ejecutar este procedimiento, se necesita una serie de tiempo de datos o un conjunto de datos que se ordenan en cierto orden significativo. Autocorrelaciones. Esta función procedimiento parcelas de autocorrelación y la función de autocorrelación parcial de una o más series de tiempo. Las correlaciones cruzadas. Este procedimiento representa gráficamente la función de correlación cruzada de dos o más series de tiempo para retardos positivos, negativos y cero. Ver menú Ayuda de SPSS para solicitar información adicional sobre el tiempo modelo de serie, el análisis espectral, gráficos de secuencia, autocorrelaciones y procedimientos-correlaciones cruzadas. E sta línea Taller de formación de SPSS es desarrollado por el Dr. Carl Lee, el Dr. Felix Famoye. estudiantes asistentes Barbara Shelden y Albert Brown. Departamento de Matemáticas de la Universidad Central de Michigan. Todos los derechos reserved. IBM SPSS Modeler 8211 Nodos de modelado Si usted es nuevo a IBM SPSS Modeler o un usuario desde hace mucho tiempo, es útil ser consciente de todos los nodos de modelado disponibles. Al igual que un carpintero necesita una herramienta para cada trabajo, un científico de datos necesita un algoritmo para cada problema. Recogí las descripciones para cada nodo de modelado de la documentación y los resumió para ayudar a proporcionar una visión general de los algoritmos disponibles de forma nativa en el software. Los nodos siguientes se agrupan en función del tipo de tarea de minería de datos que realizan (Classfication, Asociación, y Segmentación). Los nodos en esta lista están disponibles en la versión de IBM SPSS Modeler 17. La clasificación de modelos de nodos (1) Nombre de la Decisión nodo de modelado del árbol Nodos Los algoritmos son similares en que todos ellos pueden construir un árbol de decisión mediante el fraccionamiento de forma recursiva los datos en subgrupos cada vez más pequeños cada algoritmo tiene importantes diferencias que deben tenerse en cuenta durante la construcción de modelos Identifica subgrupos o segmentos que muestran una mayor o menor posibilidad de un binaria (sí o no) los resultados en relación con la muestra total permite un control completo sobre el modelo, lo que le permite editar segmentos, añada sus propias reglas de negocio, especifica cómo se puntúa cada segmento, y personalizar el modelo en un número de otras maneras para optimizar la proporción de éxitos en todos los segmentos predicen un destino continuo basado en las relaciones lineales entre el objetivo y uno o más predictores relativamente simple y crea una fórmula matemática fácil de interpretar para la puntuación Análisis de componentes Principales, Análisis de factores (PCA / Factorial) proporciona técnicas eficaces de reducción de datos para reducir la complejidad de los datos Dos enfoques similares pero distintos, están dentro de un nodo el objetivo es encontrar un pequeño número de campos derivados que resumen de manera efectiva la información en el conjunto original de campos se aproxima a una amplia gama de modelos predictivos con exigencias mínimas en modelo de estructura y suposiciones las relaciones son determinadas durante el proceso de aprendizaje la desventaja de esta flexibilidad es que el neuronal red no es fácilmente interpretable Reducir la elección de cientos, o incluso miles, de campos que potencialmente pueden ser utilizados como entradas para un problema de minería de datos que se utilizan para identificar los campos que son más importantes para un análisis determinado modelo de clasificación nodos (2) construye una modelo predictivo participación en el grupo de modelos se compone de una función discriminante (o, durante más de dos grupos, un conjunto de funciones discriminantes) basadas en combinaciones lineales de las variables de predicción que proporcionan la mejor discriminación entre los grupos técnica estadística para clasificar los registros en base a los valores de los campos de entrada Ambos modelos binomiales (por objetivos con dos categorías discretas) y modelos multinomiales (por objetivos con más de dos categorías) están soportados lineal generalizado modelo (GenLin) amplía el modelo lineal general, de manera que la variable dependiente está relacionada linealmente con la factores y covariables a través de una determinada función de enlace permite que la variable dependiente tenga una distribución no normal Cubre los modelos estadísticos ampliamente utilizados, como la regresión lineal para respuestas distribuidas normalmente, modelos logísticos para datos binarios, los modelos log-lineales para datos de recuento, log complementaria ingrese los modelos de datos de supervivencia censurados por intervalos, además de muchos otros modelos estadísticos a través de su modelo de formulación muy general lineales generalizados modelos mixtos (GLMM) Extender el modelo lineal de modo que: el objetivo se relaciona linealmente con los factores y las covariables mediante una determinada función de enlace el objetivo puede tener una distribución no normal Las observaciones se pueden correlacionar cubren una amplia variedad de modelos, desde la regresión lineal simple a complejos modelos multinivel para datos longitudinales no normales. Construye un modelo predictivo para datos de tiempo hasta el evento Produce una función de supervivencia que predice la probabilidad de que el evento de interés se ha producido en un momento dado t para valores dados de las variables predictoras de Apoyo Vector Machine (SVM) le permite utilizar un soporte la máquina de vector para clasificar los datos especialmente adecuado para su uso con conjuntos de datos con un gran número de campos predictores le permite construir un modelo de probabilidad combinando pruebas observadas y registradas con 8220common-sense8221 conocimiento del mundo real para establecer la probabilidad de instancias utilizando atributos aparentemente no vinculados se centra en aumentado a árbol Nave Bayes (tAN) y de cadena de Markov que se utilizan principalmente para la clasificación de autoaprendizaje modelo de Respuesta (SLRM) le permite construir un modelo que se puede actualizar continuamente, o reestimación, como un conjunto de datos crece sin tener para reconstruir el modelo cada vez que utiliza el conjunto completo de datos Por ejemplo, esto es útil cuando se tienen varios productos y desea identificar qué producto es más probable que comprar si se lo ofrecen a ellos un cliente le permite predecir qué ofertas son las más apropiadas para los clientes y la probabilidad de que las ofertas se aceptan K-vecinos más cercanos (KNN) Método para la clasificación de los casos sobre la base de su similitud con otros casos casos similares están cercanos entre sí y los casos son distantes el uno del otro la distancia entre los dos casos es una medida de su desemejanza de serie temporal de modelo trata de descubrir relaciones causales clave en series temporales de datos construye un modelo de serie temporal autorregresivo para cada objetivo e incluye sólo aquellas entradas que tienen una relación causal con el objetivo difiere del modelado tradicional de series de tiempo en el que debe especificar explícitamente los predictores de una serie de destino Espacio-temporal de predicción (STP) utiliza los datos que contiene los datos de localización, campos de entrada para la predicción (predictores), un campo de tiempo, y un campo de destino cada lugar tiene numerosas filas en los datos que representan los valores de cada predictor en cada momento de la medición usados ​​para predecir valores objetivo en cualquier ubicación dentro de los datos de forma que se utiliza en la Asociación de análisis del modelo nodos encuentra reglas de asociación en los datos para crear un conjunto de reglas a priori, es necesario uno o más campos de entrada y uno o más campos de destino utiliza un algoritmo de descubrimiento de reglas de asociación para descubrir las reglas de asociación en los datos de la diferencia de a priori, el nodo CARMA no requiere campos de destino de entrada o. Esto es parte integral de la forma en que funciona el algoritmo y es equivalente a la construcción de un modelo A priori con todos los campos establecidos en Ambos patrones descubre en los datos secuenciales o tiempo-orientado, en el queso - gt formato de pan Los elementos de una secuencia son los conjuntos de elementos que constituyen una sola transacción una secuencia es una lista de los conjuntos de elementos que tienden a ocurrir en un orden predecible el nodo de reglas de asociación extrae un conjunto de reglas de los datos y destaca aquellas reglas con un mayor contenido de información. El nodo de reglas de asociación es muy similar al nodo A priori, sin embargo, hay algunas diferencias notables: el nodo de reglas de asociación no puede procesar los datos transaccionales el nodo de reglas de asociación puede procesar datos que tienen el tipo de almacenamiento de lista y el nivel de medición Colección El nodo de reglas de asociación se puede utilizar con IBM SPSS Analytic Server. Esto proporciona escalabilidad y significa que puede procesar grandes volúmenes de datos y tomar ventaja de un procesamiento más rápido en paralelo El nodo de reglas de asociación proporciona ajustes adicionales, como la capacidad de restringir el número de reglas que se generan, lo que aumenta la salida de la velocidad de procesamiento del nugget de modelo se muestra en el Visor de resultados Segmentación Modelo nodos Nombre del nodo de modelado proporciona un método de análisis de conglomerados. Puede ser utilizado para agrupar el conjunto de datos en grupos distintos cuando don8217t sabe lo que esos grupos están al principio en vez de tratar de predecir un resultado, K-medias intenta descubrir patrones en el conjunto de campos de entrada se agrupan registros para que los registros dentro de un grupo o conjunto tienden a ser similares entre sí, pero los registros en diferentes grupos son redes de Kohonen disímiles son un tipo de red neuronal que realiza la agrupación, también conocido como knet o un mapa de auto-organización utiliza para agrupar el conjunto de datos en grupos distintos cuando don8217t sabe lo que esos grupos están en la TwoStep comenzando (dos pasos-AS es un nodo similar que sólo está disponible en IBM SPSS Analytic Server) un método de conglomerado de dos pasos el primer paso es hacer una sola pasada por los datos, durante el cual se comprime los datos de entrada sin procesar en un conjunto manejable de subclusters la segunda etapa utiliza un método de agrupamiento jerárquico para fundir progresivamente los subgrupos en grupos cada vez más grandes, sin necesidad de otro pase a través de los datos utilizados para identificar valores atípicos, o en casos excepcionales, en los datos de anomalías almacenar información de modelos de detección de lo que el comportamiento normal parece particularmente útil en aplicaciones, tales como la detección de fraudes, donde los nuevos patrones constantemente pueden detección de anomalías emergentes es un método no supervisado, lo que significa que no requiere una formación de datos que contiene los casos conocidos de fraude para utilizar como punto de partida Modelado automático equipado NodesThe modelos ARIMA se diagnostican utilizando AIC, SBC y la prueba de razón de probabilidad log. Estimación de parámetros para los modelos ARIMA se realizó utilizando el criterio de Gauss MLE. Los modelos ARIMA armarios eran adecuados ya que los residuos tipificados y los residuos al cuadrado no se correlacionaron significativamente como lo muestran las estadísticas Q de Ljung-Box. Además, las estadísticas J-B rechazaron fuertemente la hipótesis nula de normalidad en los residuos para toda la serie. De acuerdo con los resultados y evaluación de diferentes modelos ARIMA tal como se presenta en las tablas 4 y 5 respectivamente, el mejor modelo se puede volver a escribir como sigue: De la ecuación (14), basándose en un nivel de 5 por ciento de significación, es claro que la observaciones son significativas al primer retardo y también la interacción entre las observaciones y los errores son significativas en todos los grupos de acción local para el modelo ajustado. 4.3. Fuera de la muestra Las previsiones El estudio hizo hincapié en el rendimiento pronóstico de lo que sugiere un mayor enfoque en minimizar los errores de predicción fuera de la muestra de la bondad de obtener las mayores dentro de la muestra de ajuste. El enfoque adoptado fue, por tanto, uno de modelo de minería con el objetivo de optimizar el rendimiento de previsión. Los modelos de eficiencia fueron evaluados utilizando los errores al cuadrado medio (MSE). El modelo que tenía la mínima MSE era considerado el más eficiente. Sin embargo, otras propiedades estadísticas especialmente los diagnósticos y pruebas de bondad de ajuste se consideraron en la elección del modelo más eficiente. El MSE para los diversos modelos ARMA se dan en la tabla 4. Tabla 4. El MSE de diversos modelos ARMA. 5. Resumen, Conclusiones y Recomendaciones El objetivo del estudio fue modelar y predecir el PIB de Kenia basado en la metodología de Box-Jenkins y proporcionar previsiones de cinco años de inflación de Kenia. A través de la recopilación y análisis de los datos del PIB anual de Kenia, la determinación del orden de integración, identificación del modelo, la comprobación de diagnóstico, pruebas de estabilidad del modelo, y evaluación de la eficacia de previsiones, se propuso el mejor modelo ARIMA en la ecuación (14) basado en el menor cuadrado medio criterios de error. gráficos de tiempo y el correlogram se utilizaron para las pruebas de estacionariedad de los datos. Además, se utilizó el criterio de Gauss MLE para estimar el modelo. 5.2. Hallazgos principales El primer hallazgo empírico principal del estudio es el modelo que ha sido identificado por la previsión del PIB y se presentan a continuación: Este es el modelo de pronóstico del PIB en Kenia que se recomienda para la predicción consistente. Todos los coeficientes son estadísticamente significativos al 5 por ciento. Otras propiedades estadísticas especialmente los diagnósticos y pruebas de bondad de ajuste se consideraron en la elección del modelo más eficiente. eficiencia del modelo se determinó utilizando el Error Cuadrático Medio como se muestra en la tabla 4. Los varios modelos ARIMA con diferente orden de Autoregresivo y términos de medias móviles se compararon sobre la base de su desempeño, comprobado y verificado mediante el uso de las estadísticas como el AIC, SBC, logaritmo de la verosimilitud , Hannan Quinn Criterio y el estadístico Jarque-Bera. Los resultados indican que el modelo propuesto tuvo un buen desempeño en términos tanto de dentro de la muestra y fuera de la muestra. El segundo hallazgo empírico del estudio es las previsiones de 5 años PIB de Kenia. La salida de los pronósticos de corto plazo muestra obtenidos indican un aumento en el nivel de PIB de Kenia. 5.3. Conclusión y Recomendación A través de análisis de series temporales de Kenia PIB en los años 1960 y 2007, el ARIMA (2, 2, 2) se estableció modelo. La transformación de la serie de los parámetros del modelo se convirtió en la secuencia residual secuencia de ruido blanco. El resultado ajuste del modelo es convincente y práctica mediante el uso de Gretl. El PIB de Kenya se prevé mediante el uso del modelo. El resultado muestra que el error relativo está dentro del rango de 5, que es relativamente ideal. De acuerdo con los valores previstos, Kenia PIB muestra una tendencia de crecimiento mayor en los próximos cinco años a partir de 2013 to2017. Sin embargo, el resultado de predicción de este modelo es de sólo un valor predicho la economía nacional es un sistema complejo y dinámico. Los ajustes de la política macro y los cambios en el entorno de desarrollo harán que el cambio relativo de los indicadores macroeconómicos. Por lo tanto, debemos prestar atención al riesgo de un ajuste en la operación económica y mantener la estabilidad y la continuidad de la regulación microeconómica y controlar también evitar que la economía de las fluctuaciones severas y ajustar el valor objetivo correspondiente de acuerdo con la situación real. 5.4. Sugerencias para una mayor investigación de los hallazgos del estudio, las siguientes áreas se sugieren para futuras investigaciones: i. El análisis de la dinámica del PIB en Kenia el uso de diferentes modelos. ii. El examen de los componentes individuales del PIB. error estándar de los residuales 0.0976013 Tabla 6. Dentro de la Muestra previsiones del PIB 1960-2012.SPSS Estadísticas 24 - Base Ab einer bestimmten Bestellmenge stellen Wir Ihnen ein individuelles Angebot zusammen. Dieser Artikel wird Ihrem Warenkorb beigelegt, nicht jedoch wird in der Berechnung bercksichtigt SPSS es un software modular construida para la evaluación, el análisis y la elaboración de estadísticas. Este programa integral es el líder del mercado en el campo de la investigación social y de mercado u opinión. El que espera un uso muy complicado, que va mal. Mientras SPSS es muy versátil, que es, sin embargo, fácil de usar. SPSS es utilizado por empresas líderes, agencias gubernamentales e instituciones académicas de todo el mundo y goza de una alta reputación en consecuencia. Los argumentos a favor de SPSS: líder en la investigación de la opinión del mercado y muchos plug-ins que proporcionan una funcionalidad altamente especializado excelentes opciones para la creación de tablas complejas de SPSS Statistics Base para Windows, Mac y Linux resolver problemas comerciales y de investigación utilizando SPSS para Windows, Mac y Linux, una paquete estadístico y gestión de datos para los analistas e investigadores SPSS le proporciona una amplia gama de capacidades para todo el proceso analítico. Con SPSS, puede generar la toma de decisiones la información rápidamente usando las estadísticas de gran alcance, entender y efectivamente presentar sus resultados con tablas de alta calidad y la producción gráfica, y compartir sus resultados con los demás usando una variedad de métodos de información, incluida la publicación de web segura. Los resultados de su análisis de datos le permiten tomar decisiones más inteligentes con mayor rapidez mediante el descubrimiento de hechos clave, patrones y tendencias. Una versión de servidor opcional proporciona escalabilidad empresarial resistencia, herramientas adicionales, seguridad y rendimiento mejorado Puede utilizar SPSS para Windows en una variedad de áreas, incluyendo: Encuesta y estudios de mercado y marketing directo investigación administrativa Academia, recursos humanos, y la planificación de Medicina de recursos , planificación de la investigación, y las ciencias sociales científica y la mejora de informe de calidad de predicción y hoc de toma de decisiones de desarrollo de aplicaciones analíticas de anuncios a nivel de empresa, en particular, se aplican el software estadístico SPSS para obtener un mayor conocimiento de las acciones, atributos y actitudes de la gente. sus clientes, empleados, estudiantes o ciudadanos. SPSS para Windowsreg es un sistema modular, la línea de productos con todas las funciones estrechamente integrado. Junto con los productos relacionados de IBM, proporciona capacidades para todas las etapas del proceso analítico. La interfaz basada en Java que hace que las versiones para Windows, Mac y Linux casi idéntico. Usted won39t nota cualquier differents entre las versiones de los módulos de SPSS Statistics y Extensiones SPSS Neural Networks: descubrir relaciones más complejas en sus datos utilizando procedimientos de modelado de datos no lineales. SPSS Pruebas Exactas: Use muestras pequeñas y aún así tener confianza en los resultados. Si usted tiene un pequeño número de variables de casos con un alto porcentaje de respuestas en una categoría, o que un subconjunto de sus datos en desgloses detallados, las pruebas tradicionales podrían ser incorrectos. SPSS Pruebas Exactas elimina este riesgo. SPSS Advanced Statistics: Proporciona técnicas potentes modelos multivariados, al igual que los modelos lineales generalizados (GENLIN), Ecuaciones de estimación generalizadas (GEE), Modelos lineales mixtos, componentes de la varianza, modelos lineales generales (GLM), ANOVA, MANOVA, ANCOVA, MANCOVA, Kaplan-Meier - Estimación, regresión de Cox, hiloglineare, loglineare procedimientos de análisis de supervivencia und. SPSS Statistics con programación de Extensión: Expandir las capacidades de SPSS Statistics mediante la adición de nuevos procedimientos escritos en lenguajes de programación externos como Python, R, Java y la versión de Microsoft Visual SPSS Regression básica: Proporciona una regresión logística, análisis de probabilidad y ordinario de regresión no lineal. SPSS Tablas personalizadas: presentationen Effincient de datos en tablas, estadísticas avanzadas utilizando tablas de referencias cruzadas y más. SPSS Direct Marketing le ayuda a entender a sus clientes con mayor profundidad, mejorar sus campañas de marketing y maximizar el ROI de su presupuesto de marketing. SPSS Análisis Conjunto: Para análisis conjunto. SPSS Categorías: Predecir los resultados y revelar relaciones entre los datos categóricos. técnicas de escalamiento óptimo de datos categóricos (análisis de correspondencias, la directora no lineal análisis de componentes, escalamiento multidimensional.). SPSS Forecasting: Mejorar las predicciones utilizando análisis de series temporales, entre ellos múltiples ajuste de curvas, así como modelos de suavizado y métodos para estimar funciones autorregresivos. El modelizador experto identifica automáticamente el ARIMA-Método (autorregresivo integrado de media móvil) o el modelo de suavizado exponencial más adecuado para su serie de tiempo y it39s variables independientes. eignet. SPSS Missing Values: le permite examinar datos para descubrir patrones de datos perdidos, entonces los estadísticos de resumen y de imputar valores perdidos mediante algoritmos estadísticos. SPSS Data Preparación: preparación de datos eficiente, - cleansing y - Validación árboles de decisión de SPSS: Una mejor identificación de los grupos de SPSS Statistics. SPSS Muestras Complejas de muestras complejas: ayuda a los investigadores de mercado, investigadores de opinión pública y los científicos sociales hacen más estadísticamente inferencias válidas mediante la incorporación de diseño de la muestra en su análisis de la encuesta. Más información: Escritorio-Systems


No comments:

Post a Comment