En estadística, un modelo estadístico se refiere a cuando algunos procesos no pueden derivar sus modelos utilizando métodos de análisis teóricos, pero la relación entre las variables se puede obtener a través de experimentos o datos medidos directamente de procesos industriales, y a través de estadísticas matemáticas. relación funcional. El siguiente es un documento de muestra sobre modelos estadísticos que he compilado para usted. ¡Le invitamos a leerlo y consultarlo! Documento de modelo estadístico 1
Descripción teórica y análisis de aplicación de modelos de arbitraje estadístico
Resumen de arbitraje estadístico El modelo se establece sobre la base de economía y estadísticas cuantitativas. Con base en el análisis de datos históricos, estima la distribución de probabilidad de variables relevantes, predice rendimientos futuros basándose en datos fundamentales y descubre oportunidades de arbitraje para el comercio. . El arbitraje estadístico, una propiedad estadística del análisis de series temporales, tiene una gran importancia teórica y práctica. En la práctica, se utiliza ampliamente en fondos de cobertura individuales para obtener rendimientos. En teoría, se refleja principalmente en las pruebas de eficacia del capital y las calificaciones de fondos abiertos. Este artículo presenta los principios básicos, las estrategias comerciales y las direcciones de aplicación del arbitraje estadístico.
Análisis de la aplicación de negociación emparejada de arbitraje estadístico de palabras clave
1. Introducción al principio del modelo de arbitraje estadístico
El modelo de arbitraje estadístico se basa en dos o más acciones u otros valores con alta correlación, si las fluctuaciones del precio de las acciones mantienen esta buena correlación durante un período de tiempo a través de ciertos métodos, entonces una vez que haya una divergencia entre los dos, y se espera que esta divergencia de precios se corrija en el futuro, permitiendo que surjan oportunidades de arbitraje. En la práctica del arbitraje estadístico, cuando hay una divergencia entre los dos, se pueden comprar acciones cuyos precios de rendimiento estén infravalorados y vender precios que estén sobrevalorados. Cuando la divergencia de precios entre los dos se corrija en el futuro, se puede llegar a la posición opuesta. cerrado. La premisa para la realización del principio de arbitraje estadístico es la reversión a la media, es decir, la existencia de un intervalo medio (en la práctica, generalmente se manifiesta que la serie temporal de precios de los activos es estacionaria y su diagrama de secuencia fluctúa dentro de un cierto rango), y las desviaciones de precios son de corto plazo, a medida que avanza la práctica, los precios de los activos volverán a su rango medio. Si la serie temporal es estacionaria, se puede construir un mecanismo de descubrimiento de señales para el comercio de arbitraje estadístico. Este mecanismo de señales mostrará si el precio del activo se ha desviado de la media a largo plazo y, por lo tanto, existe una oportunidad de arbitraje. dos puntos completamente idénticos Existe una buena correlación entre los precios de mercado de los valores (como las acciones de la misma industria) y los precios a menudo cambian en la misma dirección, por lo que la diferencia de precios o la relación de precios a menudo fluctúa alrededor de un determinado valor fijo. .
2. Estrategias comerciales de modelos de arbitraje estadístico y procesamiento de datos
Existen muchas estrategias operativas específicas para el arbitraje estadístico. En términos generales, incluyen principalmente el comercio de pares/cestas, modelos multifactoriales. etc. La estrategia más utilizada en la actualidad es principalmente la estrategia de negociación de pares. La estrategia emparejada, a menudo llamada carry trade, permite a los operadores mantener una posición neutral en el mercado al igualar una posición larga y una posición corta en acciones de la misma industria o cuyos precios de acciones tienen una relación de equilibrio estable a largo plazo. Esta estrategia es más adecuada para fondos gestionados activamente.
Hay dos pasos principales en la implementación de la estrategia de negociación de pares: primero, la selección de pares de acciones. Zhou Jian, analista de Haitong Securities, señaló en el artículo Investigación sobre estrategias de rendimiento absoluto: arbitraje estadístico que la selección de acciones debe basarse en los fundamentos y las industrias, para garantizar rendimientos estratégicos y reducir eficazmente los riesgos. Como la banca, el sector inmobiliario, la industria del carbón y la electricidad, etc. En teoría, el método de análisis de agrupamiento en estadística se puede utilizar para la clasificación y luego se puede realizar la prueba de cointegración. Esto tendrá mayores posibilidades de éxito. El segundo es probar la correlación entre las series de precios de las acciones y entre sí. Actualmente, se utilizan comúnmente la teoría de la cointegración y el modelo de paseo aleatorio.
Para utilizar la teoría de la cointegración para determinar la correlación de las series de precios de las acciones, primero es necesario realizar una prueba de estacionariedad en las series de precios de las acciones. Los métodos de prueba comúnmente utilizados son el método gráfico y el método de prueba de raíz unitaria. El método gráfico consiste en seleccionar cada variable de la serie de tiempo y la diferencia de primer orden para hacer un diagrama de serie de tiempo. Si aparece una determinada tendencia en el diagrama de serie de tiempo de las variables observadas, puede ser una secuencia no estacionaria. El diagrama de series de tiempo después de que la diferencia de primer orden muestra aleatoriedad, la secuencia puede ser estable. Sin embargo, el método gráfico para determinar si existe una secuencia es muy subjetivo.
Teóricamente, la estacionariedad de la secuencia y el transporte de orden se determinan mediante la prueba de raíz unitaria. Existen muchos métodos para la prueba de raíz unitaria, que generalmente incluyen la prueba DF, la prueba ADF y la prueba no paramétrica de Phillips (prueba PP). El método es la prueba ADF.
Después de la prueba, si la secuencia en sí o la diferencia de primer orden es estacionaria, podemos realizar pruebas de cointegración en diferentes secuencias de acciones. Los principales métodos de prueba de cointegración incluyen el método de dos pasos de EG, es decir, primero. de todo, las variables requeridas se someten a regresión lineal ordinaria para obtener los residuos de primer orden, y luego se realiza la prueba de raíz unitaria en la secuencia residual. Si hay una raíz unitaria, entonces las variables no tienen cointegración. Si no hay raíz unitaria, la secuencia es estacionaria. La prueba EG es más adecuada para pruebas de cointegración entre dos series. Además del método de prueba EG, también existen la prueba de Johansen, el método de Gregory Hansan, el método del modelo de retardo autorregresivo, etc. Entre ellos, la prueba de Johansen es más adecuada para probar la relación de cointegración entre tres o más series. A través de la prueba de cointegración, podemos determinar la correlación entre las series de precios de las acciones y la realización de operaciones de pares.
Christian L. Dunis y Gianluigi Giorgioni (2010) utilizaron datos de alta frecuencia en lugar de datos comerciales diarios para el arbitraje, y también compararon el desempeño del arbitraje inmediato de pares de acciones con relaciones de cointegración y pares de acciones sin relaciones de cointegración. Rentabilidad, los resultados muestran que cuanto mayor sea la relación de cointegración de precios entre acciones, mayores serán las oportunidades de arbitraje estadístico y mayores serán las rentabilidades potenciales.
Según el modelo de paseo aleatorio, podemos probar si las fluctuaciones del precio de las acciones tienen "memoria", es decir, si existen componentes predecibles. Generalmente, se puede dividir en dos situaciones: análisis de previsibilidad a corto plazo y análisis de previsibilidad a largo plazo. En el análisis de previsibilidad a corto plazo, el estándar de prueba se dirige principalmente al tercer caso del proceso de caminata aleatoria, es decir, el estudio de incrementos no correlacionados. Las herramientas de prueba que se pueden utilizar son la prueba de autocorrelación y la prueba de relación de varianza. En la prueba de autocorrelación en serie, las estadísticas comúnmente utilizadas son el coeficiente de autocorrelación y la estadística Q de Baucus-Pierce. Cuando estas dos estadísticas son significativamente mayores que su nivel crítico en un cierto nivel de confianza, significa que la secuencia tiene autocorrelación. es decir, existe un cierto grado de previsibilidad. La prueba del índice de varianza sigue el hecho de que la varianza del rendimiento logarítmico de los precios de las acciones de un paseo aleatorio aumenta linealmente a lo largo de los períodos, y estos incrementos intraperíodo son mensurables. De esta manera, la varianza del rendimiento calculada en k períodos debe ser aproximadamente igual a la varianza de k veces el rendimiento de un solo período. Si la fluctuación del precio de las acciones es un paseo aleatorio, el índice de varianza es cercano a 1 cuando existe una autocorrelación positiva. , el índice de varianza es mayor que 1; cuando hay autocorrelación negativa, el índice de varianza es menor que 1. Para el análisis de previsibilidad a largo plazo, debido a que cuando el período de tiempo es grande, el efecto de usar la relación de varianza para las pruebas no es muy obvio, se puede usar el análisis R/S y el índice de Hurst para medir su previsibilidad a largo plazo. El índice de Hurst se calcula mediante la siguiente ecuación El coeficiente de regresión se estima de la siguiente manera:
Ln[(R/S)N]=C+H*LnN
R/S es el rango reescalado, N es el número de observaciones, H es el índice de Hurst y C es una constante. Cuando H>0,5, significa que estas acciones pueden tener memoria a largo plazo, pero no se puede juzgar que esta secuencia sea un paseo aleatorio o una serie de tiempo fractal persistente, y es necesario probar su importancia.
Ya sea que utilicemos una prueba de cointegración o un juicio de paseo aleatorio, el propósito es encontrar una relación de equilibrio en el corto o largo plazo, de modo que nuestra estrategia de arbitraje estadístico pueda implementarse de manera efectiva.
Los datos para el arbitraje estadístico generalmente utilizan los datos del precio de cierre del día de negociación, pero investigaciones recientes han descubierto que el uso de datos de alta frecuencia (como 5 minutos, 10 minutos, 15 minutos, 20 (datos de negociación de precios de cierre al minuto) en el mercado Existen más oportunidades de arbitraje estadístico. Para los datos de negociación diaria, elegimos el precio de cierre antes de que se restablezca el derecho y, si la diferencia de precio entre las dos acciones es relativamente grande, se requiere un procesamiento logarítmico avanzado. Christian L. Dunis y Gianluigi Giorgioni (2010) utilizaron el precio de cierre de 15 minutos, el precio de cierre de 20 minutos, el precio de cierre de 30 minutos y el precio de cierre de una hora como muestras para realizar análisis de arbitraje estadístico. El uso de datos de alta frecuencia para el arbitraje estadístico produce mayores beneficios.
Además, en una serie de estudios sobre estrategias de rendimiento absoluto, los analistas financieros de Haitong Securities utilizaron el índice 300 de Shanghai y Shenzhen como muestra como grupo de acciones objetivo para transacciones de igualación de arbitraje estadístico. La tasa de rendimiento acumulada calculada utilizando datos de alta frecuencia fue casi. 5 puntos porcentuales más que el uso de datos comerciales diarios.
3. Ampliación de la aplicación de modelos de arbitraje estadístico - probando la efectividad de los mercados de capitales
La hipótesis del mercado eficiente propuesta por Fama (1969), su significado económico es: el mercado puede tomar decisiones sobre la información Una respuesta rápida y razonable permite que el precio de mercado refleje completamente toda la información disponible, de modo que el precio del activo no pueda predecirse con la información actual, de modo que nadie pueda obtener ganancias excesivas de manera sostenible probando la existencia de arbitraje estadístico. Oportunidades Se puede comprobar que el mercado de capitales es eficiente, débilmente eficiente o ineficaz. Xu Yulian (2005) realizó un estudio empírico sobre la eficiencia del mercado de capitales de China mediante el uso de arbitraje estadístico y primero concluyó que la existencia de oportunidades de arbitraje estadístico es incompatible con la eficiencia del mercado de capitales. Con base en esta base teórica, probamos si existen oportunidades de arbitraje estadístico en las estrategias de inversión de inercia de precios, reversión de precios y reversión de valor en el mercado de valores chino. Los resultados encontraron que el mercado de valores de nuestro país aún no ha alcanzado una eficiencia débil. Wu Zhenxiang y Chen Min (2007) utilizaron una vez este método para probar la débil validez del mercado de acciones A de mi país, y utilizaron dos estrategias de inversión, inercia y reversión, para descubrir que la validez del mercado de acciones A de mi país no estaba establecida. . Además, los académicos chinos Wu Zhenxiang, Wei Xianhua y otros propusieron un método para calificar fondos abiertos basado en el modelo de arbitraje estadístico revisando el modelo de arbitraje estadístico de Hogan.
IV.Conclusión
La aplicación del modelo de arbitraje estadístico actualmente se refleja principalmente en dos aspectos: 1. Como estrategia comercial eficaz, el arbitraje. 2. Verificar la efectividad del mercado de capitales o de un mercado determinado detectando la existencia de oportunidades de arbitraje estadístico. Dado que la implementación de estrategias de arbitraje estadístico se basa en el establecimiento de un mecanismo de venta en corto, con el lanzamiento y la mejora de los negocios de comercio de margen y futuros sobre índices bursátiles de China, creo que se utilizará y desarrollará ampliamente en mi país.
Referencias
[1] A.N. Burgess: Una metodología computacional para modelar la dinámica del arbitraje estadístico, Escuela de Negocios de Londres, Tesis doctoral, 1999. ] Fang Hao. Modelo teórico y análisis de aplicación del arbitraje estadístico, basado en la prueba del mercado de fondos cerrados de China, Estadísticas y toma de decisiones, junio de 2005 (Parte 2). Li, Lu Ye Ting Estudio de viabilidad sobre el arbitraje al contado de futuros sobre el índice bursátil CSI 300: evidencia empírica basada en el modelo de arbitraje estadístico, Finance and Trade Research, 2011, 1.
[4] Basado en Wu Qiaolin. sobre investigación estratégica de futuros sobre índices bursátiles CSI [D]. Excelente tesis de maestría de China, 2009.
[5] Wu Zhenxiang, Chen Min. Prueba de arbitraje estadístico de la débil eficiencia del sistema bursátil de China [J]. Teoría y práctica de la ingeniería. 2007, febrero. Artículo de modelo estadístico, parte 2
Investigación sobre la estimación de modelos estadísticos semiparamétricos
Resumen Con el rápido desarrollo de la tecnología de modelos de datos, los datos existentes. Los modelos ya no pueden satisfacer las necesidades de la práctica. Algunos problemas de medición encontrados en los modelos de datos han restringido seriamente la aplicación y el desarrollo de la ciencia y la tecnología modernas en los modelos de datos. Por lo tanto, con base en estos antecedentes, los académicos han propuesto nuevas teorías y métodos para los modelos de datos. experimentos de medición y desarrollo de aplicaciones de datos de modelos semiparamétricos. Los datos del modelo semiparamétrico son un nuevo modelo de datos de medición basado en modelos paramétricos y modelos no paramétricos, por lo que tiene muchas similitudes con los modelos paramétricos y no paramétricos. Este artículo combinará la tecnología de modelos de datos para realizar una exploración y discusión detallada del modelo estadístico semiparamétrico.
Modelo semiparamétrico de palabras clave para mejorar los datos longitudinales de las mediciones de error
Este artículo toma el modelo semiparamétrico como ejemplo para discutir los valores estimados y los valores observados de parámetros y componentes no paramétricos y el método de interpolación de función spline cúbica se utiliza para obtener la expresión estimada de los componentes no paramétricos.
Además, para resolver el problema de estimar las partes paramétricas y no paramétricas del modelo semiparamétrico bajo datos longitudinales, se estudió y analizó el modelo de datos semiparamétrico, la normalidad asintótica y la fuerte consistencia cuando el error era una martingala. secuencia de diferencia. Además, este artículo analiza preliminarmente la selección de parámetros de equilibrio, explica completamente el método de estimación de mínimos cuadrados universales y las conclusiones relacionadas, y también lleva a cabo discusiones e investigaciones relacionadas sobre el método iterativo de modelos semiparamétricos.
1. Introducción
En la vida diaria, el modelo de datos de parámetros utilizado por las personas tiene una estructura relativamente simple, por lo que es relativamente fácil de operar; sin embargo, existen problemas en la práctica; Uso de datos de medición. Grandes errores relevantes, por ejemplo al medir objetos relativamente pequeños o al medir objetos dinámicos. El establecimiento de un modelo de datos semiparamétrico puede resolver y aliviar eficazmente este problema: no sólo puede eliminar o reducir los errores que ocurren en la medición, sino que tampoco compensará los errores del sistema que no pueden parametrizarse. Los errores sistemáticos afectan en gran medida la información diversa de los valores de observación. Si se puede mejorar, se puede lograr un proceso de identificación y extracción de errores más rápido, más oportuno y más preciso, lo que no solo mejorará la precisión de la estimación de los parámetros, sino que también contribuirá a los relacionados; investigación científica efectivamente complementada.
Por ejemplo, en aplicaciones prácticas como ejemplos de simulación y transformación de coordenadas, posicionamiento GPS y medición de la gravedad, este modelo tiene cierto grado de éxito y practicidad, esto se debe principalmente a que el modelo de datos semiparamétrico es el; Igual que el actual El modelo de datos utilizado es consistente y puede satisfacer las necesidades reales actuales. El modelo semiparamétrico recientemente establecido y la estimación de sus partes paramétricas y no paramétricas también pueden resolver algunos problemas de estimación de datos de contaminación. Este modelo semiparamétrico no solo estudia su propia estimación de tipo t con datos longitudinales, sino que también elabora algunos modelos de datos semiparamétricos que contienen términos suaves. Además, con base en las dos situaciones de simetría y asimetría, las estimaciones de parámetros y las hipótesis se pueden probar bajo una restricción lineal. Esto se debe principalmente a que los factores que afectan los valores observados, además de esta relación lineal, también están sujetos. a determinadas interferencias específicas de factores, por lo que no puede calificarse como error. Además, existen ciertos errores basados en la medición de variables independientes, lo que muchas veces resulta en la pérdida de mucha información importante durante el proceso de cálculo.
2. Modelo de regresión semiparamétrica y su método de estimación
Este modelo fue propuesto por el famoso erudito occidental Stone en la década de 1970 y se desarrolló y maduró gradualmente en la década de 1980. En la actualidad, este modelo paramétrico se ha utilizado ampliamente en muchos campos como la medicina, la biología y la economía.
El modelo de regresión semiparamétrica se encuentra entre el modelo de regresión no paramétrica y el modelo de regresión paramétrica. Su contenido no solo incluye la parte lineal, sino que también contiene algunas partes no paramétricas. este modelo combina con éxito las dos ventajas combinadas. La parte de parámetros involucrada en este modelo es principalmente la relación funcional, que es lo que a menudo decimos que es captar y explicar de manera efectiva la tendencia general presentada por las variables; la parte no paramétrica es principalmente la relación de función de valor poco clara. Es decir, es un ajuste local de las variables. Por lo tanto, este modelo puede hacer un buen uso de la información presentada en los datos. Esta es una ventaja que los modelos de regresión paramétricos y los modelos de regresión no paramétricos no pueden igualar. Por lo tanto, los modelos semiparamétricos suelen tener capacidades explicativas más sólidas y precisas.
En términos de su propósito, este modelo de regresión es un modelo estadístico de uso común. Su forma es:
3. El papel de los datos longitudinales, la función lineal y la función de suavidad
La ventaja de los datos longitudinales es que pueden proporcionar muchas condiciones, lo que atrae la atención de las personas. Actualmente existen muchos ejemplos de datos longitudinales. Pero, en esencia, los datos longitudinales en realidad se refieren a un tipo de datos de secuencia obtenidos a partir de observaciones repetidas del mismo individuo en diferentes momentos y lugares. Sin embargo, debido a que existen ciertas diferencias entre individuos, habrá ciertas desviaciones al calcular la varianza de los datos longitudinales. Al observar datos longitudinales, los valores observados son relativamente independientes, por lo que su característica es que puede combinar efectivamente dos datos y series de tiempo completamente diferentes. Es decir, se pueden analizar las tendencias individuales a lo largo del tiempo y, al mismo tiempo, se puede ver la situación general del cambio. En muchos estudios actuales de datos longitudinales, sus ventajas no solo se conservan, sino que también se desarrollan sobre esta base para lograr un ajuste lineal local en datos longitudinales.
Esto se debe principalmente a que la gente espera establecer relaciones entre las variables de producción y las covariables, así como entre los efectos del tiempo. Sin embargo, debido a que el efecto del tiempo es relativamente complejo, es difícil realizar modelos paramétricos.
Además, aunque la estimación de modelos lineales ha logrado muchos resultados, la estimación de modelos semiparamétricos sigue siendo una página en blanco hasta el momento. La estimación de modelos lineales no solo resuelve el problema de la deficiencia de rango o la mala salud, sino que también proporciona métodos para manejar modelos lineales, no lineales y semiparamétricos cuando la matriz está mal condicionada. En primer lugar, comparar dos datos de observación con condiciones de observación relativamente cercanas puede debilitar la influencia de los no parámetros. Por lo tanto, el modelo semiparamétrico se convierte en un modelo lineal y luego se procesa de acuerdo con el modelo lineal para obtener estimaciones de parámetros. En la mayoría de los casos, su coeficiente lineal cambiará con otra variable, pero este coeficiente lineal cambia con el tiempo y es imposible obtener muestras en todos los períodos de tiempo en el mismo modelo, y también es difícil utilizar una o varias funciones reales. describirlo. Al procesar datos de medición, si se tratan como una variable aleatoria, a menudo solo se puede lograr un efecto de estimación si se desea introducir una función no lineal de otra variable en el modelo lineal clásico, es decir, el modelo contiene una parte no lineal esencial. Es necesario utilizar un modelo lineal semiparamétrico.
Además, se refiere a la forma compuesta por varias partes. El objeto de investigación son las formas geométricas no suaves y no diferenciables producidas en sistemas no lineales. El parámetro cuantitativo correspondiente es la dimensión. Los modelos estadísticos fractales son actualmente uno de los principales temas de frontera en la investigación no lineal internacional. Por lo tanto, el primer método es parametrizar el método de estimación de componentes no paramétricos, también llamado método de estimación paramétrico. Es un trabajo inicial en el modelo semiparamétrico, que consiste en imponer ciertas restricciones al espacio funcional, principalmente en referencia a la suavidad. . Algunos investigadores creen que los componentes no paramétricos en los modelos semiparamétricos también son no lineales y, a menudo, no son suaves ni diferenciables en la mayoría de los casos. Por lo tanto, con los mismos datos y el mismo método de prueba, la función spline cúbica suave también se puede utilizar para estudiar el modelo semiparamétrico.
IV. Resistencia entre el método de mínimos cuadrados universal y el método de mínimos cuadrados para modelos lineales
(1) El método de mínimos cuadrados apareció a finales del siglo XVIII
> En ese momento En la investigación científica se plantean a menudo preguntas como: cómo obtener la mejor estimación de los parámetros a partir de un conjunto de múltiples observaciones de parámetros desconocidos. Aunque el método de mínimos cuadrados universal era inferior al método de mínimos cuadrados en cuanto a la norma del error general en ese momento, el método de mínimos cuadrados era el más utilizado en ese momento y su propósito era estimar parámetros. El método de mínimos cuadrados, después de un período de investigación y aplicación, se ha convertido gradualmente en un sistema teórico relativamente completo. En esta etapa no sólo podemos conocer claramente el modelo al que obedecen los datos, sino que también podemos utilizar el método de ponderación iterativa en el modelado semiparamétrico de datos longitudinales. Esto es muy eficaz para compensar el método de mínimos cuadrados para estimar componentes no paramétricos y, siempre que las observaciones sean precisas, el método es más confiable para estimar componentes no paramétricos. Por ejemplo, en geodesia física, el método de configuración de mínimos cuadrados se ha utilizado durante mucho tiempo y se ha obtenido la mejor estimación de las anomalías de gravedad. Sin embargo, cuando utilizamos el método de mínimos cuadrados compensados para estudiar anomalías de gravedad, también debemos considerar la autenticidad de los estimadores de parámetros manteniendo el error general relativamente pequeño. Y sobre la base de la comparación de splines parciales ponderados iterativos, se estudian algunas deficiencias en el uso actual del método de mínimos cuadrados. Cabe decir que este método sólo enfatiza la minimización del error general e ignora los errores que ocurren al estimar los componentes de los parámetros. Por lo tanto, se requiere atención especial durante el funcionamiento real.
(2) Aplicación y diferencia del modelo semiparamétrico en el posicionamiento GPS
En la fase de observación GPS del modelo semiparamétrico, su error sistemático es el principal factor que afecta la alta Posicionamiento de precisión. Hay un cierto error en el modelo antes de la solución, por lo que el error grave en el error debe observarse a tiempo. En el uso de GPS, las coordenadas específicas del punto objetivo en el sistema de coordenadas geográficas real se calculan a través de satélites de transmisión. De esta manera, durante la operación se puede descubrir y restaurar toda la semana de incógnitas. Dado que los valores de observación se encuentran entre el satélite y la estación de observación, se utilizan diferencias dobles para debilitar o reducir el impacto en los errores del sistema, como los satélites y. receptores, por lo que es difícil utilizar la expresión de parámetros. Sin embargo, en los cálculos de ajuste, aunque el método de diferencias puede reducir significativamente el número de ecuaciones de observación, todavía no puede lograr resultados satisfactorios por varias razones. Sin embargo, si elige utilizar los parámetros del modelo semiparamétrico para expresar el error del sistema, puede obtener mejores resultados.
Esto se debe principalmente a que el modelo semiparamétrico es un modelo de regresión lineal generalizado. Para el modelo semiparamétrico con términos suaves, bajo ciertas condiciones adicionales, puede proporcionar un método de estimación de una función lineal, reduciendo así el error bruto en la medida. eliminar.
Además de utilizarse en mediciones GPS, este método también se puede aplicar a algunos modelos de parámetros como telémetros de ondas de luz y monitorización de deformaciones. Aplicación en la medición de la gravedad En muchos casos, especialmente en la investigación teórica en la comunidad matemática, siempre asumimos que S es una variable aleatoria. De hecho, esta suposición es razonable. En los últimos años, nuestra investigación sobre este modelo lineal ha logrado algunos buenos resultados. Se ha logrado, y debido a su forma relativamente simple y alta aplicabilidad, este modelo juega un papel importante en muchos campos.
A través de ejemplos de simulación y aplicaciones prácticas como transformación de coordenadas, posicionamiento GPS y medición de la gravedad, se ilustra el éxito y la viabilidad de este método, y se explica teóricamente el popular método de estimación de splines naturales. Su esencia son los casos especiales. del método de mínimos cuadrados compensados tendrá un amplio margen de desarrollo en el futuro. Además, el objeto de investigación de la teoría fractal mencionada en el artículo deben ser las formas geométricas no suaves y no diferenciables producidas en sistemas no lineales, y los fractales se han utilizado ampliamente en mecánica de fracturas, sismología, etc., por lo que deberían ser promovido y utilizado en la investigación El modelo semiparamétrico no solo puede identificar y extraer errores de manera más oportuna y precisa, sino que también puede mejorar la precisión de la estimación de parámetros, que es un poderoso complemento a la investigación actual de modelos semiparamétricos.
5. Resumen
El modelo semiparamétrico mencionado en el artículo incluye valores estimados y valores observados de parámetros y componentes no paramétricos, y se obtiene utilizando el Método de interpolación de función spline cúbica. Expresiones estimadas para componentes no paramétricos. Además, para resolver el problema de estimar las partes paramétricas y no paramétricas del modelo semiparamétrico bajo la premisa de datos longitudinales, bajo la condición de que el error sea una secuencia de diferencias martingala, el modelo de datos semiparamétrico, Se estudia y analiza la normalidad asintótica y la fuerte consistencia. También se introduce el método de estimación de mínimos cuadrados. Además, se analiza preliminarmente la selección de parámetros de equilibrio y se explica en detalle el método de estimación de mínimos cuadrados universales y las conclusiones relacionadas. Basado en discusiones e investigaciones relevantes sobre el método iterativo de modelos semiparamétricos, se proporciona una explicación teórica detallada del método iterativo, que proporciona una base teórica para la aplicación práctica.
Referencias
[1]Hu Hongchang La existencia de una estimación de pseudo-máxima verosimilitud del modelo de regresión semiparamétrica con error AR(1)[J]. Universidad de Tongji (Edición de Ciencias Naturales), 2009(03).
[2] Qian Weimin, Li Jingru. Estimación de fuerte coincidencia en un modelo de regresión semiparamétrica de datos de contaminación longitudinal [J]. (Edición de Ciencias Naturales), 2009(08).
[3] Fan Zhizhi, Wang Fenling, Guo Hui. Estimación lineal local de mínimos cuadrados del modelo de regresión semiparamétrica para datos longitudinales [J]. and Management, 2009( 02).
[4] Cui Hengjian, Wang Qiang. Estimación de parámetros del modelo EV de relación estructural de coeficiente variable [J]. 06).
[5] Qian Weimin, Chai Genxiang. Análisis estadístico del modelo de efectos mixtos para datos longitudinales [J]. >
[6] Sun Xiaoqian, You Jinhong. Estimación iterativa de mínimos cuadrados spline parcial ponderada en modelado semiparamétrico de datos longitudinales [J]. Ciencia china (Serie A: Matemáticas), 2009 (05).
[7] Zhang Sanguo, Chen Xiru. Estimación del modelo polinómico EV [J]. Ciencia china (Serie A), 2009(10).
[8] Ren Zhe, Chen Minghua. multiplicación cuadrada de parámetros en el análisis de regresión de la estimación de datos de contaminación [J]. Estadísticas de probabilidad aplicadas, 2009(03).
[9] Zhang Sanguo, Chen Xiru La consistencia del modelo EV modificó la estimación de máxima verosimilitud. son observaciones repetidas [J]. Ciencia china (Serie A).
[10] Cui Hengjian, Li Yong, Qin Huaizhen Teoría de estimación del modelo EV semiparamétrico de cuatro retornos. [J]. Science Bulletin, 2009(23).
[11]Luo Zhongming. Inferencia estadística del modelo de coeficiente variable con falta aleatoria en la variable de respuesta [D]. /p>
[12]Liu Chaonan. Distribución Weibull exponencial de dos parámetros Estimación de parámetros Bayes y análisis de confiabilidad [D].
[13] Impuesto de la provincia de Hunan. modelo de pronóstico de ingresos y sus pruebas empíricas y análisis económico [D].
[14] Inferencia bayesiana de la función de pérdida y la función de riesgo para la estimación de parámetros de varios tipos de distribuciones [. D]. Universidad Central Sur, 2009.
[15] Análisis de Zhu Lin. datos libres de fallas sujetos a varios tipos de distribuciones de confiabilidad [D].
[16] Huang Furong. Modelo no lineal de familia exponencial y linealidad de error con AR(1) Análisis estadístico de modelos [D]. Universidad de Ciencia y Tecnología de Nanjing, 2009.
También te puede interesar:
1. Artículos de análisis estadístico
2. Artículos estadísticos Excelente muestra de referencia de ensayo
3. Excelente muestra de tesis de estadística
4. Estadística ejemplo de referencia de tesis >>>¿Tesis de graduación de estadística más interesante?