Momento (matemáticas)

En matemáticas, los momentos de una función son ciertas medidas cuantitativas relacionadas con la forma de la gráfica de la función. Si la función representa la densidad de masa, entonces el momento cero es la masa total, el primer momento (normalizado por la masa total) es el centro de masas y el segundo momento es el momento de inercia. Si la función es una distribución de probabilidad, entonces el primer momento es la esperanza, el segundo es el momento central o varianza, el tercero o momento estándar cuantifica la asimetría estadística y el cuarto momento estándar es la curtosis. El concepto matemático está estrechamente relacionado con el concepto de momento en física.

Para una distribución de masa o probabilidad en un intervalo acotado, la colección de todos los momentos (de todos los órdenes, de 0 a ) determina de forma única la distribución (problema del momento de Hausdorff). No ocurre lo mismo en intervalos ilimitados (problema del momento de Hamburger).

A mediados del siglo XIX, Pafnuti Chebyshov se convirtió en la primera persona en pensar sistemáticamente en términos de los momentos de una variable aleatoria.[1]

Relevancia de los momentos

El momento bruto n (es decir, el momento respecto al valor cero) de una distribución se define por[2]

donde

El momento n de una función continua de valor real f(x) de una variable real respecto a un valor c es la integral

Es posible definir momentos para una variable aleatoria de una manera más general que los momentos para funciones con valores reales (véase momentos en espacios métricos). El momento de una función, si no se especifica algo distinto, suele referirse a la expresión anterior con c = 0.

Para el segundo momento y superiores, generalmente se utilizan los momento central (momentos con respecto a la media, siendo c la media) en lugar de los momentos con respecto a cero, porque proporcionan información más clara sobre la forma de la distribución.

También se pueden definir otros momentos. Por ejemplo, el momento inverso n con respecto a cero es y el momento logarítmico n con respecto a cero es

El momento n con respecto a cero de una función de densidad de probabilidad f(x) es la media o esperanza de Xn y se denomina momento bruto o momento crudo.[3]​ Los momentos respecto de la media μ se denominan momentos centrales, que describen la forma de la función, sin considerar traslaciones.

Si f es una función de densidad de probabilidad, entonces el valor de la integral anterior se llama n-ésimo momento de distribución de probabilidad. De manera más general, si F es una función de distribución de probabilidad acumulada de cualquier distribución de probabilidad, que puede no tener una función de densidad, entonces el momento n de la distribución de probabilidad viene dado por la integral de Riemann-Stieltjes

donde X es una variable aleatoria que tiene esta distribución acumulada F, y E es la esperanza o media.

Cuando

se dice que el momento no existe. Si el momento n con respecto a cualquier punto existe, también existe el momento (n − 1) (y, por lo tanto, todos los momentos de orden inferior) con respecto a cada punto. El momento cero de cualquier función de densidad de probabilidad es 1, ya que el área bajo cualquier función de densidad de probabilidad debe ser igual a uno.

Relevancia de los momentos (crudos, centrales, normalizados) y cumulantes (brutos, normalizados), en relación con las propiedades nombradas de las distribuciones
Momento
ordinal
Momento Cumulante
Crudo Central Estandarizado Bruto Normalizado
1 Media 0 0 Media
2 Varianza 1 Varianza 1
3 Asimetría estadística Asimetría
4 Curtosis (defecto o historial) Exceso de curtosis
5 Hiperasimetría
6 Hipercola
7+

Momentos estándar

El momento central n-ésimo normalizado o momento estandarizado es el momento central n-ésimo dividido por σn. El momento central n-ésimo normalizado de la variable aleatoria X es

Estos momentos centrales normalizados son cantidades adimensionales, que representan la distribución independientemente de cualquier cambio lineal de escala.

Para una señal eléctrica, el primer momento es su nivel de corriente continua y el segundo momento es proporcional a su potencia media.[4][5]

Momentos notables

Media

El primer momento bruto es la media, generalmente denominada .

Varianza

El segundo momento central es la varianza. La raíz cuadrada positiva de la varianza es la desviación típica

Asimetría

El tercer momento central es la medida del desequilibrio de la distribución. Cualquier distribución simétrica tendrá un tercer momento central, si se define, de cero. El tercer momento central normalizado se denomina asimetría estadística, a menudo γ. Una distribución sesgada hacia la izquierda (la cola de la distribución es más larga a la izquierda) tendrá una asimetría negativa. Una distribución que está sesgada hacia la derecha (la cola de la distribución es más larga a la derecha) tendrá una asimetría positiva.

Para distribuciones que no son muy diferentes de una distribución normal, su mediana estará cerca de μγσ/6; y la moda alrededor de μγσ/2.

Curtosis

El cuarto momento central es una medida del peso de la cola de la distribución. Dado que es la expectativa de una cuarta potencia, el cuarto momento central, cuando se define, siempre es no negativo, y salvo distribuciones puntuales, siempre es estrictamente positivo. El cuarto momento central de una distribución normal es 3σ4.

La curtosis κ se define como el cuarto momento central estandarizado (de manera equivalente, como en la siguiente sección, el exceso de curtosis es el cuarto cumulante dividido por el cuadrado del segundo cumulante).[6][7]​ Si una distribución tiene colas con un peso significativo, la curtosis será alta (y se habla de distribuciones leptocúrticas); por el contrario, las distribuciones con colas de poco peso (por ejemplo, las distribuciones acotadas como la uniforme) tienen curtosis baja (y entonces se habla de distribuciones platicúrticas).

La curtosis puede ser positiva sin límite, pero κ debe ser mayor o igual a γ2 + 1. La igualdad solo se verifica para distribuciones binarias. Para distribuciones asimétricas no acotadas y no muy alejadas de la normal, κ tiende a estar en algún lugar en los valores comprendidos entre γ2 y 2γ2.

La desigualdad se puede probar considerando que donde T= (Xμ)/σ. Es la expectativa de un cuadrado, por lo que no es negativa para todo a. Sin embargo, también es un polinomio cuadrático en a. Su discriminante debe ser no positivo, lo que proporciona la relación requerida.

Momentos de orden más alto

Se denominan momentos de alto orden a aquellos superiores al cuarto orden.

Al igual que con la varianza, la asimetría y la curtosis, estos son valores estadísticos de alto orden, que involucran combinaciones no lineales de los datos y pueden usarse para la descripción o estimación de parámetros de forma adicionales. Cuanto mayor es el momento, más difícil es de estimar, en el sentido de que se requieren muestras más grandes para obtener estimaciones de calidad similar. Esto se debe al exceso de grados de libertad requeridos por los valores estadísticos de órdenes superiores. Además, pueden ser sutiles de interpretar, y a menudo se entienden más fácilmente en términos de momentos de orden inferior (compárese con las derivadas de orden superior de sobreaceleración y de rebote en física). Por ejemplo, así como el momento de cuarto orden (curtosis) puede interpretarse como la "importancia relativa de las colas en comparación con los hombros en la contribución a la dispersión" (para una cantidad dada de dispersión, una curtosis más alta corresponde a colas más gruesas, mientras que una curtosis más baja corresponde a hombros más anchos), el momento de quinto orden puede interpretarse como una medida de la "importancia relativa de las colas en comparación con el centro (la moda y los hombros) en la contribución a la asimetría" (para una determinada cantidad de asimetría, un quinto momento más alto corresponde a una mayor asimetría en las porciones de la cola y poca asimetría de la moda, mientras que el quinto momento inferior corresponde a una mayor asimetría en los hombros).

Momentos mixtos

Los momentos mixtos son aquellos que involucran múltiples variables.

El valor se denomina momento de orden (los momentos también se definen para no entero). Los momentos de la distribución conjunta de variables aleatorias se definen de manera similar. Para cualquier número entero , la expectativa matemática se denomina momento mixto de orden (donde ), y se denomina momento mixto central de orden . El momento mixto se llama covarianza y es una de las características básicas de dependencia entre variables aleatorias.

Algunos ejemplos son la covarianza, la coasimetría y la cocurtosis. Si bien existe una covarianza única, existen múltiples coasimetrías y cocurtosis.

Propiedades de los momentos

Transformación desde el centro

Dado que

donde es el coeficiente binomial, se deduce que los momentos con respecto a b se pueden calcular a partir de los momentos con respecto a a mediante la relación:

Momento de la convolución de una función

El momento de la convolución de una función toma la forma

donde denota el momento de la función indicada entre paréntesis. Esta identidad se desprende del teorema de convolución para la función generadora de momentos y de la aplicación de la regla de la cadena para la derivada de un producto.

Cumulantes

El primer momento bruto y el segundo y tercer momento central no normalizado son aditivos en el sentido de que si X e Y son variables aleatorias independientes, entonces

Estas relaciones también pueden ser válidas para variables que satisfacen condiciones más débiles que la independencia. La primera siempre se cumple; si se cumple la segunda, las variables se denominan incorrelacionadas.

De hecho, estos son los tres primeros cumulantes y todos los cumulantes comparten esta propiedad de aditividad.

Momentos de una muestra

Para todo k, el momento bruto k de una población se puede estimar utilizando el momento muestral bruto k. aplicado a una muestra X1, ..., Xn extraída de una población.

Se puede demostrar que el valor esperado del momento muestral bruto es igual al momento bruto k de la población, si ese momento existe, para cualquier tamaño de muestra n. Por tanto, es un estimador insesgado. Esto contrasta con la situación de los momentos centrales, cuyo cálculo consume un grado de libertad al utilizar la media muestral. Entonces, por ejemplo, una estimación insesgada de la varianza poblacional (el segundo momento central) viene dada por en el que el denominador anterior n ha sido sustituido por los grados de libertad n − 1, y en el que se refiere a la media muestral. Esta estimación del momento poblacional es mayor que el momento muestral observado no ajustado por un factor de y se denomina "varianza muestral ajustada" o, a veces, simplemente "varianza muestral".

Problema de los momentos

Los problemas de determinar una distribución de probabilidad a partir de su secuencia de momentos se denominan problemas de los momentos. Estos problemas fueron discutidos por primera vez por P.L. Chebyshev (1874)[8]​ en relación con la investigación sobre teoremas de límites. Para que la distribución de probabilidad de una variable aleatoria esté definida unívocamente por sus momentos es suficiente, por ejemplo, que se cumpla la condición de Carleman: Un resultado similar se cumple incluso para momentos de vectores aleatorios. El problema de los momentos busca caracterizaciones de secuencias que son secuencias de momentos de alguna función f, de las cuales todos los momentos son finitos, y para cada entero se tiene que donde es finito. Entonces hay una secuencia que converge débilmente a una función de distribución que tiene como momentos. Si los momentos determinan de forma única, entonces la secuencia converge débilmente a .

Momentos parciales

Los momentos parciales a veces se denominan "momentos unilaterales". Los momentos parciales inferior y superior de orden n con respecto a un punto de referencia r se pueden expresar como

Si las funciones integrales no convergen, el momento parcial no existe.

Los momentos parciales se normalizan elevándolos a la potencia 1/n. La razón de potencial alcista puede expresarse como una relación entre un momento parcial superior de primer orden y un momento parcial inferior normalizado de segundo orden. Se han utilizado en la definición de algunas métricas financieras, como la razón de Sortino, ya que se centran exclusivamente en las tendencias de alza o de baja.

Momentos centrales en espacios métricos

Sea (M, d) un espacio métrico y sea B(M) una σ-álgebra de Borel de M, la σ-álgebra generada por d-subconjuntos abiertos de M. Por razones técnicas, también es conveniente suponer que M es un espacio separable con respecto a la métrica d.

Sea 1 ≤ p ≤ ∞ el momento central p de una medida μ en un espacio medible (M, B(M)) alrededor de un punto dado x0M se define como

Se dice que μ tiene momento central p-ésimo finito si el momento central p-ésimo de μ con respecto a x0 es finito para algún x0M.

Esta terminología para medidas se aplica a las variables aleatorias de la forma habitual: si (Ω, Σ, P) es un espacio de probabilidad y X : Ω → M es una variable aleatoria, entonces el p-ésimo momento central de X respecto a x0M se define como y X tiene momento central p-ésimo finito si el momento central p-ésimo de X respecto a x0 es finito para algún x0M.

Véase también

Referencias

  1. George Mackey (July 1980). «HARMONIC ANALYSIS AS THE EXPLOITATION OF SYMMETRY - A HISTORICAL SURVEY». Bulletin of the American Mathematical Society. New Series 3 (1): 549. 
  2. Papoulis, A. (1984). Probability, Random Variables, and Stochastic Processes, 2nd ed. New York: McGraw Hill Education. pp. 145-149. 
  3. «Raw Moment -- from Wolfram MathWorld». Archivado desde el original el 28 de mayo de 2009. Consultado el 24 de junio de 2009.  Raw Moments at Math-world
  4. Clive Maxfield; John Bird; Tim Williams; Walt Kester; Dan Bensky (2011). Electrical Engineering: Know It All. Newnes. p. 884. ISBN 978-0-08-094966-6. 
  5. Ha H. Nguyen; Ed Shwedyk (2009). A First Course in Digital Communications. Cambridge University Press. p. 87. ISBN 978-0-521-87613-1. 
  6. Casella, George; Berger, Roger L. (2002). Statistical Inference (2 edición). Pacific Grove: Duxbury. ISBN 0-534-24312-6. 
  7. Ballanda, Kevin P.; MacGillivray, H. L. (1988). «Kurtosis: A Critical Review». The American Statistician (American Statistical Association) 42 (2): 111-119. JSTOR 2684482. doi:10.2307/2684482. 
  8. Feller, W. (1957-1971). An introduction to probability theory and its applications. New York: John Wiley & Sons. 419 p.

Bibliografía

Enlaces externos