Distribución uniforme continua
En teoría de probabilidad y estadística, la distribución uniforme continua es una familia de distribuciones de probabilidad para variables aleatorias continuas, tales que para cada miembro de la familia, todos los intervalos de igual longitud en la distribución en su rango son igualmente probables. El dominio está definido por dos parámetros, y , que son sus valores mínimo y máximo respectivamente. El intervalo puede ser cerrado (es decir, ) o abierto (es decir, ).[1] Por lo tanto, la distribución a menudo se abrevia donde significa distribución uniforme.[2] La diferencia entre los límites define la longitud del intervalo; todos los intervalos de la misma longitud en el soporte de la distribución son igualmente probables. Es la distribución de probabilidad de máxima entropía para una variable aleatoria sin más restricción que la de estar contenida en el soporte de la distribución.[3] DefiniciónNotaciónSi es una variable aleatoria continua con distribución uniforme continua entonces escribiremos o . Función de densidadSi entonces la función de densidad es: para . Dicho de otra forma, la función de densidad de probabilidad de la distribución uniforme continua es: Los valores de en los dos límites y no suelen tener importancia, porque no alteran el valor de en ningún intervalo ni de ni de ningún momento superior. A veces se elige que sean cero, y a veces se elige que sean Esto último es apropiado en el contexto de la estimación por el método de máxima verosimilitud. En el contexto del análisis de Fourier, se puede tomar el valor de o para ser porque entonces la transformada inversa de muchas transformada integrals de esta función uniforme devolverá la propia función, en lugar de una función que es igual "casi en todas partes", es decir. es decir, excepto en un conjunto de puntos con medida nula. Además, es consistente con la función signo, que no tiene tal ambigüedad. Cualquier función de densidad de probabilidad integra a por lo que la función de densidad de probabilidad de la distribución uniforme continua se representa gráficamente como un rectángulo donde b-a es la longitud de la base y 1/(b-a) es la altura. A medida que la longitud de la base aumenta, la altura (la densidad en cualquier valor particular dentro de los límites de la distribución) disminuye.[4] En términos de media y varianza la función de densidad de probabilidad de la distribución uniforme continua es: Función de distribuciónSi entonces la función de distribución es: la cual es fácil de obtener a partir de la función de densidad pues Ejemplo 1. Uso de la función de distribución uniforme continuaPara una variable aleatoria hallar En una representación gráfica de la función de distribución uniforme continua el área bajo la curva dentro de los límites especificados, y mostrando la probabilidad, es un rectángulo. Para el ejemplo concreto anterior, la base sería 16, y la altura sería 1/23[5] Ejemplo 2. Utilizando la función de distribución uniforme continua (condicional)Para una variable aleatoria hallar El ejemplo anterior es un caso de probabilidad condicional para la distribución uniforme continua: dado que X > 8 es cierto, ¿cuál es la probabilidad de que X > 12? La probabilidad condicional cambia el espacio muestral, por lo que hay que calcular un nuevo intervalo de longitud (b-a'), donde y .[5] La representación gráfica seguiría el ejemplo 1, donde el área bajo la curva dentro de los límites especificados muestra la probabilidad; la base del rectángulo sería 11, y la altura sería 1/15[5] PropiedadesSi es una variable aleatoria tal que entonces la variable aleatoria satisface algunas propiedades. MediaLa media de la variable aleatoria es Esta se demuestra fácilmente utilizando la definición de esperanza matemática Si se exponeen un gráfico la función de densidad de esta distribución notará que la media corresponde al punto medio del intervalo . VarianzaLa varianza de la variable aleatoria es MomentosEl -ésimo momento de la variable aleatoria está dado por para . Función generadora de momentosLa función generadora de momentos de esta distribución es para valores . Esto se demuestra fácilmente utilizando la definición de función generadora de momentos: Generalización a conjuntos de BorelEsta distribución puede ser generalizada a conjuntos de intervalos más complicados. Si es un conjunto de Borel de medida finita positiva, la distribución probabilidad uniforme en se puede especificar definiendo que la pdf sea nula fuera de e igual a 1/K dentro de , donde K es la medida de Lebesgue de . Estadísticas de ordenSea una muestra independiente e identicamente distribuidas de . Sea el -ésimo estadístico de orden de esta muestra. Entonces la distribución de probabilidad de es una distribución Beta con parámetros y . La esperanza matemática es Esto es útil cuando se realizan Q-Q plots. Las varianzas son UniformidadLa probabilidad de que una variable aleatoria uniformemente distribuida se encuentre dentro de algún intervalo de longitud finita es independiente de la ubicación del intervalo (aunque sí depende del tamaño del intervalo), siempre que el intervalo esté contenido en el dominio de la distribución. Es posible verificar esto: si y con fijo, entonces
lo cual sólo depende de la longitud del intervalo y es independiente de . Este hecho es el que le da su nombre a la distribución. Distribución uniforme estándarSi se restringe y entonces la distribución resultante se llama distribución uniforme estándar. Si es una variable aleatoria con distribución uniforme estándar entonces se escribirá . Para esta distribución en particular, se tiene que: Función de densidadLa función de densidad para cualquier valor es simplemente la constante , esto es Función de probabilidadLa función de probabilidad de se reduce a la recta identidad, esto es para valores de Media y VarianzaLa media y varianza están dadas por respectivamente. SimetríaSi , entonces . Transformada integral de probabilidadSi es una variable aleatoria continua con función de distribución , entonces la variable aleatoria . Aplicando este resultado, es posible simular valores aleatorios de cualquier variable aleatoria continua a partir de valores aleatorios de una distribución uniforme en el intervalo : basta aplicar a dichos valores la inversa de la función de distribución de la variable que queremos simular. Distribuciones relacionadasSi tiene una distribución uniforme estándar, es decir, entonces:
Relaciones con otras funcionesSiempre y cuando se sigan las mismas convenciones en los puntos de transición, la función densidad de probabilidad puede también ser expresada mediante la función escalón de Heaviside:
No existe ambigüedad en el punto de transición de la función signo. Utilizando la convención de la mitad del máximo en los puntos de transición, la distribución uniforme se puede expresar a partir de la función signo como: AplicacionesEn estadística, cuando se utiliza un p-valor a modo de prueba estadística para una hipótesis nula simple, y la distribución de la prueba estadística es continua, entonces la prueba estadística esta uniformemente distribuida entre 0 y 1 si la hipótesis nula es verdadera. Muestreo de una distribución uniformeExisten muchos usos en que es útil realizar experimentos de simulación. Muchos lenguajes de programación poseen la capacidad de generar números pseudo-aleatorios que están distribuidos de acuerdo a una distribución uniforme estándar. Si u es un valor muestreado de una distribución uniforme estándar, entonces el valor a + (b − a)u posee una distribución uniforme parametrizada por a y b, como se describió previamente. Muestreo de una distribución arbitrariaLa distribución uniforme resulta útil para muestrear distribuciones arbitrarias. Un método general es el método de muestreo de transformación inversa, que utiliza la distribución de probabilidad (CDF) de la variable aleatoria objetivo. Este método es muy útil en trabajos teóricos. Dado que las simulaciones que utilizan este método requieren invertir la CDF de la variable objetivo, se han diseñado métodos alternativos para aquellos casos donde no se conoce el CDF en una forma cerrada. Otro método similar es el muestreo de rechazo. La distribución normal es un ejemplo importante en el que el método de la transformada inversa no es eficiente. Sin embargo, existe un método exacto, el Método de Box-Muller, que utiliza la transformada inversa para convertir dos variables aleatorias uniformes independientes en dos variables aleatorias independientes distribuidas normalmente. Error de cuantificaciónEn la conversión analógico-digital se produce un error de cuantización. Este error se debe al redondeo o al truncamiento. Cuando la señal original es mucho mayor que un least significant bit (LSB), el error de cuantización no está significativamente correlacionado con la señal, y tiene una distribución aproximadamente uniforme. Por lo tanto, el error RMS, por sus siglas en inglés, se obtiene a partir de la varianza de esta distribución. Generación de variantes aleatoriasHay muchas aplicaciones en las que resulta útil realizar experimentos de simulación. Muchos lenguajes de programacións vienen con implementaciones para generar números pseudoaleatorios que se distribuyen efectivamente según la distribución uniforme estándar. Por otro lado, los números distribuidos uniformemente se utilizan a menudo como base para la generación de variantes aleatorias no uniformes. Si es un valor muestreado de la distribución uniforme estándar, entonces el valor sigue la distribución uniforme parametrizada por y como se ha descrito anteriormente. HistoriaAunque los orígenes históricos de la concepción de la distribución uniforme no son concluyentes, se especula que el término "uniforme" surgió del concepto de equiprobabilidad en los juegos de dados (nótese que los juegos de dados tendrían discreta y no espacio muestral uniforme continuo). La equiprobabilidad fue mencionada en el Liber de Ludo Aleae de Gerolamo Cardano, un manual escrito en el siglo XVI y detallado sobre el cálculo avanzado de probabilidades en relación con los dados.[6] Véase también
Referencias
Bibliografía
Enlaces externos
|