Artículos

7.8: Medida de Lebesgue


Ahora consideraremos el ejemplo más importante de una medida en (E ^ {n}, ) debida a Lebesgue. Esta medida generaliza la noción de volumen y asigna "volúmenes" a una gran familia de conjuntos, los conjuntos "medibles de Lebesgue", de modo que el "volumen" se convierte en una medida topológica completa. Para "cuerpos" en (E ^ {3}, ) esta medida concuerda con nuestra idea intuitiva de "volumen".

Comenzamos con la función de volumen (v: mathcal {C} rightarrow E ^ {1} ) ("Medida previa de Lebesgue") en el semireado ( mathcal {C} ) de todos los intervalos en (E ^ {n} ) (§1). Como vimos en §§5 y 6, esta medida previa induce una medida externa (m ^ {*} ) en todos los subconjuntos de (E ^ {n}; ) y (m ^ {*}, ) a su vez, induce una medida (m ) en el ( sigma ) - campo ( mathcal {M} ^ {*} ) de (m ^ {*} ) - conjuntos medibles. Estos conjuntos son, por definición, los conjuntos mensurables de Lebesgue (brevemente (L ) - mensurables); (m ^ {*} ) y (m ) así definidos son la medida exterior de Lebesgue ( (n ) - dimensional) y la medida de Lebesgue.

Teorema ( PageIndex {1} )

La premedida de Lebesgue (v ) es ( sigma ) - aditiva en ( mathcal {C}, ) los intervalos en (E ^ {n} ). Por lo tanto, estos últimos son medibles en Lebesgue ( left ( mathcal {C} subseteq mathcal {M} ^ {*} right), ) y el volumen de cada intervalo es igual a su medida de Lebesgue:

[v = m ^ {*} = m text {en} mathcal {C}. ]

Esto sigue por el Corolario 1 en §2 y el Teorema 2 de §6

Nota 1. Como ( mathcal {M} ^ {*} ) es un ( ( sigma ) - campo §6), está cerrado bajo uniones contables, intersecciones contables y diferencias. Por lo tanto

[ mathcal {C} subseteq mathcal {M} ^ {*} text {implica} mathcal {C} _ { sigma} subseteq mathcal {M} ^ {*}; ]

es decir, cualquier unión contable de intervalos es (L ) - medible. Además, (E ^ {n} in mathcal {M} ^ {*} ).

Corolario ( PageIndex {1} )

Cualquier conjunto contable (A subconjunto E ^ {n} ) es (L ) - medible, con (m A = 0 ).

Prueba

La prueba es como en el Corolario 6 del § 2.

Corolario ( PageIndex {2} )

La medida de Lebesgue de (E ^ {n} ) es ( infty ).

Prueba

Demuestre como en el Corolario 5 de §2.

Ejemplos de

(a) Deja

[R = left { text {racionales en} E ^ {1} right }. ]

Entonces (R ) es contable (Corolario 3 del Capítulo 1, §9); entonces (m R = 0 ) por el Corolario 1. De manera similar para (R ^ {n} ) (puntos racionales en (E ^ {n}) ).

(b) La medida de un intervalo con extremos (a, b ) en (E ^ {1} ) es su longitud, (b-a. )

Dejar

[R_ {o} = { text {todos los racionales en} [a, b] }; ]

entonces (m R_ {o} = 0. ) Como ([a, b] ) y (R_ {o} ) están en ( mathcal {M} ^ {*} ) (a ( sigma ) - campo), también lo es

[[a, b] -R_ {o}, ]

los irracionales en ([a, b]. ) Por el Lema 1 en §4, si (b> a, ) entonces

[m left ([a, b] -R_ {o} right) = m ([a, b]) - m R_ {o} = m ([a, b]) = ba> 0 = m R_ {o}. ]

Esto muestra de nuevo que los irracionales forman un conjunto "más grande" que los racionales (cf. Teorema 3 del Capítulo 1, §9).

(c) Hay incontables conjuntos de medidas cero (véanse los problemas 8 y 10 a continuación).

Teorema ( PageIndex {2} )

La medida de Lebesgue en (E ^ {n} ) es completa, topológica y totalmente ( sigma ) - finita. Es decir,

(i) todos los conjuntos nulos (subconjuntos de conjuntos de medida cero) son (L ) - medibles;

(ii) también lo son todos los conjuntos abiertos ( left ( mathcal {M} ^ {*} supseteq mathcal {G} right), ) por lo tanto, todos los conjuntos de Borel ( left ( mathcal {M} ^ {*} supseteq mathcal {B} right); ) en particular, ( mathcal {M} ^ {*} supseteq mathcal {F}, mathcal {M} ^ {*} supseteq mathcal {G} _ { delta}, mathcal {M} ^ {*} supseteq mathcal {F} _ { sigma}, mathcal {M} ^ {*} supseteq mathcal {F} _ { sigma delta}, ) etc .;

(iii) cada (A in mathcal {M} ^ {*} ) es una unión contable de conjuntos disjuntos de medida finita.

Prueba

(i) Esto se sigue del Teorema 1 en §6.

(ii) Según el Lema 2 en §2, cada conjunto abierto está en ( mathcal {C} _ { sigma}, ) por lo tanto en ( mathcal {M} ^ {*} ) (Nota 1). Así ( mathcal {M} ^ {*} supseteq mathcal {G}. ) Pero por definición, el campo de Borel ( mathcal {B} ) es el mínimo ( sigma ) - ring ( supseteq mathcal {G}. ) Por lo tanto ( mathcal {M} ^ {*} supseteq mathcal {B} ^ {*} ).

(iii) Como (E ^ {n} ) está abierto, es una unión contable de intervalos semiabiertos disjuntos,

[E ^ {n} = bigcup_ {k = 1} ^ { infty} A_ {k} text {(disjunto),} ]

con (m A_ {k} < infty ) (Lema 2 §2). Por eso

[ left ( forall A subseteq E ^ {n} right) quad A subseteq bigcup A_ {k}; ]

entonces

[A = bigcup_ {k} left (A cap A_ {k} right) text {(disjunto).} ]

Si, además, (A in mathcal {M} ^ {*}, ) entonces (A cap A_ {k} in mathcal {M} ^ {*}, ) y

[m left (A cap A_ {k} right) leq m A_ {k} < infty. text {(¿Por qué?)} quad square ]

Nota 2. Más generalmente, un ( sigma ) - conjunto finito (A in mathcal {M} ) en un espacio de medida ((S, mathcal {M}, mu) ) es una unión contable de conjuntos disjuntos de medida finita (Corolario 1 del § 1).

Nota 3. No todos los conjuntos medibles (L ) son conjuntos de Borel. Por otro lado, no todos los conjuntos en (E ^ {n} ) son (L ) - medibles (vea los problemas 6 y 9 a continuación).

Teorema ( PageIndex {3} )

(a) La medida exterior de Lebesgue (m ^ {*} ) en (E ^ {n} ) es ( mathcal {G} ) - regular; es decir,

[ left ( forall A subseteq E ^ {n} right) quad m ^ {*} A = inf {m X | A subseteq X in mathcal {G} } ]

( ( mathcal {G} = ) conjuntos abiertos en (E ^ {n} )).

(b) La medida de Lebesgue (m ) es fuertemente regular (Definición 5 y Teoremas 1 y 2, todos en §7).

Prueba

Por definición, (m ^ {*} A ) es el glb de todos los valores de cobertura de base de (A. ) Por lo tanto, dado ( varepsilon> 0, ) hay una cobertura básica ( left { B_ {k} right } subseteq mathcal {C} ) de conjuntos no vacíos (B_ {k} ) tales que

[A subseteq bigcup B_ {k} text {y} m ^ {*} A + frac {1} {2} varepsilon geq sum_ {k} v B_ {k}. ]

(¿Por qué? ¿Y si (m ^ {*} A = infty )?)

Ahora, por el Lema 1 en §2, fije para cada (B_ {k} ) un intervalo abierto (C_ {k} supseteq B_ {k} ) tal que

[v C_ {k} - frac { varepsilon} {2 ^ {k + 1}}

Entonces (2) produce

[m ^ {*} A + frac {1} {2} varepsilon geq sum_ {k} left (v C_ {k} - frac { varepsilon} {2 ^ {k + 1}} derecha) = sum_ {k} v C_ {k} - frac {1} {2} varepsilon; ]

entonces por ( sigma ) - subaditividad,

[m bigcup_ {k} C_ {k} leq sum_ {k} m C_ {k} = sum_ {k} v C_ {k} leq m ^ {*} A + varepsilon. ]

Dejar

[X = bigcup_ {k} C_ {k}. ]

Entonces (X ) está abierto (como lo están los (C_ {k} )). Además, (A subseteq X, ) y por (3),

[m X leq m ^ {*} A + varepsilon. ]

Por lo tanto, de hecho, (m ^ {*} A ) es la (g l b ) de todas las (m X, A subseteq X in mathcal {G}, ) que prueban (a).

En particular, si (A in mathcal {M} ^ {*}, ) (1) muestra que (m ) es regular (para (m ^ {*} A = m A). Además, según el Teorema 2, (m ) es ( sigma ) - finito, y (E ^ {n} in mathcal {M} ^ {*}; ) entonces (b) sigue el Teorema 1 en §7. ( Quad cuadrado )


Mathematica para algoritmos de predicción

En este documento se dan esquemas y ejemplos de varias implementaciones relacionadas de la integración de Lebesgue, [1], dentro del marco de NIntegrate, [7]. La atención se centra en las implementaciones de los algoritmos de integración de Lebesgue que tienen múltiples opciones y se pueden extender fácilmente (para hacer más investigación, optimización, etc.) En términos de terminología de marco de NI Integrate & # 8216s, se muestra cómo implementar un estrategia de integración o regla de integración basado en la teoría de la integral de Lebesgue. La implementación completa de esas estrategias y reglas & # 8212 LebesgueIntegration, LebesgueIntegrationRule y GridLebesgueIntegrationRule & # 8212 se dan en el Mathematica paquete [5].

La ventaja de utilizar el marco NIntegrate & # 8216s es que se puede emplear una gran cantidad de algoritmos de soporte para el preprocesamiento, ejecución, experimentación y pruebas (corrección, comparación y creación de perfiles).

A continuación se muestra una breve descripción de la estrategia de integración LebesgueIntegration en [5]:

    preparar una función que calcule estimaciones de medidas basadas en puntos aleatorios o secuencias de puntos de baja discrepancia en el dominio de integración

use NIntegrate para el cálculo de integrales unidimensionales para esa función de estimación de medida sobre el rango de los valores de la función integrando.

La estrategia es adaptativa debido al segundo paso & # 8212 NIntegrate utiliza algoritmos de integración adaptativa.

En lugar de utilizar una estrategia de integración, podemos "meter" todo el proceso de integración de Lebesgue en una regla de integración, y luego usar esa regla de integración con los algoritmos de integración adaptativos que NIntegrate ya tiene. Esto se hace con las implementaciones de las reglas de integración LebesgueIntegrationRule y GridLebesgueIntegrationRule.


7.8: Medida de Lebesgue

La medida más natural en un espacio lineal de dimensión finita es, por supuesto, la medida de Lebesgue. Sin embargo, no es una medida de probabilidad (la medida de todo el espacio es infinito, no 1) y no existe en una dimensión infinita.

La medida de probabilidad más natural en un espacio lineal (de dimensión finita o infinita) es la medida gaussiana.

La teoría moderna de las medidas gaussianas se encuentra en la intersección de la teoría de los procesos aleatorios, el análisis funcional y la física matemática y está estrechamente relacionada con diversas aplicaciones en la teoría cuántica de campos, la física estadística, las matemáticas financieras y otras áreas de las ciencias. El estudio de las medidas gaussianas combina ideas y métodos de la teoría de la probabilidad, el análisis no lineal, la geometría, los operadores lineales y los espacios vectoriales topológicos de una manera hermosa y no trivial. (Prefacio, pág. Xi.)
V.I. Bogachev, "Medidas gaussianas", AMS 1998.

Isoperimetría

La principal propiedad geométrica de ambas medidas (Lebesgue y Gaussiana) es una desigualdad isoperimétrica. Para la medida de Lebesgue es clásica (J. Steiner 1842, H. Schwarz 1884). Entre todos los cuerpos de un volumen dado, una bola minimiza el área de superficie. Para la medida gaussiana, ha aparecido una desigualdad isoperimétrica en el trabajo

Se encontró de forma independiente en

C. Borell, "La desigualdad de Brunn-Minkowski en el espacio de Gauss", Invent. Matemáticas. 30:2 (1975), 207-216.

Más tarde han aparecido pruebas mucho mejores (A. Ehrhard 1983 M. Ledoux 1994 S. Bobkov 1997).

Entre todos los conjuntos de una probabilidad dada, un medio espacio minimiza la probabilidad de una vecindad.

La isoperimetría gaussiana implica teoremas muy generales sobre la distribución de probabilidad de la norma de un vector aleatorio gaussiano, así como el máximo de un proceso aleatorio gaussiano. Tal distribución debe tener una densidad (excepto por un posible átomo en el extremo inferior). Además, la densidad es continua excepto, quizás, un conjunto finito o contable, donde salta hacia abajo. Estos hechos se encontraron inicialmente en la obra

La prueba fue innecesariamente complicada. Más tarde se encontró un enfoque mucho mejor, basado en hermosos resultados geométricos de A. Ehrhard, ver Corolario 4.4.2 en el libro de V.I. Bogachev, "Medidas gaussianas", AMS 1998.

Citando obras (1974-2010)

(incluidas las obras que no citan mis artículos pero que siguen utilizando "desigualdad Borel-TIS", etc.)

Funciones y vectores aleatorios, miden la concentración.

Adler, Aida, Ajiev, Ambrosio, Arcones, Azais, Bakry, Ball, Barthe, Baudoin, Bayle, Bentkus, Blower, Bobkov, Bogachev, Borell, Brandolini, Byczkowski, Canete, Canzani, Carmona, Cattiaux, Chatterjee, Davydov, Deheuvels, Del Barrio, Diebolt, Dudley, Ehrhard, Fatalov, Gao, Gardner, Gentil, Giannopoulos, Gine, Gluskin, Goldman, Gotze, Gourcy, Gozlan, Guerra, Guillin, Hairer, Hoffman-Jorgensen, Horfelt, Houdre, Hu, Jakobson, Konakov , Kratz, Latala, Le, Ledoux, Lewandowski, Li, Lifshits, Linde, Makarova, Maniglia, Marchal, Martin, Massart, Mathieu, Matran, Maurey, Meckes, Milman E., Milman M., Milman V., Miranda, Montenegro Morgan, Nazarov, Oleszkiewicz, Pallara, Paulauskas, Peres, Piterbarg, Posse, Privault, Rackauskas, Roberto, Rosales, Ryznar, Samotij, Shao, Shepp, Smolyanov, Smorodina, Sodin, Stamatovich, Sudakov, Talagrand, Taylor, Toninelli , Virag, Vitale, Vittone, Wang, Wigman, Wojtaszczyk, Wschebor, Wu, Yurinsky, Zak. (Detalle)

Aplicaciones estadísticas (y otras)

Addario-Berry, Arcones, Arlot, d'Aspremont, Barabas, Baraud, Baringhaus, Barron, Beran, Bickel, Bigot, Birge, Blanchard, Bobkov, Broutin, Burr, Byambazhav, Chesneau, Chung, Csorgo, Dabrowska, Devroye, Doss, Dossal, Gaenssler, Gadat, van de Geer, Ghaoui, Gill, Gine, Grigoriev, Grubel, Hall, Ho, Horvath, Huet, Johnstone, Kerkyacharian, Kokoszka, Koltchinskii, Krieger, Le Pennec, Li, Lugosi, Mallat, Mammen, Mason , Massart, Millar, Milstein, Mogulskii, Molnar, Neumann, Nussbaum, Pensky, Picard, Pitts, Politis, Polzehl, Reynaud-Bouret, Romano, Roquain, Rost, Sapatinas, Tillich, Tribouley, Vakulenco, Van Keilegom, Veraverbeke, Wolf, Yandell, Zemor, Zhang, Zhou, Zilberburg, Zitikis. (Detalle)

Ecuaciones diferenciales parciales

Betta, Brock, Chiacchio, Feo, Ferone, Mercaldo. (Detalle)

Estructura, isomorfismo, convergencia de series

Vale la pena señalar aquí que una de las ideas fundamentales en la teoría de medidas gaussianas es que las diversas medidas radón gaussianas centradas son realizaciones de una y la misma medida gaussiana "canónica": el producto contable de las distribuciones gaussianas normales estándar en la línea . (Prefacio, pág. Xi.)
La principal herramienta para transferir los resultados clásicos a la configuración general de espacios localmente convexos son los teoremas 3.4.1, 3.4.4 y 3.5.1 que se deben esencialmente a Tsirelson [774], [775]. .
Se investigó la convergencia de series y secuencias de vectores gaussianos. Las obras de Ito y Nisio [371] y Tsirelson [774], [775] fueron de particular importancia para esta dirección. (Comentarios de la Biblia al Capítulo 3, p. 383-384.)
V.I. Bogachev, "Medidas gaussianas", AMS 1998.

Los resultados han aparecido en

Citando obras (1976-2010)

Bobkov, Bogachev, Chevet, Chuprunov, Gardner, Kobanenko, Krylov, Lifshits, Rockner, Sato, Smolyanov, Sudakov, Talagrand. (Detalle)


7.8: Medida de Lebesgue

Teoría de la medida e integración de Lebesgue - Matemáticas 621 - Otoño de 2004

Descripción general: El objetivo de este curso es proporcionar un tratamiento riguroso para medir la teoría y la integración de Lebesgue. Los temas incluyen: teoría de la medida, integración, espacios Lp.

Instructor: & nbsp Kasso Okoudjou, 411 Malott Hall, [email protected], teléfono: 255-7244.

Asistente de enseñanza: & nbsp Yan Zeng, 104 Malott Hall, [email protected]

Libro de texto: & nbsp Robert Bartle, Los elementos de integración y la medida de Lebesgue, John Wiley & Sons, 1995. ISBN 0-471-04222-6.

Conferencias: TR 8:40 - 9:55, MT 206

  • Kasso Okoudjou, 411 Malott Hall (teléfono: 255-7244), martes de 10:00 a 11:00, jueves de 11:00 a 12:00 (o con cita previa).
  • Yan Zeng, 104 Malott Hall (Teléfono: 255-7554), miércoles 1:00 - 3:00 p.m.

  • Las asignaciones de tareas deben entregarse en clase el jueves, cubriendo el material de las dos semanas anteriores. Solo un SUBCONJUNTO de los problemas asignados serán elegidos y calificados. Sin embargo, le recomiendo encarecidamente que resuelva todas las tareas. Está bien trabajar en los conjuntos de problemas en cooperación con otros, pero debe escribir las soluciones usted mismo.
  • Además de las asignaciones de tareas quincenales, habrá dos exámenes para llevar a casa:
    El examen de mitad de período se asignará en clase el 14 de octubre y se entregará en clase el 21 de octubre.


Valor

MDE1stage: la lista del resultado de la estimación de distancia mínima de la primera etapa. Contiene betahat1stage, residual1stage y rho1stage.

betahat1stage - Los estimadores de distancia mínima de la primera etapa de los coeficientes de regresión.

residual1stage - Residuos después de la estimación de distancia mínima de la primera etapa.

rho1stage - Los estimadores de distancia mínima de la primera etapa de los coeficientes autorregresivos del error.

MDE2stage: la lista del resultado de la estimación de distancia mínima de la segunda etapa. Contiene betahat2stage, residual2stage y rho2stage.

betahat2stage - Los estimadores de distancia mínima de la segunda etapa de los coeficientes de regresión.

residual2stage - Residuos después de la estimación de la distancia mínima de la segunda etapa.

rho2stage - Los estimadores de distancia mínima de la segunda etapa de los coeficientes autorregresivos del error.


Densidad de un conjunto

Dado un conjunto medible de Lebesgue $ E $ en el espacio euclidiano estándar $ mathbb R ^ n $ y un punto $ x in mathbb R ^ n $, las densidades superior e inferior de $ E $ en $ x $ se definen respectivamente como [ limsup_ frac < lambda (B_r (x) cap E)> < omega_n r ^ n> qquad mbox qquad liminf_ frac < lambda (B_r (x) cap E)> < omega_n r ^ n> ,, ] donde $ lambda $ denota la medida de Lebesgue y $ omega_n $ el volumen de la unidad $ n $ - bola dimensional. Si los dos números coinciden, es decir, si existe el siguiente límite, [ lim_ frac < lambda (B_r (x) cap E)> < omega_n r ^ n> ,, ] el número resultante se llama la densidad de $ E $ en $ x $. El siguiente es un resultado clásico en la teoría de medidas (ver por ejemplo el Corolario 3 en la Sección 1.7 de [EG]), debido a Lebesgue en el caso $ n = 1 $:

Teorema 1 La densidad de un conjunto medible de Lebesgue $ E subset mathbb R ^ n $ es $ 1 $ en $ lambda $ -a.e. $ x en E $ y $ en $ lambda $ -a.e. $ x no en E $.

Los puntos del primer tipo también se denominan puntos de densidad de $ E $, mientras que los segundos puntos se denominan puntos de dispersión.Los puntos de densidad y los puntos de dispersión a veces se definen también para conjuntos no medibles $ E $: en ese caso se usa la medida externa de Lebesgue, cp. con las Secciones 2.9.11 y 2.9.12 de [Fe] (ver medida de Lebesgue).

Densidad de una medida

El concepto anterior se ha generalizado en la teoría de medidas geométricas a medidas, a partir del trabajo de Besicovitch. Considere una medida de radón (localmente finita) $ mu $ en el espacio euclidiano $ mathbb R ^ n $, un punto $ x in mathbb R ^ n $ y un número real no negativo $ alpha $ (ver, por ejemplo, Definición 2.14 de [De] o Definición 6.8 de [Ma]). Las densidades superior e inferior de $ alpha $ -dimensionales de $ mu $ en $ x $ se definen como [ theta ^ < alpha, *> ( mu, x): = limsup_ frac < mu (B_r (x))> < omega_ alpha r ^ alpha> qquad mbox qquad theta ^ alpha_ * ( mu, x) = liminf_ frac < mu (B_r (x))> < omega_ alpha r ^ alpha> ,, ] donde el factor de normalización $ omega_ alpha $ es el volumen $ alpha $ -dimensional de la bola unitaria en $ mathbb R ^ alpha $ cuando $ alpha $ es un entero positivo y en general $ omega_ alpha = pi ^ < alpha / 2> Gamma (1+ alpha / 2) $. Si los dos números coinciden, el valor resultante se llama $ alpha $ -densidad dimensional de $ mu $ en $ x $. El siguiente teorema de Marstrand muestra que la densidad podría existir y no ser trivial si y solo si $ alpha $ es un número entero (nos referimos al capítulo 3 de [De] para su demostración).

Teorema 2 Sea $ mu $ una medida de radón localmente finita en $ mathbb R ^ n $ y $ alpha $ un número real no negativo tal que la densidad $ alpha $ -dimensional de $ mu $ existe y es positiva en un conjunto de medida positiva $ mu $. Entonces $ alpha $ es necesariamente un número entero.

Teorema de lebesgue

Con respecto a las densidades $ n $ -dimensionales, el siguiente teorema corresponde al hecho de que, dada una función sumable $ f $, $ lambda $ -a.e. el punto $ x $ es un punto de Lebesgue para $ f $:

Teorema 3 (Teorema 1 de la sección 1.7 de [EG]) Sea $ f en L ^ 1_ ( mathbb R ^ n) $ y considera la medida beginetiqueta mu (A): = int_A f , d lambda ,. final Entonces, la densidad dimensional $ n $ de $ mu $ existe en $ lambda $ - a.e. $ x in mathbb R ^ n $ y coincide con $ f (x) $.

Un resultado similar en la dirección opuesta se mantiene y es un caso particular de un resultado más general en la diferenciación de medidas:

Teorema 4 Sea $ mu $ una medida de radón localmente finita en $ mathbb R ^ n $. Si la densidad $ n $ -dimensional $ theta ^ n ( mu, x) $ existe para $ mu $ -a.e. $ x $, entonces la medida $ mu $ viene dada por la fórmula ref donde $ f = theta ^ n ( mu, cdot) $.

El último teorema se puede generalizar a Hausdorff $ alpha $ -medidas dimensionales $ mathcal^ alpha $ (cp. con el teorema 6.9 de [Ma]).

Teorema 5 Sea $ mu $ una medida de radón localmente finita en $ mathbb R ^ n $. Si la densidad superior $ alpha $ -dimensional existe y es positiva y finita en $ mu $ -a.e. $ x in mathbb R ^ n $, entonces hay una función de Borel $ f $ y un conjunto de Borel $ E $ con una medida de Hausdorff localmente finita $ alpha $ -dimensional tal que [ mu (A) = int_ f , d mathcal^ alpha ,. ]

También es posible una generalización del teorema 3, pero mucho más sutil (ver más abajo).

Densidades de menor dimensión de un conjunto

Suponga que $ E subset mathbb R ^ n $ es un conjunto de Borel con una medida finita de Hausdorff $ alpha $ -dimensional. Las densidades superior e inferior $ alpha $ -dimensionales $ theta ^ < alpha, *> (E, x) $ y $ theta ^ alpha_ * (E, x) $ de $ E $ en $ x $ son definido como [ theta ^ < alpha, *> (E, x): = limsup_ frac < mathcal^ alpha (E cap B_r (x))> < omega_ alpha r ^ alpha> qquad mbox qquad theta ^ alpha_ * (E, x) = liminf_ frac < mathcal^ alpha (E cap B_r (x))> < omega_ alpha r ^ alpha> , ] (cp. con la Definición 6.1 de [Ma]) Corresponden, por tanto, a la $ alpha $ - densidades dimensionales (superior e inferior) de la medida de radón $ mu $ dada por [ mu (A): = mathcal^ alpha (A cap E) , qquad mbox A subconjunto mathbb R ,. ] El siguiente es un teorema clásico en la teoría de medidas geométricas (cp. Con el teorema 6.2 de [Ma]):

Teorema 6 Si $ E subset mathbb R ^ n $ es un conjunto de Borel con una medida finita $ alpha $ -dimensional de Hausdorff, entonces

  • $ theta ^ < alpha, *> (E, x) = 0 $ por $ mathcal^ alpha $ -a.e. $ x no en E $.
  • $ 1 geq theta ^ alpha_ * (E, x) geq 2 ^ <- alpha> $ por $ mathcal^ alpha $ -a.e. $ x en E $.

Teorema de Besicovitch-Preiss y rectificabilidad

Sin embargo, la existencia de la densidad falla en general: como consecuencia del Teorema 2 de Marstrand, la existencia de una densidad $ alpha $ -dimensional no trivial implica que $ alpha $ es un número entero. Pero incluso en el caso de que $ alpha $ sea un número entero, Besicovitch descubrió que la densidad no existe necesariamente. De hecho, Preiss logró la siguiente generalización del teorema de Besicovitch a mediados de los años ochenta (véanse los capítulos 6, 7, 8 y 9 de [De] para una exposición de la demostración de Preiss):

Teorema 7 Sea $ E subset mathbb R ^ n $ un conjunto de Borel con medida de Hausdorff positiva y finita $ k $ -dimensional, donde $ k in mathbb N $. La densidad de $ k $ -dimensional existe en $ mathcal^ k $ -a.e. $ x in E $ si y solo si el conjunto $ E $ es rectificable, es decir, si hay innumerables subvariedades $ C ^ 1 $ $ k $ -dimensionales de $ mathbb R ^ n $ que cubren $ mathcal^ k $ -casi todos $ E $.

Para conjuntos no rectificables $ E $, la densidad de menor dimensión puede mostrar una variedad de comportamientos diferentes. Besicovitch demostró que para conjuntos no rectificables de $ 1 $ -dimensionales, la densidad dimensional inferior no puede ser mayor que $ frac <3> <4> $ y adelantó la siguiente conjetura de larga data (cp. Con la conjetura 10.5 de [De]).

Conjetura 8 Sea $ E subset mathbb R ^ 2 $ un conjunto de Borel con una medida de Hausdorff positiva y finita de $ 1 $ -dimensional. Si $ theta ^ 1_ * (E, x) & gt frac <1> <2> $ por $ mathcal^ 1 $ -a.e. $ x en E $, entonces el conjunto $ E $ es rectificable.

Preiss y Tiser han mejorado el umbral de $ frac <3> <4> $ de Besicovitch en [PT].

Teorema de Besicovitch-Marstrand-Preiss

Combinando los diversos teoremas expuestos hasta ahora llegamos a la siguiente caracterización de medidas $ mu $ para las cuales existen densidades y no son triviales en casi todas partes.

Teorema 9 Sea $ mu $ una medida de radón localmente finita y $ alpha $ un número real no negativo. Entonces $ theta ^ alpha ( mu, x) $ existe, es finito y positivo en $ mu $ -a.e. $ x in mathbb R ^ n $ si y solo $ alpha $ es un número entero $ k $ y hay un conjunto Borel rectificable $ k $ -dimensional $ E $ y una función Borel $ f: E to] 0 , infty [$ tal que [ mu (A) = int_ f , d mathcal^ k qquad mbox Un subconjunto mathbb R ^ n ,. ] Además, en este caso $ theta ^ k (E, x) = f (x) $ por $ mathcal^ k $ -a.e. $ x in E $ y $ theta ^ k (E, x) = 0 $ para $ mathcal^ k $ -a.e. $ x no en E $.

Comentarios

Ver [Ta] para una buena aplicación topológica de la noción clásica de densidad de Lebesgue.

La definición de densidad $ alpha $ -dimensional de una medida de Radon se puede generalizar a espacios métricos. En general, sin embargo, se sabe muy poco fuera del contexto euclidiano (cp. Con la Sección 10.0.2 de [De]).


Blog de Shuanglin & # 039s

Proposición 2.21. El conjunto de funciones integrables de valor real en es un espacio vectorial real, y la integral es una funcional lineal en él.

Prueba. Necesitamos probar dos afirmaciones.

(1). para cualquier Esto es fácil: distinguimos tres casos,

(2). Es de observar que, si $ h = f + g, $

luego . Lo reorganizamos para obtener

. Tomando integrales en ambos lados se obtiene (2).

Definición. La función de valor complejo es integrable si y ambos son integrables.

Observación. Es fácil ver que el espacio de funciones integrables complejas valoradas es un espacio vectorial complejo y la integral es una funcional lineal sobre él. Se denota por.

Observación. Consideraremos como un conjunto de clases de equivalencia de a.e. funciones integrables definidas en, donde y se consideran equivalentes si y solo si.

Prueba. Cuando se valora de verdad, la prueba es fácil. Para valores complejos, existe,

por linealidad de integrales. Además es igual

Proposición 2.24. (El teorema de la convergencia dominada.) Sea una secuencia tal que

(B). Existe s.t. para a.e. para todos . Luego

Prueba. Sin pérdida de generalidad, asumimos que es real valorado.

Paso 1. La afirmación de que es fácil.

El mismo proceso se puede aplicar a $ int g + f $ para mostrar

Teorema 2.26. Si y, hay una función simple integrable tal que Si es la medida de Lebesgue-Stieljes activada, los conjuntos en la definición de pueden llevarse a uniones finitas de intervalos abiertos, además hay una función continua que desaparece fuera de un intervalo acotado tal que

Prueba. Paso 1. Para una función integrable, existe una secuencia de funciones simples tal que

Paso 2. Del Paso 1, es decir

Así para cada uno. $ Para cada uno, según el teorema 1.20, existe un conjunto que es uniones finitas de intervalos abiertos tales que para alguna pequeña constante. Al tomar pequeño, podemos considerar que los conjuntos en la definición de son uniones finitas de intervalos abiertos.

Paso 3. Dado que podemos aproximar cada uno, donde es un intervalo abierto de longitud finita, mediante funciones continuas con la siguiente propiedad

por alguna constante. Al tomar pequeño, podemos reemplazar por una función continua que desaparece fuera de un intervalo acotado tal que

Teorema 2.27. Supongamos que eso y que es integrable para cada uno. Dejar .

(a). Supongamos que existe tal que para todos. Si por cada, entonces

. En particular, si es continuo para cada $ latrex x $, entonces es continuo.

(B). Supongamos que existe y hay tal que para todos. Entonces es diferenciable y

Prueba. (a). Estamos probando la afirmación en (a) utilizando una caracterización secuencial de continuidad. Sea, la secuencia de funciones medibles es uniformemente por una función y converge a $ f (x, t_0) $ puntualmente. Por lo tanto, según el teorema de convergencia dominado,

(B). La prueba es similar. Necesitamos demostrar que, para cada uno,

Al aplicar la función media para in, vemos que la secuencia está uniformemente limitada por una función a la que además converge. De nuevo por el teorema de convergencia dominado,

A continuación, discutimos la relación entre las funciones integrables de Riemann y la función medible de Lebesgue.

Teorema. Sea una función acotada de valor real en. Si es integrable de Riemann, entonces es integrable de Lebesgue. Además, las dos integrales son iguales.

Observación. Sin pérdida de generalidad, asumimos que es una función no negativa. Como en el teorema 2.10, hay una secuencia de funciones simples que satisface,

y uniformemente encendido. Aunque es un límite puntual de, la mensurabilidad de Lebesgue no está clara de inmediato. Deberíamos intentar demostrar la mensurabilidad de Lebesgue de otras formas.

Prueba. Dejemos por una partición de. Dejar

donde son supremum e infimum de on. Como $ f $ es integrable de Riemann, podemos elegir una secuencia de particiones cuyo tamaño de malla y

Estos se entienden que las dos secuencias y tienen el mismo límite.

Por otro lado, por el teorema de convergencia monótona para funciones,

Por lo tanto, según el teorema de la convergencia dominada (las siguientes integrales se entienden en el sentido de Lebesgue).

Desde puntual, lo que produce eso. Dado que $ G $ es Lebesgue medible como funciones simples y es Lebesgue medible.


7.8: Medida de Lebesgue

El propósito de esta sección es explorar distribuciones continuas en espacios euclidianos.

Teoría básica

Definiciones y propiedades básicas

Para (n in N _ + ), recuerde que la (n ) - dimensional es (( R ^ n, ms R ^ n, lambda ^ n) ) donde ( ms R ^ n ) es el ( sigma ) - álgebra de los subconjuntos medibles de Borel de ( R ^ n ) y ( lambda ^ n ) es (n ) - medida dimensional de Lebesgue. Entonces ( lambda_1 ) está en conjuntos en ( ms R_1 ), ( lambda_2 ) está en conjuntos en ( ms R_2 ), ( lambda_3 ) está en conjuntos en ( ms R_3 ), y en general, ( lambda ^ n ) se puede considerar como (n ) - dimensional en conjuntos en ( ms R ^ n ). Nuestro punto de partida en esta sección es un subespacio ((S, ms S, lambda ^ n) ) donde (S in ms R ^ n ) con ( lambda ^ n (S) gt 0 ) y ( ms S = ). Normalmente, (S ) es una región de ( R ^ n ) definida por desigualdades que involucran funciones elementales, por ejemplo, un intervalo en ( R ), una región circular en ( R ^ 2 ) y una región cónica en ( R ^ 3 ). Aquí está nuestra primera definición fundamental.

Una medida de probabilidad ( P ) en ((S, ms S) ) es si ( P () = 0 ) para todo (x en S ).

Si ( P ) es una distribución continua, entonces ( P (C) = 0 ) para cada (C subseteq S ) contable.

Dado que (C ) es contable, del axioma de aditividad de la probabilidad se deduce que [ P (C) = sum_ PAG() = 0 ]

Entonces, las distribuciones continuas contrastan completamente con las distribuciones discretas, para las cuales toda la masa de probabilidad se concentra en los puntos de un conjunto contable. Para una distribución continua, la masa de probabilidad es continuamente repartidos por (S ) en algún sentido. En la siguiente imagen, el sombreado azul claro pretende sugerir una distribución continua de probabilidad.

Una distribución de probabilidad continua en (S )

El hecho de que a cada punto en (S ) se le asigne una probabilidad 0 mediante una distribución continua es conceptualmente lo mismo que el hecho de que un intervalo de ( R ) puede tener una longitud positiva aunque esté compuesto por (incontables) puntos, cada uno de los cuales tiene una longitud 0. De manera similar, una región de ( R ^ 2 ) puede tener un área positiva aunque esté compuesta de puntos (o curvas) cada uno de los cuales tiene un área 0. En resumen, la medida de Lebesgue ( lambda ^ n ) es una medida continua para (n in N _ + ). En el caso unidimensional, las distribuciones continuas se utilizan para modelar variables aleatorias que toman valores en intervalos de ( R ), variables que, en principio, pueden medirse con cualquier grado de precisión. Tales variables abundan en aplicaciones e incluyen

  • longitud, área, volumen y distancia
  • hora
  • masa y peso
  • carga, voltaje y corriente
  • resistencia, capacitancia e inductancia
  • velocidad y aceleración
  • energía, fuerza y ​​trabajo

Funciones de densidad

Recuerde que la integral asociada con la medida de Lebesgue ( lambda ^ n ) es la integral de Lebesgue. Para (f: S to R ) y (A in ms S ) medibles, la integral de (f ) sobre (A ) (asumiendo que existe) se denota ( int_S f (x) , d lambda ^ n (x) ) o más tradicionalmente por [ int_A f (x) , dx ] Como sugiere la notación tradicional, si (f ) y (A ) son suficientemente agradables, esta integral concuerda con la integral ordinaria de cálculo de Riemann. Las siguientes definiciones y resultados son casos especiales de los que se dan en la introducción, pero los repetimos aquí en este entorno más cómodo para completarlos y porque es posible que se haya saltado la introducción.

Una función medible (f: S a [0, infty) ) que satisface ( int_S f (x) , dx = 1 ) es ay luego (P ) definida de la siguiente manera es una medida de probabilidad en ((S, ms S) ): [P (A) = int_A f (x) , dx, quad A in ms S ]

La demostración se basa en propiedades básicas de la integral.

  1. (P (A) = int_A f (x) , dx ge 0 ) para (A in ms S ) ya que (f ) no es negativo.
  2. (P (S) = int_S f (x) , dx = 1 ) por supuesto.
  3. Suponer que () es una colección disjunta contable de conjuntos en ( ms S ) y sea (A = bigcup_ Ai). Entonces, por la propiedad de aditividad de la integral, [P (A) = int_A f (x) , dx = sum_ En t_ f (x) , dx = sum_ P (A_i) ]

Finalmente, (P () = 0 ) desde ( lambda ^ n () = 0 ) para (x en S ). Técnicamente, (f ) es una función de densidad de probabilidad relativa a la medida de Lebesgue ( lambda ^ n ).

Una distribución continua está completamente determinada por su función de densidad de probabilidad

Tenga en cuenta que siempre podemos extender (f ) a una función de densidad de probabilidad para todo ( R ^ n ), definiendo (f (x) = 0 ) para (x notin S ). Esta extensión a veces simplifica la notación. Dicho de otra manera, podemos ser un poco descuidados con el conjunto de valores de una variable aleatoria con una distribución continua. Entonces, por ejemplo, si (a, , b in R ) con (a lt b ) y (X ) tiene una distribución continua en el intervalo ([a, b] ), entonces también podríamos decir que (X ) tiene una distribución continua en ((a, b) ) o ([a, b) ), o ((a, b] ). Para obtener detalles sobre el recíproco dado a continuación, vea la sección sobre continuidad absoluta y funciones de densidad en el capítulo sobre cimentaciones.

Una medida de probabilidad (P ) en ((S, ms S) ) tiene una función de densidad de probabilidad (f ) si y solo si (P ) es relativa a ( lambda ^ n ) , de modo que ( lambda ^ n (A) = 0 ) implica (P (A) = 0 ) para (A in ms S ).

Claramente, si (P ) es absolutamente continuo, entonces es continuo, ya que como se señaló antes ( lambda ^ n = 0 ) para (x en S ). Pero lo contrario falla, como veremos en algunos de los ejemplos siguientes. En resumen, la continuidad absoluta es una propiedad mucho más fuerte que la mera continuidad. Si (P ) es absolutamente continua, la función de densidad de probabilidad solo es única hasta un conjunto de medida de Lebesgue 0. Es decir, si (f ) y (g ) son funciones de densidad de (P ) entonces [ lambda ^ n = 0 ] Tenga en cuenta de nuevo que solo integrales de la función de densidad de probabilidad son importantes.Hay otras diferencias entre las funciones de densidad en espacios euclidianos y las funciones de densidad en espacios discretos. Los valores de la función de densidad (f ) para una distribución en un espacio discreto ((S, ms S, #) ) son probabilidades, y en particular (f (x) le 1 ) para (x in S ). Para una función de densidad (f ) en el espacio euclidiano ((S, ms S, lambda ^ n) ) que consideramos en esta sección, los valores de (f ) no son probabilidades y de hecho es posible que (f (x) gt 1 ) para algunos o incluso todos (x en S ). Además, (f ) puede ser ilimitado en (S ). En la interpretación de cálculo típica, (f (x) ) realmente es probabilidad densidad en (x ). Es decir, (f (x) , dx ) es aproximadamente la probabilidad de una región pequeña de tamaño (dx ) alrededor de (x ).

Los puntos (x en S ) que maximizan una función de densidad de probabilidad (f ) son a veces importantes, como en el caso discreto.

Suponga que (P ) es una medida de probabilidad en ((S, ms S) ) con función de densidad de probabilidad (f ). Un elemento (x en S ) que maximiza (f ) es un de la distribución.

El concepto es útil cuando hay un natural función de densidad de probabilidad (digamos una que es continua) y cuando el modo es único. En este caso, el modo se utiliza a veces como una medida de la centrar de la distribución.

Al igual que en el caso discreto, una función no negativa en (S ) a menudo se puede escalar para producir una función de densidad de probabilidad.

Suponga que (g: S to [0, infty) ) es medible y sea (c = int_S g (x) , dx ). Si (c in (0, infty) ) entonces (f ) definido por (f (x) = frac <1> g (x) ) para (x in S ) define una función de densidad de probabilidad para una distribución absolutamente continua en ((S, ms S) ).

Claramente (f (x) ge 0 ) para (x in S ) y [ int_S f (x) , dx = frac <1> int_S g (x) , dx = frac = 1 ]

Tenga en cuenta nuevamente que (f ) es solo una versión escalada de (g ). Por tanto, este resultado se puede utilizar para construir funciones de densidad de probabilidad con las propiedades deseadas (dominio, forma, simetría, etc.). La constante (c ) a veces se llama de (g ).

Densidades condicionales

Supongamos ahora que (X ) es una variable aleatoria definida en un espacio de probabilidad (( Omega, ms F, P) ) y que (X ) tiene una distribución continua en (S ). Una función de densidad de probabilidad para (X ) se basa en la medida de probabilidad subyacente en el espacio muestral (( Omega, ms F) ). Esta medida podría ser una medida de probabilidad condicional, condicionada a un evento dado (E in ms F )

Suponga que (X ) es absolutamente continuo con la función de densidad (f ) y que (E in ms F ) tiene probabilidad positiva. Entonces la distribución condicional de (X ) dada (E ) es absolutamente continua con la función de densidad de probabilidad denotada por (f ( cdot mid E ).

Por la continuidad absoluta de (X ), si (A in ms S ) y ( lambda ^ n (A) = 0 ) entonces [ P (X in A mid E) = frac < P (X en A, E)> < P (E)> = 0 ]

Tenga en cuenta que, a excepción de la notación, no hay nuevos conceptos involucrados. La propiedad definitoria es [ int_A f (x mid E) , dx = P (X in A mid E), quad A in ms S ] y todos los resultados que son válidos para las funciones de densidad de probabilidad en general, se aplica a las funciones de densidad de probabilidad condicional. El evento (E ) podría ser un evento descrito en términos de la propia variable aleatoria (X ):

Suponga que (X ) es absolutamente continua con la función de densidad de probabilidad (f ) y que (B in ms S ) con ( P (X in B) gt 0 ). La función de densidad de probabilidad condicional de (X ) dada (X en B ) es la función en (B ) dada por [f (x mid X in B) = frac< P (X en B)>, quad x en B ]

Para (A in ms S ) con (A subseteq B ), [ int_A frac < P (X en B)> , dx = frac <1> < P (X en B)> int_A f (x) , dx = frac < P (X en A) > < P (X in B)> = P (X in A mid X in B) ]

Por supuesto, ( P (X in B) = int_B f (x) , dx ) y por lo tanto es la constante normaliziang para la restricción de (f ) a (B ), como se indicó anteriormente

Ejemplos y aplicaciones

Como siempre, pruebe los problemas usted mismo antes de buscar las respuestas.

La distribución exponencial

Sea (f ) la función definida por (f (t) = re ^ <-rt> ) para (t in [0, infty) ), donde (r in (0, infty) ) es un parámetro.

  1. Demuestre que (f ) es una función de densidad de probabilidad.
  2. Dibuja un bosquejo cuidadoso de la gráfica de (f ) y enuncia las características cualitativas importantes.
  1. Tenga en cuenta que (f (t) gt 0 ) para (t ge 0 ). También ( int_0 ^ infty e ^ <-r t> , dt = frac <1>) entonces (f ) es una función de densidad de probabilidad.
  2. (f ) es decreciente y cóncava hacia arriba, por lo que la moda es 0. (f (x) a 0 ) como (x a infty ).

La distribución definida por la función de densidad de probabilidad en el ejercicio anterior se denomina parámetro con tasa (r ). Esta distribución se utiliza con frecuencia para modelar tiempos aleatorios, bajo ciertos supuestos. Específicamente, en el modelo de Poisson de puntos aleatorios en el tiempo, los tiempos entre llegadas sucesivas tienen distribuciones exponenciales independientes, y el parámetro (r ) es la tasa promedio de llegadas. La distribución exponencial se estudia en detalle en el capítulo sobre procesos de Poisson.

La vida útil (T ) de un determinado dispositivo (en unidades de 1000 horas) tiene la distribución exponencial con el parámetro (r = frac <1> <2> ). Encontrar

En el experimento gamma, establezca (n = 1 ) para obtener la distribución exponencial. Varíe el parámetro de tasa (r ) y observe la forma de la función de densidad de probabilidad. Para varios valores de (r ), ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

Un ángulo aleatorio

En, un cierto ángulo aleatorio ( Theta ) tiene la función de densidad de probabilidad (f ) dada por (f ( theta) = sin theta ) para ( theta in left [0, frac < pi> <2> right] ).

  1. Demuestre que (f ) es una función de densidad de probabilidad.
  2. Dibuje un bosquejo cuidadoso del gráfico (f ) y enuncie las características cualitativas importantes.
  3. Encuentra ( P left ( Theta lt frac < pi> <4> right) ).
  1. Tenga en cuenta que ( sin theta ge 0 ) para (0 le theta le frac < pi> <2> ) y ( int_0 ^ < pi / 2> sin theta , d theta = 1 ).
  2. (f ) aumenta y es cóncava hacia abajo, por lo que el modo es ( frac < pi> <2> ).
  3. (1 - frac <1> < sqrt <2>> approx 0.2929 )

El problema de Bertand lleva el nombre de Joseph Louis Bertrand y se estudia con más detalle en el capítulo sobre modelos geométricos.

En el experimento de Bertrand, seleccione el modelo con distancia uniforme. Ejecute la simulación 1000 veces y calcule la probabilidad empírica del evento ( left < Theta lt frac < pi> <4> right > ). Compare con la probabilidad real del ejercicio anterior.

Distribuciones gamma

Sea (g_n ) la función definida por (g_n (t) = e ^ <-t> frac) para (t in [0, infty) ) donde (n in N ) es un parámetro.

  1. Muestre que (g_n ) es una función de densidad de probabilidad para cada (n in N ).
  2. Dibuja un bosquejo cuidadoso de la gráfica de (g_n ) y enuncia las características cualitativas importantes.
  1. Tenga en cuenta que (g_n (t) ge 0 ) para (t ge 0 ). Además, (g_0 ) es la función de densidad de probabilidad de la distribución exponencial con el parámetro 1. Para (n in N_ + ), integración por partes con (u = t ^ n / n! ) Y (dv = e ^ <-t> dt ) da ( int_0 ^ infty g_n (t) , dt = int_0 ^ infty g_(t) , dt ). Por tanto, se deduce por inducción que (g_n ) es un PDF para cada (n in N_ + ).
  2. (g_0 ) es decreciente y cóncava hacia abajo, con modo (t = 0 ). Para (n gt 0 ), (g_n ) aumenta y luego disminuye, con el modo (t = n ). (g_1 ) es cóncavo hacia abajo y luego hacia arriba, con punto de inflexión en (t = 2 ). Para (n gt 1 ), (g_n ) es cóncavo hacia arriba, luego hacia abajo, luego hacia arriba nuevamente, con puntos de inflexión en (n pm sqrt ). Para todo (n in N ), (g_n (t) a 0 ) como (t a infty ).

Curiosamente, mostramos en la última sección sobre distribuciones discretas, que (f_t (n) = g_n (t) ) es una función de densidad de probabilidad en ( N ) para cada (t ge 0 ) (es la distribución de Poisson con el parámetro (t )). La distribución definida por la función de densidad de probabilidad (g_n ) pertenece a la familia de, llamada así por Agner Erlang (n + 1 ) se conoce como. La distribución de Erlang se estudia con más detalle en el capítulo sobre el proceso de Poisson. A su vez, la distribución Erlang pertenece a la familia más general de. La distribución gamma se estudia con más detalle en el capítulo sobre distribuciones especiales.

En el experimento gamma, mantenga el parámetro de tasa predeterminado (r = 1 ). Varíe el parámetro de forma y observe la forma y ubicación de la función de densidad de probabilidad. Para varios valores del parámetro de forma, ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

Suponga que la vida útil de un dispositivo (T ) (en unidades de 1000 horas) tiene la distribución gamma anterior con (n = 2 ). Encuentre cada uno de los siguientes:

  1. ( P (T gt 3) ).
  2. ( P (T le 2) )
  3. ( P (1 le T le 4) )
  1. ( frac <17> <2> e ^ <-3> aproximadamente 0.4232 )
  2. (1 - 5 e ^ <-2> aproximadamente 0.3233 )
  3. ( frac <5> <2> e ^ <-1> - 13 e ^ <-4> approx 0.6816 )

Distribuciones Beta

Sea (f ) la función definida por (f (x) = 6 x (1 - x) ) para (x in [0, 1] ).

  1. Demuestre que (f ) es una función de densidad de probabilidad.
  2. Dibuje un bosquejo cuidadoso de la gráfica de (f ) y enuncie las características cualitativas importantes.
  1. Tenga en cuenta que (f (x) ge 0 ) para (x in [0, 1] ). Además, ( int_0 ^ 1 x (1 - x) , dx = frac <1> <6> ), entonces (f ) es un PDF
  2. (f ) aumenta y luego disminuye, con el modo en (x = frac <1> <2> ). (f ) es cóncava hacia abajo. (f ) es simétrico sobre (x = frac <1> <2> ) (de hecho, la gráfica es una parábola).

Sea (f ) la función definida por (f (x) = 12 x ^ 2 (1 - x) ) para (x in [0, 1] ).

  1. Demuestre que (f ) es una función de densidad de probabilidad.
  2. Dibuje un bosquejo cuidadoso de la gráfica de (f ) y enuncie las características cualitativas importantes.
  1. Tenga en cuenta que (f (x) ge 0 ) para (0 le x le 1 ). También ( int_0 ^ 1 x ^ 2 (1 - x) , dx = frac <1> <12> ), entonces (f ) es un PDF.
  2. (f ) aumenta y luego disminuye, con el modo en (x = frac <2> <3> ). (f ) es cóncava hacia arriba y luego hacia abajo, con el punto de inflexión en (x = frac <1> <3> ).

Las distribuciones definidas en los dos últimos ejercicios son ejemplos de. Estas distribuciones se utilizan ampliamente para modelar proporciones y probabilidades aleatorias, y cantidades físicas que toman valores en intervalos acotados (que, después de un cambio de unidades, pueden tomarse como ([0, 1] )). Las distribuciones beta se estudian en detalle en el capítulo sobre distribuciones especiales.

En el simulador de distribución especial, seleccione la distribución beta. Para los siguientes valores de parámetros, observe la forma de la función de densidad de probabilidad. Ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

  1. (a = 2 ), (b = 2 ). Esto da la primera distribución beta anterior.
  2. (a = 3 ), (b = 2 ). Esto le da la segunda distribución beta anterior.

Suponga que (P ) es una proporción aleatoria. Encuentra ( P left ( frac <1> <4> le P le frac <3> <4> right) ) en cada uno de los siguientes casos:

  1. (P ) tiene la primera distribución beta anterior.
  2. (P ) tiene la segunda distribución beta anterior.
  1. ( frac <11> <16> )
  2. ( frac <11> <16> )

Sea (f ) la función definida por [f (x) = frac <1> < pi sqrt>, quad x in (0, 1) ]

  1. Demuestre que (f ) es una función de densidad de probabilidad.
  2. Dibuje un bosquejo cuidadoso de la gráfica de (f ) y enuncie las características cualitativas importantes.
  1. Tenga en cuenta que (f (x) gt 0 ) para (0 lt x lt 1 ). Usando la sustitución (u = sqrt ) da [ int_0 ^ 1 frac <1> < sqrt> , dx = int_0 ^ 1 frac <2> < sqrt <1 - u ^ 2 >> , du = 2 arcsin u biggm | _0 ^ 1 = pi ] Así (f ) es un PDF.
  2. (f ) es simétrico sobre (x = frac <1> <2> ). (f ) disminuye y luego aumenta, con un mínimo en (x = frac <1> <2> ). (f (x) to infty ) como (x downarrow 0 ) y como (x uparrow 1 ) por lo que la distribución no tiene modo. (f ) es cóncava hacia arriba.

La distribución definida en el último ejercicio también es miembro de la familia de distribuciones beta. Pero también se conoce como (estándar), debido a la función arcoseno que surge en la prueba de que (f ) es una función de densidad de probabilidad. La distribución de arcoseno tiene aplicaciones en un proceso aleatorio muy importante conocido como movimiento browniano, llamado así por el botánico escocés Robert Brown. Las distribuciones de arcoseno se estudian con más generalidad en el capítulo sobre distribuciones especiales.

En el simulador de distribución especial, seleccione la distribución de arcoseno (continua) y mantenga los valores de los parámetros predeterminados. Ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

Suponga que (X_t ) representa el cambio en el precio de una acción en el tiempo (t ), en relación con el valor en un tiempo de referencia inicial 0. Tratamos (t ) como una variable continua medida en semanas. Sea (T = max left ), la última vez durante la primera semana que el precio de la acción se mantuvo sin cambios sobre su valor inicial. Bajo ciertas condiciones ideales, (T ) tendrá la distribución de arcoseno. Encuentre cada uno de los siguientes:

  1. ( P left (T lt frac <1> <4> right) )
  2. ( P left (T ge frac <1> <2> right) )
  3. ( P left (T le frac <3> <4> right) )
  1. ( frac <1> <3> )
  2. ( frac <1> <2> )
  3. ( frac <2> <3> )

Abra el experimento de movimiento browniano y seleccione el último cero variable. Ejecute el experimento en modo de un solo paso varias veces. El proceso aleatorio que observa modela el precio de la acción en el ejercicio anterior. Ahora ejecute el experimento 1000 veces y calcule la probabilidad empírica de cada evento en el ejercicio anterior.

La distribución de Pareto

Sea (g ) la función definida por (g (x) = 1 / x ^ b ) para (x in [1, infty) ), donde (b in (0, infty) ) es un parámetro.

  1. Dibuja un bosquejo cuidadoso de la gráfica de (g ) y enuncia las características cualitativas importantes.
  2. Encuentre los valores de (b ) para los que existe una función de densidad de probabilidad (f ) proporcional a (g ). Identifica el modo.
  1. (g ) es decreciente y cóncava hacia arriba, con (g (x) a 0 ) como (x a infty ).
  2. Tenga en cuenta que si (b ne 1 ) [ int_1 ^ infty x ^ <-b> , dx = frac> <1 - b> biggm | _1 ^ infty = begin infty, & amp 0 lt b lt 1 frac <1>, & amp 1 lt b lt infty end ] Cuando (b = 1 ) tenemos ( int_1 ^ infty x ^ <-1> , dx = ln x biggm | _1 ^ infty = infty ). Por lo tanto, cuando (0 lt b le 1 ), no hay PDF proporcional a (g ). Cuando (b gt 1 ), el PDF proporcional a (g ) es (f (x) = frac) para (x in [1, infty) ). El modo es 1.

Tenga en cuenta que las características cualitativas de (g ) son las mismas, independientemente del valor del parámetro (b gt 0 ), pero solo cuando (b gt 1 ) se puede normalizar (g ) en una función de densidad de probabilidad. En este caso, la distribución se conoce como, denominada así por Vilfredo Pareto. El parámetro (a = b - 1 ), de modo que (a gt 0 ), se conoce como. Por lo tanto, la distribución de Pareto con el parámetro de forma (a ) tiene una función de densidad de probabilidad [f (x) = frac<>>, quad x in [1, infty) ] La distribución de Pareto se usa ampliamente para modelar ciertas variables económicas y se estudia en detalle en el capítulo sobre distribuciones especiales.

En el simulador de distribución especial, seleccione la distribución de Pareto. Deje fijo el parámetro de escala, pero varíe el parámetro de forma y observe la forma de la función de densidad de probabilidad. Para varios valores del parámetro de forma, ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

Suponga que el ingreso (X ) (en unidades apropiadas) de una persona seleccionada al azar de una población tiene la distribución de Pareto con el parámetro de forma (a = 2 ). Encuentre cada uno de los siguientes:

  1. ( P (X gt 2) )
  2. ( P (X le 4) )
  3. ( P (3 le X le 5) )
  1. ( frac <1> <4> )
  2. ( frac <15> <16> )
  3. ( frac <16> <225> )

La distribución de Cauchy

Sea (f ) la función definida por [f (x) = frac <1> < pi (x ^ 2 + 1)>, quad x in R ]

  1. Demuestre que (f ) es una función de densidad de probabilidad.
  2. Dibuje un bosquejo cuidadoso de la gráfica de (f ) y enuncie las características cualitativas importantes.
  1. Tenga en cuenta que (f (x) gt 0 ) para (x in R ). También [ int _ <- infty> ^ infty frac <1> <1 + x ^ 2> , dx = arctan x biggm | _ <- infty> ^ infty = pi ] y por tanto, (f ) es un PDF.
  2. (f ) aumenta y luego disminuye, con el modo (x = 0 ). (f ) es cóncava hacia arriba, luego hacia abajo, luego hacia arriba nuevamente, con puntos de inflexión en (x = pm frac <1> < sqrt <3>> ). (f ) es simétrico con respecto a (x = 0 ).

La distribución construida en el ejercicio anterior se conoce como (estándar), llamada así por Augustin Cauchy. También podría llamarse, debido a la aparición de la función arcangente en la prueba de que (f ) es una función de densidad de probabilidad. En este sentido, tenga en cuenta la similitud con la distribución de arcoseno anterior. La distribución de Cauchy se estudia con más generalidad en el capítulo sobre distribuciones especiales. Tenga en cuenta también que la distribución de Cauchy se obtiene normalizando la función (x mapsto frac <1> <1 + x ^ 2> ) la gráfica de esta función se conoce como, en honor a Maria Agnesi.

En el simulador de distribución especial, seleccione la distribución de Cauchy con los valores de parámetro predeterminados. Ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

Una fuente de luz está a 1 metro de la posición 0 en una pared recta e infinita. El ángulo ( Theta ) que forma el haz de luz con la perpendicular a la pared se elige al azar del intervalo ( left (- frac < pi> <2>, frac < pi> <2> derecho) ). La posición (X = tan ( Theta) ) del haz de luz en la pared tiene la distribución estándar de Cauchy. Encuentre cada uno de los siguientes:

  1. ( P (-1 lt X lt 1) ).
  2. ( P left (X ge frac <1> < sqrt <3>> right) )
  3. ( P (X le sqrt <3>) )
  1. ( frac <1> <2> )
  2. ( frac <1> <3> )
  3. ( frac <2> <3> )

El experimento de Cauchy (con los valores de los parámetros predeterminados) es una simulación del experimento del último ejercicio.

  1. Ejecute el experimento varias veces en modo de un solo paso.
  2. Ejecute el experimento 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.
  3. Utilizando los datos de (b), calcule la frecuencia relativa de cada evento en el ejercicio anterior y compárelo con la probabilidad verdadera.

La distribución normal estándar

Sea ( phi ) la función definida por ( phi (z) = frac <1> < sqrt <2 pi >> e ^ <- z ^ 2/2> ) para (z en R ).

  1. Demuestre que ( phi ) es una función de densidad de probabilidad.
  2. Dibuje un bosquejo cuidadoso de la gráfica de ( phi ) y enuncie las características cualitativas importantes.
  1. Tenga en cuenta que ( phi (z) gt 0 ) para (z in R ). Sea (c = int _ <- infty> ^ infty e ^ <-z ^ 2/2> , dz ). Entonces [c ^ 2 = int _ <- infty> ^ infty e ^ <-x ^ 2/2> , dx int _ <- infty> ^ infty e ^ <-y ^ 2/2> , dy = int _ <- infty> ^ infty int _ <- infty> ^ infty e ^ <- (x ^ 2 + y ^ 2) / 2> , dx , dy ] Cambiar a coordenadas polares: (x = r cos theta ), (y = r sin theta ) donde (r in [0, infty) ) y ( theta in [0, 2 pi) ). Entonces (x ^ 2 + y ^ 2 = r ^ 2 ) y (dx , dy = r , dr , d theta ). Por lo tanto [c ^ 2 = int_0 ^ <2 pi> int_0 ^ infty re ^ <-r ^ 2/2> , dr , d theta ] Usando la sustitución simple (u = r ^ 2 ), la integral interna es ( int_0 ^ infty e ^ <-u> du = 1 ). Entonces la integral externa es ( int_0 ^ <2 pi> 1 , d theta = 2 pi ). Por tanto, (c = sqrt <2 pi> ) y (f ) es un PDF.
  2. Tenga en cuenta que ( phi ) es simétrico alrededor de 0. ( phi ) aumenta y luego disminuye, con el modo (z = 0 ). ( phi ) es cóncava hacia arriba, luego hacia abajo, luego hacia arriba nuevamente, con puntos de inflexión en (z = pm 1 ). ( phi (z) to 0 ) como (z to infty ) y como (z to - infty ).

La distribución definida en el último ejercicio es quizás la distribución más importante en probabilidad y estadística. Su importancia se deriva en gran parte del teorema del límite central, uno de los teoremas fundamentales de la probabilidad. En particular, las distribuciones normales se utilizan ampliamente para modelar medidas físicas que están sujetas a pequeños errores aleatorios. La familia de distribuciones normales se estudia con más generalidad en el capítulo sobre distribuciones especiales.

En el simulador de distribución especial, seleccione la distribución normal y mantenga los valores de los parámetros predeterminados. Ejecute la simulación 1000 veces y compare la función de densidad empírica y la función de densidad de probabilidad.

La función (z mapsto e ^ <- z ^ 2/2> ) es un ejemplo notorio de una función integrable que no tiene una antiderivada que pueda expresarse en forma cerrada en términos de otras funciones elementales. (Es por eso que tuvimos que recurrir al truco de las coordenadas polares para demostrar que ( phi ) es una función de densidad de probabilidad). Entonces, las probabilidades que involucran la distribución normal generalmente se calculan usando software matemático o estadístico.

Suponga que el error (Z ) en la longitud de una determinada pieza mecanizada (en milímetros) tiene la distribución normal estándar. Utilice software matemático para aproximar cada uno de los siguientes:

  1. ( P (-1 le Z le 1) )
  2. ( P (Z gt 2) )
  3. ( P (Z lt -3) )
  1. 0.6827
  2. 0.0228
  3. 0.0013

La distribución de valor extremo

Sea (f ) la función definida por (f (x) = e ^ <-x> e ^ <- e ^ <-x>> ) para (x in R ).

  1. Demuestre que (f ) es una función de densidad de probabilidad.
  2. Dibuje un bosquejo cuidadoso de la gráfica de (f ) y enuncie las características cualitativas importantes.
  3. Encuentre ( P (X gt 0) ), donde (X ) tiene la función de densidad de probabilidad (f ).
  1. Tenga en cuenta que (f (x) gt 0 ) para (x in R ). Usando la sustitución (u = e ^ <-x> ), [ int _ <- infty> ^ infty e ^ <-x> e ^ <- e ^ <-x>> , dx = int_0 ^ infty e ^ <-u> , du = 1 ] (tenga en cuenta que el integrando en la última integral es el PDF exponencial con el parámetro 1.
  2. (f ) aumenta y luego disminuye, con el modo (x = 0 ). (f ) es cóncava hacia arriba, luego hacia abajo, luego hacia arriba nuevamente, con puntos de inflexión en (x = pm ln left [ left (3 + sqrt <5> right) middle / 2 right ] ). Sin embargo, tenga en cuenta que (f ) no es simétrico alrededor de 0. (f (x) a 0 ) como (x a infty ) y como (x a - infty ).
  3. (1 - e ^ <-1> aproximadamente 0.6321 )

La distribución en el último ejercicio es la (estándar), también conocida como en honor a Emil Gumbel. Las distribuciones de valores extremos se estudian con más generalidad en el capítulo sobre distribuciones especiales.

En el simulador de distribución especial, seleccione la distribución de valor extremo. Mantenga los valores de los parámetros predeterminados y observe la forma y ubicación de la función de densidad de probabilidad. Ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

La distribución logística

Sea (f ) la función definida por [f (x) = frac<(1 + e ^ x) ^ 2>, quad x in R ]

  1. Demuestre que (f ) es una función de densidad de probabilidad.
  2. Dibuje un bosquejo cuidadoso de la gráfica de (f ) y enuncie las características cualitativas importantes.
  3. Encuentre ( P (X gt 1) ), donde (X ) tiene la función de densidad de probabilidad (f ).
  1. Tenga en cuenta que (f (x) gt 0 ) para (x in R ). La sustitución (u = e ^ x ) da [ int _ <- infty> ^ infty f (x) , dx = int_0 ^ infty frac <1> <(1 + u) ^ 2 > , du = 1 ]
  2. (f ) es simétrico alrededor de 0. (f ) aumenta y luego disminuye con el modo (x = 0 ). (f ) es cóncava hacia arriba, luego hacia abajo, luego hacia arriba nuevamente, con puntos de inflexión en (x = pm ln left (2 + sqrt <3> right) ). (f (x) a 0 ) como (x a infty ) y como (x a - infty ).
  3. ( frac <1> <1 + e> aproximadamente 0.2689 )

La distribución en el último ejercicio es la (estándar). Las distribuciones logísticas se estudian con más generalidad en el capítulo sobre distribuciones especiales.

En el simulador de distribución especial, seleccione la distribución logística. Mantenga los valores de los parámetros predeterminados y observe la forma y ubicación de la función de densidad de probabilidad. Ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

Distribuciones de Weibull

Sea (f ) la función definida por (f (t) = 2 t e ^ <- t ^ 2> ) para (t in [0, infty) ).

  1. Demuestre que (f ) es una función de densidad de probabilidad.
  2. Dibuje un bosquejo cuidadoso de la gráfica de (f ) y enuncie las características cualitativas importantes.
  1. Tenga en cuenta que (f (t) ge 0 ) para (t ge 0 ). La sustitución (u = t ^ 2 ) da ( int_0 ^ infty f (t) , dt = int_0 ^ infty e ^ <-u> , du = 1 ).
  2. (f ) aumenta y luego disminuye, con el modo (t = 1 / sqrt <2> ). (f ) es cóncava hacia abajo y luego hacia arriba, con el punto de inflexión en (t = sqrt <3/2> ). (f (t) a 0 ) como (t a infty ).

Sea (f ) la función definida por (f (t) = 3 t ^ 2 e ^ <- t ^ 3> ) para (t ge 0 ).

  1. Demuestre que (f ) es una función de densidad de probabilidad.
  2. Dibuje un bosquejo cuidadoso de la gráfica de (f ) y enuncie las características cualitativas importantes.
  1. Tenga en cuenta que (f (t) ge 0 ) para (t ge 0 ). La sustitución (u = t ^ 3 ) da [ int_0 ^ infty f (t) , dt = int_0 ^ infty e ^ <-u> , du = 1 ]
  2. (f ) aumenta y luego disminuye, con el modo (t = left ( frac <2> <3> right) ^ <1/3> ). (f ) es cóncava hacia arriba, luego hacia abajo, luego hacia arriba nuevamente, con puntos de inflexión en (t = left (1 pm frac <1> <3> sqrt <7> right) ^ <1 / 3> ). (f (t) a 0 ) como (t a infty ).

Las distribuciones de los dos últimos ejercicios son ejemplos del nombre de Waloddi Weibull. Las distribuciones de Weibull se estudian con más generalidad en el capítulo sobre distribuciones especiales. A menudo se utilizan para modelar tiempos de falla aleatorios de dispositivos (en unidades escaladas apropiadamente).

En el simulador de distribución especial, seleccione la distribución de Weibull. Para cada uno de los siguientes valores del parámetro de forma (k ), observe la forma y ubicación de la función de densidad de probabilidad. Ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

  1. (k = 2 ). Esto da la primera distribución de Weibull anterior.
  2. (k = 3 ). Esto da la segunda distribución de Weibull anterior.

Suponga que (T ) es el tiempo de falla de un dispositivo (en unidades de 1000 horas). Encuentra ( P left (T gt frac <1> <2> right) ) en cada uno de los siguientes casos:

  1. (T ) tiene la primera distribución de Weibull anterior.
  2. (T ) tiene la segunda distribución de Weibull anterior.
  1. (e ^ <-1/4> aproximadamente 0,7788 )
  2. (e ^ <-1/8> aproximadamente 0.8825 )

Ejemplos adicionales

Sea (f ) la función definida por (f (x) = - ln x ) para (x in (0, 1] ).

  1. Demuestre que (f ) es una función de densidad de probabilidad.
  2. Dibuje un bosquejo cuidadoso de la gráfica de (f ) y enuncie las características cualitativas importantes.
  3. Encuentre ( P left ( frac <1> <3> le X le frac <1> <2> right) ) donde (X ) tiene la función de densidad de probabilidad en (a).
  1. Tenga en cuenta que (- ln x ge 0 ) para (0 lt x le 1 ). La integración por partes con (u = - ln x ) y (dv = dx ) da [ int_0 ^ 1 - ln x , dx = -x ln x biggm | _0 ^ 1 + int_0 ^ 1 1 , dx = 1 ]
  2. (f ) es decreciente y cóncava hacia arriba, con (f (x) a infty ) como (x downarrow 0 ), por lo que no hay modo.
  3. ( frac <1> <2> ln 2 - frac <1> <3> ln 3 + frac <1> <6> approx 0.147 )

Sea (f ) la función definida por (f (x) = 2 e ^ <-x> (1 - e ^ <-x>) ) para (x in [0, infty) ).

  1. Demuestre que (f ) es una función de densidad de probabilidad.
  2. Dibuje un bosquejo cuidadoso de la gráfica de (f ) y proporcione las características cualitativas importantes.
  3. Encuentre ( P (X ge 1) ) donde (X ) tiene la función de densidad de probabilidad en (a).
  1. Tenga en cuenta que (f (x) gt 0 ) para (0 lt x lt infty. ). Además, ( int_0 ^ infty left (e ^ <-x> - e ^ <- 2 x> right) , dx = frac <1> <2> ), entonces (f ) es un PDF.
  2. (f ) aumenta y luego disminuye, con el modo (x = ln (2) ). (f ) es cóncava hacia abajo y luego hacia arriba, con un punto de inflexión en (x = ln (4) ). (f (x) a 0 ) como (x a infty ).
  3. (2 e ^ <-1> - e ^ <-2> aproximadamente 0.6004 )

Los siguientes problemas tratan con vectores aleatorios bidimensionales y tridimensionales que tienen distribuciones continuas. La idea de normalizar una función para formar una función de densidad de probabilidad es importante para algunos de los problemas. La relación entre la distribución de un vector y la distribución de sus componentes se discutirá más adelante, en la sección sobre distribuciones conjuntas.

Sea (f ) la función definida por (f (x, y) = x + y ) para (0 le x le 1 ), (0 le y le 1 ).

  1. Demuestre que (f ) es una función de densidad de probabilidad e identifique la moda.
  2. Encuentre ( P (Y ge X) ) donde ((X, Y) ) tiene la función de densidad de probabilidad en (a).
  3. Encuentra la densidad condicional de ((X, Y) ) dado ( left <2>, Y lt frac <1> <2> right > ).
  1. modo ((1, 1) )
  2. ( frac <1> <2> )
  3. (f left (x, y bigm | X lt frac <1> <2>, Y lt frac <1> <2> right) = 8 (x + y) ) para ( 0 lt x lt frac <1> <2> ), (0 lt y lt frac <1> <2> )

Sea (g ) la función definida por (g (x, y) = x + y ) para (0 le x le y le 1 ).

  1. Encuentre la función de densidad de probabilidad (f ) que es proporcional a (g ).
  2. Encuentre ( P (Y ge 2 X) ) donde ((X, Y) ) tiene la función de densidad de probabilidad en (a).
  1. (f (x, y) = 2 (x + y) ), (0 le x le y le 1 )
  2. ( frac <5> <12> )

Sea (g ) la función definida por (g (x, y) = x ^ 2 y ) para (0 le x le 1 ), (0 le y le 1 ) .

  1. Encuentre la función de densidad de probabilidad (f ) que es proporcional a (g ).
  2. Encuentre ( P (Y ge X) ) donde ((X, Y) ) tiene la función de densidad de probabilidad en (a).
  1. (f (x, y) = 6 x ^ 2 y ) para (0 le x le 1 ), (0 le y le 1 )
  2. ( frac <2> <5> )

Sea (g ) la función definida por (g (x, y) = x ^ 2 y ) para (0 le x le y le 1 ).

  1. Encuentre la función de densidad de probabilidad (f ) que es proporcional a (g ).
  2. Encuentre (P (Y ge 2 X) ) donde ((X, Y) ) tiene la función de densidad de probabilidad en (a).
  1. (f (x, y) = 15 x ^ 2 y ) para (0 le x le y le 1 )
  2. ( frac <1> <8> )

Sea (g ) la función definida por (g (x, y, z) = x + 2 y + 3 z ) para (0 le x le 1 ), (0 le y le 1 ), (0 le z le 1 ).

  1. Encuentre la función de densidad de probabilidad (f ) que es proporcional a (g ).
  2. Encuentre ( P (X le Y le Z) ) donde ((X, Y, Z) ) tiene la función de densidad de probabilidad en (a).
  1. (f (x, y, z) = frac <1> <3> (x + 2 y + 3 z) ) para (0 le x le 1 ), (0 le y le 1 ), (0 le z le 1 )
  2. ( frac <7> <36> )

Sea (g ) la función definida por (g (x, y) = e ^ <-x> e ^ <-y> ) para (0 le x le y lt infty ) .

  1. Encuentre la función de densidad de probabilidad (f ) que es proporcional a (g ).
  2. Encuentre ( P (X + Y lt 1) ) donde ((X, Y) ) tiene la función de densidad de probabilidad en (a).
  1. (f (x, y) = 2 e ^ <-x> e ^ <-y> ), (0 lt x lt y lt infty )
  2. (1-2 e ^ <-1> aproximadamente 0,2642 )

Distribuciones uniformes continuas

Nuestra próxima discusión se centrará en una clase importante de distribuciones continuas que se definen en términos de la propia medida de Lebesgue. Suponga que (S in ms R ^ n ) para algunos (n in N _ + ) con (0 lt lambda ^ n (S) lt infty ). Como de costumbre, sea ( ms S = ).

La variable aleatoria (X ) está en (S ) si [ P (X in A) = frac < lambda ^ n (A)> < lambda ^ n (S)>, quad A in ms S ] (X ) tiene una función de densidad de probabilidad constante dada por (f (x) = 1 big / lambda ^ n (S) ) para (x in S ).

Tenga en cuenta que la distribución de (X ) es simplemente una medida de Lebesgue normalizada.

Entonces, la probabilidad asignada a un conjunto (A in ms S ) es proporcional al tamaño de (A ), medido por ( lambda ^ n ). Tenga en cuenta también que tanto en el caso discreto como en el continuo, la distribución uniforme en un conjunto (S ) tiene una función de densidad de probabilidad constante en (S ). La distribución uniforme en un conjunto (S ) gobierna un punto (X ) elegido al azar de (S ), y en el caso continuo, tales distribuciones juegan un papel fundamental en varios modelos geométricos. Las distribuciones uniformes se estudian con más generalidad en el capítulo sobre distribuciones especiales.

Uno de los casos especiales más importantes es la distribución uniforme en un intervalo ([a, b] ) donde (a, b in R ) y (a lt b ). En este caso, la función de densidad de probabilidad es [f (x) = frac <1>, quad a le x le b ] Esta distribución modela un punto elegido al azar del intervalo. En particular, la distribución uniforme en ([0, 1] ) se conoce como, y es muy importante debido a su simplicidad y al hecho de que se puede transformar en una variedad de otras distribuciones de probabilidad en ( R ). Casi todos los lenguajes de computadora tienen procedimientos para simular variables uniformes estándar independientes, que se denominan en este contexto.

Las distribuciones condicionales correspondientes a una distribución uniforme también son uniformes.

Suponga que (R in ms S ) y que ( lambda ^ n (R) gt 0 ). Si (X ) se distribuye uniformemente en (S ), entonces la distribución condicional de (X ) dada (X en R ) es uniforme en (R ).

La demostración es muy simple: para (A in ms S ) con (A subseteq R )

El último teorema tiene importantes implicaciones para las simulaciones. Si podemos simular una variable aleatoria que se distribuye uniformemente en un conjunto, podemos simular una variable aleatoria que se distribuye uniformemente en un subconjunto.

Supongamos de nuevo que (R in ms S ) y que ( lambda ^ n (R) gt 0 ). Suponga además que ( bs X = (X_1, X_2, ldots) ) es una secuencia de variables aleatorias independientes, cada una distribuida uniformemente en (S ). Sea (N = min ). Luego

  1. (N ) tiene la distribución geométrica en ( N _ + ) con el parámetro de éxito (p = lambda ^ n (R) big / lambda ^ n (S) ).
  2. (X_N ) se distribuye uniformemente en (R ).
  1. Dado que las variables se distribuyen uniformemente en (S ), ( P (X_k in R) = lambda ^ n (R) / lambda ^ n (S) ) para cada (k in N _ + ). Dado que las variables son independientes, cada punto está en (R ) o no de forma independiente. Por tanto, (N ), el índice del primer punto que cae en (R ), tiene la distribución geométrica en ( N _ + ) con probabilidad de éxito (p = lambda ^ n (R) / lambda ^ n (S) ). Es decir, ( P (N = k) = (1 - p) ^ p ) para (k in N _ + ).
  2. Tenga en cuenta que (p in (0, 1] ), entonces ( P (N in N_ +) = 1 ) y por lo tanto (X_N ) está bien definido. Sabemos por nuestro trabajo sobre la independencia y probabilidad condicional de que la distribución de (X_N ) sea la misma que la distribución condicional de (X ) dada (X en R ), que según el teorema anterior, se distribuye uniformemente en (R ) .

Suponga en particular que (S ) es un producto cartesiano de (n ) intervalos acotados. Resulta bastante fácil simular una secuencia de variables aleatorias independientes ( bs X = (X_1, X_2, ldots) ) cada una de las cuales se distribuye uniformemente en (S ). Por lo tanto, el último teorema proporciona un algoritmo para simular una variable aleatoria que se distribuye uniformemente en una región de forma irregular (R in ms S ) (asumiendo que tenemos un algoritmo para reconocer cuándo un punto (x in R ^ n ) cae en (R )). Este método de simulación se conoce como el, y como veremos en secciones posteriores, es más importante de lo que podría aparecer en primer lugar.

Con una secuencia de puntos independientes distribuidos uniformemente en (S ), el primero en caer en (R ) se distribuye uniformemente en (R ).

En el experimento de probabilidad simple, los puntos aleatorios se distribuyen uniformemente en la región rectangular (S ). Mueva y cambie el tamaño de los eventos (A ) y (B ) y observe cómo cambian las probabilidades de los 16 eventos que se pueden construir a partir de (A ) y (B ). Ejecute el experimento 1000 veces y observe la concordancia entre las frecuencias relativas de los eventos y las probabilidades de los eventos.

Suponga que ((X, Y) ) se distribuye uniformemente en la región circular de radio 5, centrada en el origen. Podemos pensar en ((X, Y) ) como la posición de un dardo lanzado aleatoriamente a un objetivo. Sea (R = sqrt ), la distancia desde el centro a ((X, Y) ).

  1. Da la función de densidad de probabilidad de ((X, Y) ).
  2. Encuentra ( P (n le R le n + 1 ) para (n in <0, 1, 2, 3, 4 > ).
  1. (f (x, y) = frac <1> <25 pi> ) para ( left <(x, y) in R ^ 2: x ^ 2 + y ^ 2 le 25 derecha > )
  2. ( P (n le R le n + 1) = frac <2 n + 1> <25> ) para (n in <0, 1, 2, 3, 4 > )

Suponga que ((X, Y, Z) ) se distribuye uniformemente en el cubo (S = [0, 1] ^ 3 ). Encuentra ( P (X lt Y lt Z) ) de dos formas:

  1. Usando la función de densidad de probabilidad.
  2. Usando un argumento combinatorio.
  1. ( P (X lt Y lt Z) = int_0 ^ 1 int_0 ^ z int_0 ^ y 1 , dx , dy , dz = frac <1> <6> )
  2. Cada uno de los 6 ordenamientos estrictos de ((X, Y, Z) ) es igualmente probable, entonces ( P (X lt Y lt Z) = frac <1> <6> )

El tiempo (T ) (en minutos) requerido para realizar un determinado trabajo se distribuye uniformemente en el intervalo ([15, 60] ).

  1. Encuentre la probabilidad de que el trabajo requiera más de 30 minutos
  2. Dado que el trabajo no se termina después de 30 minutos, calcule la probabilidad de que el trabajo requiera más de 15 minutos adicionales.
  1. ( frac <2> <3> )
  2. ( frac <1> <6> )

Distribuciones continuas singulares y degeneradas

Considere nuevamente el espacio de medida ((S, ms S, lambda ^ n) ) donde (S in ms R ^ n ) para algunos (n in N _ + ), ( ms S = ) y ( lambda ^ n ) es la medida de Lebesgue. Una distribución de probabilidad en este espacio puede ser continua pero no absolutamente continua y, por lo tanto, no tendrá una función de densidad de probabilidad con respecto a ( lambda ^ n ). Una forma trivial de que esto suceda es cuando ( lambda ^ n (S) = 0 ). En este caso, se dice que la distribución es. Aquí hay un par de ejemplos:

Suponga que ( Theta ) se distribuye uniformemente en el intervalo ([0, 2 pi) ). Sea (X = cos Theta ), (Y = sin Theta ).

  1. ((X, Y) ) tiene una distribución continua en el círculo (C = <(x, y): x ^ 2 + y ^ 2 = 1 > ).
  2. La distribución de ((X, Y) ) y ( lambda_2 ) son mutuamente singulares.
  3. Encuentra ( P (Y gt X) ).
  1. Si ((x, y) in C ) entonces existe una ( theta in [0, 2 pi) ) única con (x = cos theta ) y (y = pecado theta ). Por tanto, ( P [(X, Y) = (x, y)] = P ( Theta = theta) = 0 ).
  2. ( P [(X, Y) en C] = 1 ) pero ( lambda_2 (C) = 0 ).
  3. ( frac <1> <2> )

El último ejemplo es artificial ya que ((S, ms S) ) es realmente un espacio unidimensional (ese es el punto completo). Aunque ((X, Y) ) no tiene densidad con respecto a ( lambda_2 ), la variable ( Theta ) tiene una función de densidad (f ) con repsect ( lambda_1 ) dado por (f ( theta) = 1/2 pi ) para ( theta in [0, 2 pi) ).

Suponga que (X ) se distribuye uniformemente en el conjunto ( <0, 1, 2 > ), (Y ) se distribuye uniformemente en el intervalo ([0, 2] ), y que (X ) y (Y ) son independientes.

  1. ((X, Y) ) tiene una distribución continua en el conjunto de productos (S = <0, 1, 2 > times [0, 2] ).
  2. La distribución de ((X, Y) ) y ( lambda_2 ) son mutuamente singulares.
  3. Encuentra ( P (Y gt X) ).
  1. Las variables son independientes y (Y ) tiene una distribución continua, por lo que ( P [(X, Y) = (x, y)] = P (X = 2) P (Y = y) = 0 ) para ((x, y) en S ).
  2. (P [(X, Y) en S] = 1 ) pero ( lambda_2 (S) = 0 )
  3. ( frac <1> <2> )

El último ejemplo también es artificial ya que (X ) tiene una distribución discreta en ( <0, 1, 2 > ) (con todos los subconjuntos medibles y con la medida de conteo ( # )), y ( Y ) una distribución continua en el espacio euclidiano ([0, 2] ) (con la estructura de medida habitual de Lebesgue). Ambos son absolutamente continuos en relación con sus medidas respectivas (X ) tiene la función de densidad (g ) dada por (g (x) = 1/3 ) para (x in <0, 1, 2 > ) y (Y ) tiene la función de densidad (h ) dada por (h (y) = 1/2 ) para (y in [0, 2] ). Entonces, realmente, el espacio de medida adecuado en (S ) es el espacio de medida del producto formado a partir de estos dos espacios. En relación con este producto, el espacio ((X, Y) ) tiene una densidad (f ) dada por (f (x, y) = 1/6 ) para ((x, y) en S ). La siguiente sección explora tales distribuciones mixtas.

También es posible tener una distribución continua en un espacio euclidiano (n ) dimensional verdadero, pero aún sin función de densidad de probabilidad, una situación mucho más interesante. Daremos una construcción clásica. Sea ((X_1, X_2, ldots) ) una secuencia de ensayos de Bernoulli con el parámetro de éxito (p in (0, 1) ). Indicaremos la dependencia de la medida de probabilidad ( P ) del parámetro (p ) con un subíndice. Así, tenemos una secuencia de variables indicadoras independientes con [ P_p (X_i = 1) = p, P_p (X_i = 0) = 1 - p, quad i in N _ + ] Interpretamos ( X_i ) como el (i ) ésimo dígito binario () de una variable aleatoria (X ) tomando valores en ((0, 1) ). Es decir, (X = sum_^ infty X_i / 2 ^ i ). A la inversa, recuerde que cada número (x in (0, 1) ) se puede escribir en forma binaria como (x = sum_^ infty x_i / 2 ^ i ) donde (x_i in <0, 1 > ) para cada (i in N_ + ). Esta representación es única excepto cuando (x ) es un de la forma (x = k / 2 ^ n ) para (n in N_ + ) y (k in <1, 3, ldots 2 ^ n - 1 > ). En este caso, hay dos representaciones, una en la que los bits son finalmente 0 y otra en la que los bits son finalmente 1. Sin embargo, tenga en cuenta que el conjunto de racionales binarios es contable. Finalmente, observe que la distribución uniforme en ((0, 1) ) es la misma que la medida de Lebesgue en ((0, 1) ).

  1. Si (p, , q in (0, 1) ) y (p ne q ) entonces la distribución de (X ) con el parámetro (p ) y la distribución de (X ) con el parámetro (q ) son mutuamente singulares.
  2. Si (p = frac <1> <2> ), (X ) tiene la distribución uniforme en ((0, 1) ).
  3. Si (p ne frac <1> <2> ), entonces la distribución de (X ) es singular con respecto a ( lamba_1), y por lo tanto no tiene función de densidad de probabilidad.

Si (x in (0, 1) ) no es un binario racional, entonces [ P_p (X = x) = P_p (X_i = x_i text i in N_ +) = lim_ P_p (X_i = x_i text i = 1, 2 ldots, n) = lim_ p ^ y (1 - p) ^ ] donde (y = sum_^ n x_i ). Sea (q = max ). Entonces (p ^ y (1 - p) ^ le q ^ n to 0 ) como (n to infty ). Por tanto, ( P_p (X = x) = 0 ). Si (x in (0, 1) ) es un binario racional, entonces hay dos cadenas de bits que representan (x ), digamos ((x_1, x_2, ldots) ) (con bits eventualmente 0 ) y ((y_1, y_2, ldots) ) (con bits eventualmente 1). Por lo tanto ( P_p (X = x) = P_p (X_i = x_i text i in N_ +) + P_p (X_i = y_i text i in N_ +) ). Pero ambas probabilidades son 0 por el mismo argumento que antes.

A continuación, definimos el conjunto de números para los que la frecuencia relativa límite de unos es (p ). Sea (C_p = left suma_^ n x_i to p text n to infty right > ). Tenga en cuenta que, dado que los límites son únicos, (C_p cap C_q = emptyset ) para (p ne q ). Luego, por la ley fuerte de los números grandes, ( P_p (X in C_p) = 1 ). Aunque todavía no hemos estudiado la ley de los grandes números, la idea básica es simple: en una secuencia de ensayos de Bernoulli con probabilidad de éxito (p ), la frecuencia relativa de éxito a largo plazo es (p ). Así, las distribuciones de (X ), cuando (p ) varía de 0 a 1, son mutuamente singulares, es decir, cuando (p ) varía, (X ) toma valores con probabilidad 1 en conjuntos mutuamente disjuntos .

Sea (F ) la función de distribución de (X ), de modo que (F (x) = P_p (X le x) = P_p (X lt x) ) para (x en (0, 1) ). Si (x in (0, 1) ) no es un binario racional, entonces (X lt x ) si y solo si existe (n in N _ + ) tal que (X_i = x_i ) para (i in <1, 2, ldots, n - 1 > ) y (X_n = 0 ) mientras que (x_n = 1 ). Por lo tanto ( P_ <1/2> (X lt x) = sum_^ infty frac <2 ^ n> = x ). Dado que la función de distribución de una distribución continua es continua, se deduce que (F (x) = x ) para todo (x en [0, 1] ). Esto significa que (X ) tiene la distribución uniforme en ((0, 1) ). Si (p ne frac <1> <2> ), la distribución de (X ) y la distribución uniforme son mutuamente singulares, por lo que en particular, (X ) no tiene una función de densidad de probabilidad con respecto a la medida de Lebesgue.

Para una aplicación de algunas de las ideas en este ejemplo, vea juego en negrita en el juego del rojo y el negro.

Ejercicios de análisis de datos

Si (D ) es un conjunto de datos de una variable (X ) con una distribución continua, entonces an se puede calcular dividiendo el rango de datos en subconjuntos de tamaño pequeño y luego calculando la densidad de probabilidad de puntos en cada subconjunto . Las funciones de densidad de probabilidad empírica se estudian con más detalle en el capítulo sobre muestras aleatorias.

Para los datos de las cigarras, (BW ) denota el peso corporal (en gramos), (BL ) la longitud del cuerpo (en milímetros) y (G ) el género (0 para mujeres y 1 para hombres). Construya una función de densidad empírica para cada uno de los siguientes y muestre cada uno como un gráfico de barras:


Análisis de Fourier - Teoría y aplicaciones: 18.103 (primavera de 2005)

  • HW # 1, hasta el jueves 10 de febrero: (Capítulo 2) # 2, 4 (abc), 6, 7, 12, 15, 16, 18, 21, 23.
  • HW # 2, vence el jueves 17 de febrero: (Capítulo 2) 24, 25, 26, 29, 30, 31, 32, 34, 35. Crédito adicional: 47.
  • HW # 3, hasta el martes 1 de marzo: (Capítulo 5) 13, 14, 15, 17, 19, 20, 21, 22, 23.
  • HW # 4, hasta el martes 8 de marzo: (Capítulo 6) 1, 2, 5, 9, 10, 11, 12, 14, 16, 17.
  • HW # 5, hasta el martes 15 de marzo: (Capítulo 6) 19, 21, (Capítulo 7) 6, (Capítulo 8) 1, 2, 3, 4, 5, 6.
  • HW # 6, vence el martes 29 de marzo: (Capítulo 8) 7, 8, 9, 10, 11, 12, 16, 17, 18.
  • HW # 7, hasta el martes 5 de abril: (Capítulo 10) 1 - 10.
  • HW # 8, hasta el jueves 15 de abril: (Capítulo 10) 12, 13, 18, 20, (Capítulo 12) 2, 8, 12, 13.
  • HW # 9, vence el martes 26 de abril: (Capítulo 14) 4, 5, 8, 14, 15, 16, 29, 30, 31, 32.
  • HW # 10, vence el martes 3 de mayo: (Capítulo 13) 2, 3, 4, 5, 6, 7, (Capítulo 14) 41, 42, 43, 44, 45.
  • Crédito adicional para el Examen II, que vence el jueves 12 de mayo: Escriba las soluciones completas y correctas a TODOS los problemas del Examen II, para agregar 7 puntos adicionales a la puntuación del Examen II.


Matemáticas 202A

Horario de oficina F 16: 00-18: 00, 821 Evans Hall, y con cita previa.

Tópicos cubiertos

  • 30/08: El lenguaje de la teoría de conjuntos.
  • 02/09: Conjuntos pedidos.
  • 04/09: Cardinalidad.
  • 06/09: Métricas.
  • 09/09: Espacios métricos.
  • 11/09: Compacidad.
  • 13/09: Sigma-álgebras.
  • 16/09: Medidas.
  • 18/09: Medidas exteriores.
  • 20/09: Medidas, premedidas y medidas exteriores: conexiones.
  • 23/09: medidas de Borel en R.
  • 25/09: Medida Lebesgue. Conjuntos de Cantor.
  • 27/09: Funciones medibles.
  • 30/09: Funciones simples como aproximaciones de funciones medibles.
  • 02/10: Integración de funciones simples.
  • 10/04: El teorema de la convergencia monótona.
  • 07/10: Integración de funciones no negativas.
  • 09/10: Integración de funciones con valores reales.
  • 10/11: Integración de funciones con valores complejos.
  • 14/10: Parcial.
  • 16/10: Discusión de la mitad de período.
  • 18/10: El teorema de la convergencia dominada y sus consecuencias.
  • 21/10: Modos de convergencia.
  • 23/10: Teorema de Egoroff.
  • 25/10: Medidas firmadas. Descomposición de Hahn.
  • 28/10: Descomposición de Jordan. Continuidad absoluta.
  • 30/10: Teorema de Lebesgue-Radón-Nikodimio I.
  • 01/11: Lebesgue-Radon-Nikodym II.
  • 11/04: Medidas complejas.
  • 11/06: Diferenciación sobre R.
  • 08/11: Funciones de variación acotada.
  • 13/11: Espacios topológicos.
  • 15/11: Axiomas de contabilización y separación.
  • 18/11: Mapas continuos.
  • 20/11: Lema de Urysohn y teorema de extensión de Tietze.
  • 22/11: Redes.
  • 25/11: Espacios compactos.
  • 27/11: Espacios Hausdorff localmente compactos.
  • 12/02: Funciones en espacios LCH.
  • 12/04: El teorema de Arzela-Ascoli.
  • 12/06: El teorema de Stone-Weierstrass.
  • 12/09: Introducción a los espacios L ^ p.
  • Libros.
    • Gerald B. Folland, Análisis real. Técnicas modernas y sus aplicaciones, Segunda edición. Wiley, 1999.
    • Walter Rudin, Análisis real y complejo, tercera edición, McGrew-Hill, 1987.
    • Walter Rudin, Análisis funcional, segunda edición, McGraw-Hill, 1991.

    El primer libro será el libro de texto principal del curso.

    El instructor agradece la cooperación entre los estudiantes y el uso de libros. Sin embargo, entregar tareas que hacen uso del trabajo de otras personas (ya sea de un compañero de estudios, un libro o papel, o lo que sea) sin El reconocimiento explícito se considera mala conducta académica.


    Ver el vídeo: Tribu en mathématiques. Intégrale de Lebesgue théorie de la mesure (Octubre 2021).