Download as pdf or txt
Download as pdf or txt
You are on page 1of 31

Universidad de Oriente

Núcleo de Monagas-Maturín
Escuela de Ingeniería y Ciencias Aplicadas
Estadística I

Profesora: Estudiantes:
Glorimar Aponte Javier Guirigay
Sección: 01 y 02 C.I.:29589425
Darío Vásquez(01)
C.I.:27701119
Daniella Vargas
C.I.:27556465
Jorfran Gil
C.I.: 26933738
Simón Mendoza
C.I.:29589293
Yadneel García(01)
C.I.:27499705

Maturín-EDO- Monagas junio 2022.

INDICE
Tabla de contenido
Distribuciones de variable discreta: 4
Distribución de Bernoulli: 4
Distribución Binomial: 6
Distribución Geométrica 7
Notación 8
Distribución Pascal (r, p) 10
Distribución de probabilidad continua: 12
Uniforme: 12
Exponencial: 12
Gamma: 13
Distribución de probabilidad continua beta 13
Distribución de probabilidad continua weibull 15
Distribución normal. 16
Tabla estandarizada o tabla de tipificación. 20
Teoría de límite central. 21
Principales propiedades del teorema central del límite. 22
INTRODUCCIÓN

Los conceptos y métodos estadísticos no son solo útiles sino con frecuencia
son indispensables para entender el mundo que nos rodea. Proporcionan
formas de obtener ideas nuevas del comportamiento de muchos fenómenos
que se presentan.

La disciplina de estadística nos enseña cómo realizar juicios inteligentes y


tomar decisiones informadas entre la presencia de incertidumbre y variación.

La competencia estadística proporciona recursos para analizar datos


críticamente y para formarse una opinión fundamentada acerca de las
decisiones que toman las administraciones, las empresas y otros colectivos, así
como acerca de la marcha general de la sociedad. Además, la probabilidad y la
estadística contribuyen a aportar una imagen mucho más equilibrada de la
ciencia que tradicionalmente ha presentado ante el estudiante un carácter
marcadamente determinista en el que todo es explicable en términos de causas
y efectos.

Una distribución de probabilidad indica toda la gama de valores que pueden


representarse como resultado de un experimento.

En el siguiente trabajo de investigación, se estudiará de manera ágil los


diversos tipos de distribución probabilística, caracterizaremos cada distribución
y realizaremos ejercicios. Nos limitaremos al estudio descriptivo de las
distribuciones de probabilidades continuas y discretas.
Distribuciones de variable discreta:
Se denomina distribución de variable discreta a todas aquellas funciones de
probabilidad que permiten establecer toda la gama de posibles valores
positivos en un conjunto de valores finito o infinito numerable, es decir, que
pueden ser contados. Entre ellas tenemos: distribución de Bernoulli, binomial,
geométrica, pascal, multinomial, hipergeométrica y poisson.

Distribución de Bernoulli:
La distribución de Bernoulli, también llamada distribución dicotómica, se utiliza
para representar una variable aleatoria discreta que solo puede tener dos
resultados mutuamente excluyentes. Además, solo podemos aplicar esta
distribución cuando realicemos un solo experimento. Si hacemos varios,
tendremos que recurrir a la distribución binomial.

Estos dos resultados de un experimento de Bernoulli se suelen denominar éxito


y no éxito. Aquí es importante tener en cuenta que “no éxito” no significa lo
contrario de éxito, sino cualquier otro resultado diferente a éxito. Dónde el valor
"1"(éxito) ocurre con la probabilidad "p" y el valor "0"(fracaso) con la
probabilidad "q=1-p". Si la variable aleatoria X cumplen estas condiciones se
está frente a una distribución de Bernoulli y se denota cómo X~ Bernoulli(p).

La función viene dada por:

O también puede ser definida:

Dónde x=0,1.

Entre su propiedad tenemos:

● Media: Está viene dada por la probabilidad dada p.


● Varianza: Está viene dada por
.

● Media: No tiene.
● Moda: Está viene dada por

● Asimetría: Está viene dada por

Dónde q es igual 1-p.

● Curtosis: Está viene dada por

Ejemplo: Si definimos un experimento de Bernoulli tirando un dado y


considerando éxito sacar un 6, el no éxito será sacar 1, 2, 3, 4 o 5.

O también puede ser:


Distribución Binomial:

Está es un tipo de distribución que se basa en la distribución de Bernoulli


pero

en este caso en un número " n " de casos o experimentos de Bernoulli posibles,


iguales pero independientes entre sí, con una probabilidad fija p de que se dé
con éxito entre cada ensayo, por ende; la probabilidad de éxito será constante.

Viene dada por la siguiente fórmula:

Dónde:

Entre sus propiedades tenemos:

● Media: es el producto de n y p.
● Moda: Viene dada por (n + 1) ×p.
● Varianza: Viene dada por np×(1-p).
● Asimetría: Viene dada por

● Curtosis: Viene dada por


Ejemplo: Supongamos que tenemos una cafetería donde entraron 5 personas y
sabemos que la probabilidad que les guste sea de 0.8, ¿Cuál sería el
porcentaje de que a dos de esas personas les guste el café? Nuestro número
de elementos iguales es n=5, nuestra probabilidad de p=5, y nuestra variable
aleatoria es x=2.

Dónde:

Dando como resultado 10, el cual, se remplaza en la función:

Dando como resultado 0,512, el cual, es 5,12%. Por lo tanto, el porcentaje de


que a qué 2 personas 5 le guste el café es de 5,12%.

Distribución Geométrica
Cuando usted realiza un experimento que solo tiene dos resultados
posibles, la distribución geométrica es una distribución discreta que puede
modelar el número de ensayos consecutivos necesarios para observar el
resultado de interés por primera vez. La distribución geométrica también puede
modelar el número de no eventos que ocurren antes de que se observe el
primer resultado. 
La distribución geométrica es un modelo adecuado para aquellos procesos en
los que se repiten pruebas hasta la consecución del éxito a resultado deseado
y tiene interesantes aplicaciones en los muestreos realizados de esta manera.
También implica la existencia de una dicotomía de posibles resultados y la
independencia de las pruebas entre sí.

Donde |t|<-Ln(1-p)
En xxx de probabilidad y estadística, la distribución geométrica es cualquiera
de las dos distribuciones de probabilidad discretas siguientes:

● Si   es el número necesario para obtener un éxito.

● Si   es el número de fracasos antes del primer éxito.

Notación

Si una variable aleatoria discreta  sigue una distribución geométrica


con parámetro   entonces escribiremos
  o simplemente .

Supóngase que se efectúa repetidamente un experimento o prueba, que las


repeticiones son independientes y que se está interesado en la ocurrencia o no
de un suceso al que se refiere como “éxito”, siendo la probabilidad de este
suceso p. La distribución geométrica permite calcular la probabilidad de que
tenga que realizarse un número k de repeticiones antes de obtener un éxito por
primera vez; esta probabilidad decrece a medida que aumenta k con lo que la
función de masa de probabilidad es siempre decreciente. Así pues, se
diferencia de la distribución binomial en que el número de repeticiones no está
predeterminado, sino que es la variable aleatoria que se mide y, por otra parte,
el conjunto de valores posibles de la variable es ilimitado.

Para ilustrar el empleo de esta distribución, se supone que cierto medicamento


opera exitosamente ante la enfermedad para la cual fue concebido en el 80%
de los casos a los que se aplica; la variable aleatoria “intentos fallidos en la
aplicación del medicamento antes del primer éxito” sigue una distribución
geométrica de parámetro p = 0,8. Otro ejemplo de variable geométrica es el
número de hijos hasta el nacimiento de la primera niña. La distribución
geométrica se utiliza en la distribución de tiempos de espera, de manera que si
los ensayos se realizan a intervalos regulares de tiempo, esta variable aleatoria
proporciona el tiempo transcurrido hasta el primer éxito. Esta distribución
presenta la propiedad denominada “falta de memoria”, que implica que la
probabilidad de tener que esperar un tiempo t no depende del tiempo que ya
haya transcurrido.

Valores: k: 0, 1, 2, …

Parámetros: p: probabilidad de éxito, 0 < p < 1

Ejemplo: La probabilidad de que cierto examen médico dé lugar a una


reacción “positiva” es igual a 0,8, ¿cuál es la probabilidad de que ocurran
menos de 5 reacciones “negativas” antes de la primera positiva? La variable
aleatoria “número de reacciones negativas antes de la primera positiva” sigue
una distribución geométrica con parámetro p = 0,8.

Resultados con Epidat 4:

La probabilidad de que ocurran menos de 5 reacciones “negativas” antes de la


primera positiva es casi 1 (0,9997).

Esta distribución se puede hacer derivar de un proceso experimental puro o


de Bernoulli en el que tengamos las siguientes características:

● El proceso consta de un número no definido de pruebas o experimentos


separados o separables. El proceso concluirá cuando se obtenga por
primera vez el resultado deseado (éxito).
● ·Cada prueba puede dar dos resultados mutuamente excluyentes: A y
no A
● La probabilidad de obtener un resultado A en cada prueba es p y la de
obtener un resultado no A es q
siendo (p + q = 1).

Las probabilidades p y q son constantes en todas las pruebas, por tanto, las
pruebas, son independientes (si se trata de un proceso de "extracción" éste se
llevará a, cabo con devolución del individuo extraído).

Distribución Pascal (r, p)


La distribución de Pascal debe su nombre al matemático francés Blaise
Pascal (1623-1662), uno de los matemáticos que creó las bases de la teoría de
la probabilidad.

La distribución de Pascal o también llamada binomial negativa es una


distribución de probabilidad discreta, se utiliza en procesos en los cuales se
necesita la repetición de ensayos hasta conseguir un número de resultados
exitosos. Se genera cuando se interesa el número de observaciones
necesarias para que un suceso A ocurra “r” veces en “n” observaciones
independientes de un experimento “e”.

Esta distribución es una generalización de la distribución geométrica, donde


solo se busca 1 éxito en cuyo caso r = 1.

Entonces:

El número de pruebas necesarias para obtener r éxitos, siendo p la


probabilidad de éxito, es una variable aleatoria que sigue una distribución
Pascal de parámetros r y p. Por tanto, esta distribución está relacionada con la
binomial negativa de idénticos parámetros del modo siguiente:

Pascal (r, p) = BN(r,p)+r


Teniendo en cuenta esta relación, podríamos decir que el número de
lanzamientos de un dado realizados antes de obtener un 6 en tres ocasiones
sigue una Pascal (3,1/6).

De la misma manera que ocurre en la distribución binomial negativa, Epidat 4


sólo permite realizar el cálculo cuando el número de éxitos considerados es
igual o inferior a 1.000.

Valores: k: r, r+1, r+2, ...

Parámetros:

r: número de éxitos, r ≥ 1 entero

p: probabilidad de éxito, 0 < p < 1

Ejemplo

Siguiendo con el ejemplo de la distribución binomial negativa, si en promedio


una de cada 100 placas de rayos X que se realizan es defectuosa, ¿cuál es el
número medio de placas realizadas entre 10 defectuosas?

Si se considera el primer fallo como punto de inicio, hay que considerar la


variable “número de placas realizadas antes de 9 defectuosas”, que sigue una
distribución de Pascal de parámetros r = 9 y p = 0,01.

Resultados con Epidat 4:

El número medio de placas realizadas entre 10 defectuosas es de 900.


Distribución multinomial
En teoría de probabilidad, la distribución multinomial o distribución
multinómica es una generalización de la distribución binomial.
La distribución binomial es la probabilidad de un número de éxitos en N
sucesos de Bernoulli independientes, con la misma probabilidad de éxito en
cada suceso. En una distribución multinomial, el análogo a la distribución de
Bernoulli es la distribución categórica, donde cada suceso concluye en
únicamente un resultado de un número finito K de los posibles, con

probabilidades   (tal que   para i entre 1 y K y  ); y con n


sucesos independientes.
Entonces sea la variable aleatoria , que indica el número de veces que se ha

dado el resultado i sobre los n sucesos. El vector   sigue una distribución

multinomial con parámetros n y p, donde  .


Nótese que en algunos campos las distribuciones categórica y multinomial se
encuentran unidas, y es común hablar de una distribución multinomial cuando
el término más preciso sería una distribución categórica.

Función.
La función de probabilidad de la distribución multinomial es como sigue:

Para enteros no negativos x1, ..., xk.

Propiedades.

La esperanza matemática del suceso i observado en n pruebas es:

La varianza es:
La distribución hipergeométrica

Es especialmente útil en todos aquellos casos en los que se extraigan


muestras o se realizan experiencias repetidas sin devolución del elemento
extraído o sin retornar a la situación experimental inicial.

    Modeliza, de hecho, situaciones en las que se repite un número determinado


de veces una prueba dicotómica de manera que con cada sucesivo resultado
se ve alterada la probabilidad de obtener en la siguiente prueba uno u otro
resultado. Es una distribución. fundamental en el estudio de muestras
pequeñas de poblaciones. pequeñas y en el cálculo de probabilidades de,
juegos de azar y tiene grandes aplicaciones en el control de calidad en otros
procesos experimentales en los que no es posible retornar a la situación de
partida.

    La distribución hipergeométrica puede derivarse de un proceso experimental


puro o de Bernoulli con las siguientes características:

El proceso consta de n pruebas, separadas o separables de entre un conjunto


de N pruebas posibles.

Cada una de las pruebas puede dar únicamente dos resultados mutuamente
excluyentes: A y no A.

En la primera prueba las probabilidades son: P(A)= p y P(A)= q; con p+q=l.

Las probabilidades de obtener un resultado A y de obtener un resultado no A


varían en las sucesivas pruebas, dependiendo de los resultados anteriores.

 (Derivación de la distribución). Si estas circunstancias aleatorizados de forma


que la variable aleatoria X sea el número de resultados A obtenidos en n
pruebas la distribución de X será una Hipergeométrica de parámetros N,n,p    
así    

Un típico caso de aplicación de este modelo es el siguiente:

Supongamos la extracción aleatoria de n elementos de un conjunto formado


por N elementos totales, de los cuales Np son del tipo A y Nq son del tipo 
 (p+q=l) .Si realizamos las extracciones sin devolver los elementos extraídos , y
llamamos X. al número de elementos del tipo A que extraemos en n
extracciones X seguirá una distribución hipergeométrica de parámetros N , n , p

Función

  La función de cuantía de una distribución Hipergeométrica hará corresponder


a cada valor de la variable X (x = 0,1,2, . . . n) la probabilidad del suceso
"obtener x resultados del tipo A ", y (n-x) resultados del tipo no A en las n
pruebas realizadas de entre las N posibles.
Veamos:

 Hay un total de   formas distintas de obtener

x resultados del tipo A y n-x del tipo   ,


si partimos de una población formada por Np elementos del tipo A y Nq
elementos del tipo 

      Por otro lado, si realizamos n pruebas o extracciones hay un total de

           posibles muestras (grupos de n elementos)


aplicando la regla de Laplace tendríamos

                                
que para valores de X comprendidos entre el conjunto de enteros 0, 1, … . n
será la expresión de la función de cuantía de una distribución, Hipergeométrica
de parámetros N, n, p.
Media y varianza.
    Considerando que una variable hipergeométrica de parámetros N, n, p
puede considerarse generada por la reiteración de un proceso dicotómico n
veces en el que las n dicotomías NO son independientes; podemos considerar
que una variable hipergeométrica es la suma de n variables dicotómicas NO
independientes.
    Es bien sabido que la media de la suma de variables aleatorias (sean éstas
independientes o no) es la suma de las medias y por tanto la media de una
distribución hipergeométrica será , como en el caso de la binomial : 
En cambio, si las variables sumando no son independientes la varianza de la
variable suma no será la suma de las varianzas.
    Si se evalúa el valor de la varianza para nuestro caso se obtiene que la
varianza de una distribución hipergeométrica de parámetros N,n,p es : si   

                                                
 

Puede comprobarse en la representación gráfica de una hipergeométrica con N


=100000 como ésta ,es idéntica a la de una binomial con los mismos
parámetros restantes n y p , que utilizamos al hablar de la binomial.

Moda de la distribución hipergeométrica

    De manera análoga a como se obtenía la moda en la distribución binomial es


fácil obtener la expresión de ésta para la distribución hipergeométrica. De
manera que su expresión X0 sería la del valor o valores enteros que verificasen.

                                                  

Distribución de Poisson

En teoría de probabilidad y estadística, la distribución de Poisson es una


distribución de probabilidad discreta que expresa, a partir de una frecuencia de
ocurrencia media, la probabilidad de que ocurra un determinado número de
eventos durante cierto período de tiempo. Concretamente, se especializa en la
probabilidad de ocurrencia de sucesos con probabilidades muy pequeñas, o
sucesos «raros».

La distribución de Poisson es popular porque modela el número de veces que


ocurre un evento en un intervalo de tiempo.
donde K= 1,2,3… es el número de ocurrencias del evento o fenómeno.

El parámetro   representa el número de veces que se espera que ocurra


dicho fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado
tiene lugar en promedio 4 veces por minuto y estamos interesados en la
probabilidad de que ocurra  k veces dentro de un intervalo de 10 minutos,
usaremos un modelo de distribución de Poisson con λ = 10×4 = 40.

Distribución de probabilidad continua:


En este punto estudiamos las principales variables de tipo continuo. La
especificación de estas variables se hace a partir de la función de densidad.

Uniforme:
La distribución uniforme es aquella que puede tomar cualquier valor dentro de
un intervalo, todos ellos con la misma probabilidad.
Es una distribución continua porque puede tomar cualquier valor y no
únicamente un número determinado (como ocurre en las distribuciones
discretas).
La distribución Uniforme es el modelo continuo más simple. Corresponde al
caso de una variable aleatoria que sólo puede tomar valores comprendidos
entre dos extremos a y b, de manera que todos los intervalos de una misma
longitud (dentro de (a, b)) tienen la misma probabilidad. También puede
expresarse como el modelo probabilístico correspondiente a tomar un número
al azar dentro de un intervalo (a, b).
En teoría de probabilidad y estadística, la distribución uniforme continua es una
familia de distribuciones de probabilidad para variables aleatorias continuas,
tales que, para cada miembro de la familia, todos los intervalos de igual
longitud en la distribución en su rango son igualmente probables. El dominio
está definido por dos parámetros, a y b, que son sus valores mínimo y máximo.
La distribución es a menudo escrita en forma abreviada como U (a, b).

Exponencial: En Teoría de Probabilidad y Estadística, la distribución


exponencial es una distribución continua que se utiliza para modelar tiempos
de espera para la ocurrencia de un cierto evento. Esta distribución al igual que
la distribución geométrica tiene la propiedad de pérdida de memoria. La
distribución exponencial es un caso particular de la distribución gamma.
Función de distribución exponencial.

Función de densidad de probabilidad

Gamma:
La distribución Gamma, al igual que ocurre con la exponencial, se utiliza
habitualmente para modelizar variables aleatorias positivas y asimétricas, y
sobre todo para describir procesos de eventos que ocurren en el tiempo. La
función de densidad de una variable aleatoria Gamma se caracteriza por dos
parámetros: α o parámetro de forma, y β o parámetro de escala. El parámetro
de forma se denomina así porque al variar su valor se obtienen diferentes
formas para la fdp. La variación del parámetro de escala no cambia la forma de
la distribución, pero tiende a “estirar” o “comprimir” el rango de valores sobre el
que se define la probabilidad.

Distribución de probabilidad continua beta


En teoría de la probabilidad y en estadística, la distribución beta es una familia
de distribuciones continuas de probabilidad definidas en el intervalo (0,1)
parametrizada por dos parámetros positivos de forma, denotados por α y β, que
aparecen como exponentes de la variable aleatoria y controlan la forma de la
distribución. Utilice la distribución beta para variables aleatorias entre 0 y 1. La
distribución beta también se usa en estadísticas bayesianas, por ejemplo, como
la distribución de valores previos de una probabilidad binomial. Y es una
distribución continúa definida por dos parámetros de forma. La distribución
puede adoptar diferentes formas dependiendo de los valores de los dos
parámetros.
Ambas formas son iguales a 1

Cuando ambas formas son iguales a 1, la distribución beta es la distribución


uniforme.
Ambas formas son menores que 1
Cuando ambas formas son menores que 1, la distribución tiene forma de U.

Ambas formas son iguales y son mayores que 1


Cuando ambas formas son iguales y mayores que 1, la distribución es
simétrica.

La primera forma es mayor que la segunda forma


Cuando la primera forma es mayor que la segunda forma, la distribución es
asimétrica
hacia la izquierda.
La primera forma es menor que la segunda forma
Cuando la primera forma es menor que la segunda forma, la distribución es
asimétrica
hacia la derecha.

Distribución de probabilidad continua weibull

En teoría de la probabilidad y estadísticas, la distribución de Weibull / v eɪ b ʊ l /


es un continuo de distribución de probabilidad. Lleva el nombre del matemático
sueco Waloddi Weibull, quien lo describió en detalle en 1951, aunque fue
identificado por primera vez por Fréchet (1927) y aplicado por primera vez por
Rosin y Rammler (1933) para describir una distribución de tamaño de partícula.
La distribución de Weibull es una distribución versátil que se puede utilizar para
modelar una amplia gama de aplicaciones en ingeniería, investigación médica,
control de calidad, finanzas y climatología. Por ejemplo, la distribución se utiliza
frecuentemente con análisis de fiabilidad para modelar datos de tiempo antes
de falla. La distribución de Weibull también se utiliza para modelar datos
asimétricos del proceso en el análisis de capacidad.
La distribución de Weibull se utiliza en:
* Análisis de la supervivencia
* En ingeniería, para modelar procesos estocásticos relacionados con el tiempo
de fabricación y distribución de bienes.
Aplicación de la distribución de probabilidad acumulada de Weibull a lluvias
diarias máximas.
* Teoría de valores extremos
* Meteorología
* Para modelar la distribución de la velocidad del viento (frecuencia con la que
se dan diferentes velocidades de viento)
* En telecomunicaciones
* En sistemas de radar para simular la dispersión de la señal recibida
* En seguros, para modelar el tamaño de las pérdidas
* En la hidrología, se utiliza la distribución de Weibull para analizar variables
aleatorias como valores máximos de la precipitación y la descarga de ríos, y
además para describir épocas de sequía.

Distribución normal.
La distribución normal o distribución de Gauss es un modelo teórico capaz de
aproximar satisfactoriamente el valor de una variable aleatoria a una situación
ideal.

En otras palabras, la distribución normal adapta una variable aleatoria a una


función que depende de la media y la desviación estándar. Es decir, la función
y la variable aleatoria tendrán la misma representación, pero con ligeras
diferencias.

Una variable aleatoria continua puede tomar cualquier número real. Por
ejemplo, las rentabilidades de las acciones, los resultados de un examen, el
coeficiente de inteligencia IQ y los errores estándar son variables aleatorias
continuas.

Una variable aleatoria discreta toma valores naturales. Por ejemplo, el número
de estudiantes en una universidad.

Un parámetro muy importante en este tipo de distribución es la media (µ) y


siempre estará al centro de la curva con forma de campana. Por ejemplo, aquí
tenemos la gráfica de una distribución normal con media igual a 8.
Además de la media, existe otro parámetro muy importante, se trata de la
desviación estándar, representada con la letra griega σ. La desviación estándar
es la medida de variabilidad más utilizada y nos indica que tan dispersos se
encuentran los datos. Existen dos curvas normales, una con desviación
estándar pequeña, y otra con desviación estándar grande. Cuando la
desviación estándar es pequeña, los datos tienen una dispersión baja y se
agrupan alrededor de la media. En cambio, cuando la desviación estándar es
alta, los datos tienen una dispersión alta y se alejan de la media. Gráficamente
estarían expresada de la siguiente manera:

Recordando…
Desviación estándar pequeña (dispersión baja y se agrupan alrededor de la
media).

Desviación estándar grande (dispersión alta y se alejan de la media).

Características de la distribución normal

Existe una función matemática con forma de campana que tiene la siguiente
definición:

Si se grafica esta función, se obtiene como resultado la curva normal:

Otras características de la distribución estándar:


● Toma en cuenta la media (µ) y la desviación estándar (σ).
● El área bajo la curva es igual a 1.
● Es simétrica respecto al centro, o a la media.
● 50% de los valores son mayores que la media, y 50% de los valores son
menores que la media.
● La media es igual a la mediana y a la moda.
● Tiene una asíntota en y = 0 (eje x).
● Para encontrar las probabilidades o cantidad de datos entre
determinados valores de la variable, se calcula el área bajo la curva
normal, que se encuentra en la tabla z o tabla de áreas bajo la curva
normal estandarizada.
● Existen 2 tipos de distribución normal. Una cuando es estandarizada y
otra cuando no
● La distribución normal estandarizada

La distribución normal estándar, es aquella distribución normal que tiene una


media igual a cero, y una desviación estándar igual a uno. Veamos la función
densidad normal estandarizada, que trabaja con la variable estandarizada z en
el eje horizontal:

Por ejemplo, si se desea encontrar la probabilidad de que la variable


estandarizada 𝑧, tome un valor entre 0 y 1,50; hay que encontrar el área bajo la
curva entre z = 0 y z = 1,50.
Para calcular el valor de esta área, se utiliza la tabla z y se busca el valor de
1,50.
Tabla estandarizada o tabla de tipificación.

Como vemos, el valor del área bajo la curva es de 0,9332 y esa sería la
probabilidad de que la variable estandarizada z, tome un valor comprendido
entre 0 y 1,50. Ya que en la columna de la Z debemos ubicar 1.5 y en la fila el
0.

¿Ahora como sabemos si nuestra distribución no es estandarizada?

En la mayoría de problemas, cuando se analizan diferentes variables


aleatorias, la distribución normal no tiene la forma estandarizada, es decir, la
media no es cero y la desviación estándar no es uno. En esos casos, se
convierten los valores de la variable aleatoria (x) a z, es decir, se estandarizan
los valores de la variable aleatoria (x).

La fórmula de la variable estandarizada «𝑧», la cual indica cuántas


desviaciones estándar se aleja el valor 𝑥 de la media, es la siguiente:
Y luego, con los valores de 𝑧, se utiliza la tabla y se calculan las áreas bajo la
curva, porcentajes o probabilidades.

Por ejemplo, si tenemos una variable aleatoria continua X con una distribución
normal no estandarizada, con media igual a 10 y desviación estándar igual a 1,
y el problema pide calcular la probabilidad de que la variable X tome un valor
entre 10 y 11,50, hay que estandarizar los valores de la variable X aplicando la
fórmula de z:

Y usando la tabla z, se calcula el área bajo la curva. Cuando 𝑧 es igual a 1,50,


el área bajo la curva es de 0,9332.

Podemos concluir que la probabilidad de que la variable estandarizada z, tome


un valor comprendido entre 10 y 11,50 es de 0,9332.

Porcentuado quedaría de la siguiente manera: 0, 9332 * 100 = 93, 32%

Teoría de límite central.


En probabilidad, el teorema del límite central (TCL) establece que la
distribución de la muestra se aproxima a una distribución normal (también
conocida como «curva de campana») a medida que el tamaño de la muestra
aumenta, asumiendo que todas las muestras son idénticas en tamaño, e
independientemente de la forma de distribución de la población.

Dicho de otra manera, TCL es una teoría estadística que establece que, dado
un tamaño de muestra suficientemente grande de una población con un nivel
finito de varianza, la media de todas las muestras de la misma población será
aproximadamente igual a la media de la población. Además, todas las
muestras seguirán un patrón de distribución normal aproximado, siendo todas
las varianzas aproximadamente iguales a la varianza de la población, dividida
por el tamaño de cada muestra.

Principales propiedades del teorema central del límite.

El teorema central del límite tiene una serie de propiedades de gran utilidad en
el ámbito estadístico y probabilístico. Las principales son:

● Si el tamaño de la muestra es suficientemente grande, la distribución de las


medias muéstrales seguirá aproximadamente una distribución normal. El TCL
considera una muestra como grande cuando el tamaño de la misma es superior
a 30. Por tanto, si la muestra es superior a 30, la media muestral tendrá una
función de distribución próxima a una normal. Y esto se cumple
independientemente de la forma de la distribución con la que estamos
trabajando.
● La media poblacional y la media muestral serán iguales. Es decir, la media de
la distribución de todas las medias muéstrales será igual a la media del total de
la población.
● La varianza de la distribución de las medias muéstrales será σ²/𝑛. Que es la
varianza de la población dividido entre el tamaño de la muestra.

La media de una muestra estará más cerca de la media de la población


general, a medida que aumenta el tamaño de la muestra, a pesar de la
distribución real de los datos. En otras palabras, los datos son precisos tanto si
la distribución es normal como si es aberrante.

El teorema del límite central presenta un fenómeno en el que el promedio de


las medias muéstrales y las desviaciones estándar son iguales a la media y la
desviación estándar de la población, lo que es extremadamente útil para
predecir con precisión las características de las poblaciones. Una demostración
grafica de TCL es el siguiente:

Ejemplo:
La renta media de los habitantes de un país se distribuye uniformemente entre
4,0 millones ptas. y 10,0 millones ptas. Calcular la probabilidad de que al
seleccionar al azar a 100 personas la suma de sus rentas supere los 725
millones ptas.

Cada renta personal es una variable independiente que se distribuye según


una función uniforme. Por ello, a la suma de las rentas de 100 personas se le
puede aplicar el Teorema Central del Límite.

La media y varianza de cada variable individual es:

μ = (4 + 10 ) / 2 = 7
2 2
𝑆 = (10 − 4) / 12 = 3

Por tanto, la suma de las 100 variables se distribuye según una normal cuya
media y varianza son:

Media: μ × 𝑚 = 100× 7 = 700

Varianza: 𝑛 × 𝑠2 = 100 × 3 = 300

Para calcular la probabilidad de que la suma de las rentas sea superior a 725
millones pesetas, comenzamos por calcular el valor equivalente de la variable
normal tipificada:

725−700
𝑍= 17,3
= 1, 44

Luego:

𝑃 (𝑋 > 725) = 𝑃 (𝑌 > 1, 44) = 1 − 𝑃 (𝑌 < 1, 44) = 1 − 0, 9251 = 0, 0749

Es decir, la probabilidad de que la suma de las rentas de 100 personas


seleccionadas al azar supere los 725 millones de pesetas es tan sólo del
7,49%.
CONCLUSION

En síntesis las distribuciones de variable aleatoria discreta y continua , junto a


sus diferentes métodos son una herramienta fundamental para el análisis y
manejo de datos estadísticos en todo los ámbitos de la vida ,desde saber
cuánto clientes entrarán a una panadería a comprar en determiiado día hasta
saber cuántas baterías en aproximado existen dentro de una determinada
superficie.
Sin dichos métodos sería prácticamente imposible o requería de muchos
recursos tener datos precisos y saber la probabilidad de que un evento ocurra
bajo cierto parámetros en específico, cuya dificultad aumenta en cuanto mayor
sea la cantidad de datos que manejamos . Ya sea sea que nos manejemos con
una cantidad determinada o indeterminada de valores manejada en intervalos.
Por ello, estructurar de manera efeciente la variancia y saber que evento es
más probable en detemidada situación, indenticando si estamos ante una
variable discreta o continua, para luego proceder con un método que sea ajuste
a la característica y singularidades de la situación; para así obtener dichas
probabilidades. Resulta de un recurso de inmenso valor para cotidianidad y
progreso humano.
Bibliografía

https://bookdown.org/content/944ffa0f-050e-47cb-afaa-4dff15a9ed00/distribucio
nes-continuas
https://www.ecotec.edu.ec/material/material_2017F1_MAT260_13_80490.pdf
https://es.wikipedia.org/wiki/Distribuci%C3%B3n_exponencial#:~:text=En%20Te
or%C3%ADa%20de%20Probabilidad%20y,propiedad%20de%20p%C3%A9rdid
a%20de%20memoria
https://support.minitab.com/es-mx/minitab/18/help-and-how-to/probability-distrib
utions-and-randomdata/supporting-topics/distributions/beta-distribution/
https://es.m.wikipedia.org/wiki/Distribución_beta
https://es.m.wikipedia.org/wiki/Distribución_de_Weibull
https://support.minitab.com/es-mx/minitab/18/help-and-how-to/probability-distrib
utions-and-randomdata/supporting-topics/distributions/weibulldistribution/#:~:tex
t=La%20distribución%20de%20Weibull%20es,de%20calidad%2C%20finanzas
%20y%20climatolog%C3%ADa.
Aula Fácil. (2022). Recuperado el 25 de Julio de 2022, de
https://www.aulafacil.com/cursos/estadisticas/gratis/teorema-central-del-limite-ej
ercicios-i-l11251
Ludeña, J. A. (s.f.). Economipedia. Recuperado el 25 de Julio de 2022, de
https://economipedia.com/definiciones/teorema-central-del-limite.html
Matemovil. (s.f.). Recuperado el 25 de Julio de 2022, de
https://matemovil.com/distribucion-normal-ejercicios-resueltos/
Polya, G. (24 de agosto de 202o). Investigación Científica. Obtenido de
https://guidocutipa.blog.bo/investigacion/que-es-el-teorema-del-limite-central/

You might also like