miércoles, 11 de mayo de 2016

Distribuciones de Probabilidad

Concepto: En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable aleatoria es una función que asigna a cada suceso definido sobre la variable aleatoria la probabilidad de que dicho suceso ocurra. La distribución de probabilidad está definida sobre el conjunto de todos los sucesos, cada uno de los sucesos es el rango de valores de la variable aleatoria.
La distribución de probabilidad está completamente especificada por la función de distribución, cuyo valor en cada x real es la probabilidad de que la variable aleatoria sea menor o igual que x.



1.Para variables discretas: 

  • Distribución Binomial: En estadística, la distribución binomial es una distribución de probabilidad discreta que cuenta el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad fija pde ocurrencia del éxito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.


  • Distribución de Poisson : En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la probabilidad de que ocurra un determinado número de eventos durante cierto período de tiempo. Concretamente, se especializa en la probabilidad de ocurrencia de sucesos con probabilidades muy pequeñas, o sucesos "raros".
    Fue descubierta por Siméon-Denis Poisson, que la dio a conocer en 1838 en su trabajoRecherches sur la probabilité des jugements en matières criminelles et matière civile(Investigación sobre la probabilidad de los juicios en materias criminales y civiles).



2.Para Variables Continuas:En teoría de la probabilidad una distribución de probabilidad se llama continua si su función de distribución escontinua. Puesto que la función de distribución de una variable aleatoria X viene dada por F_X(x) = P( X \le x ), la definición implica que en una distribución de probabilidad continua X se cumple P[X = a] = 0 para todo número real a, esto es, la probabilidad de que X tome el valor a es cero para cualquier valor de a. Si la distribución de X es continua, se llama a X variable aleatoria continua.
En las distribuciones de probabilidad continuas, la distribución de probabilidad es la integral de la función de densidad

  • Distribución Normal: En estadística y probabilidad se llama distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece aproximada en fenómenos reales.[cita requerida]
    La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro estadístico. Esta curva se conoce como campana de Gauss y es el gráfico de unafunción gaussiana.
    La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes.
    De hecho, la estadística descriptiva sólo permite describir un fenómeno, sin explicación alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso de la estadística en psicología y sociología sea conocido como método correlacional.
    La distribución normal también es importante por su relación con la estimación por mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.


  • Distribución Binomial: 




P-20% defectuosas 
n= 10 




Datos: 

n= numero de ensayos 
p= Probabilidad de Fracaso
q= Probabilidad Fracaso 
x= Numero de Exitos 


Mapa Mental 





VIDEO DE EXPLICACION EN EJERCICIO Y SOLUCION CORRESPONDIENTE 

  • https://www.youtube.com/watch?v=unUpFZiI6DM









martes, 10 de mayo de 2016

Nociones basicas de Probabilidad

Probabilidad Clasica: Una de las características de un experimento aleatorio es que no se sabe qué resultado particular se obtendrá al realizarlo. Es decir, si A es un suceso asociado con un experimento aleatorio, no podemos indicar con certeza si A ocurrirá o no en una prueba en particular. Por lo tanto, puede ser importante tratar de asociar un número al suceso A que mida la probabilidad de que el suceso ocurra. Este número es el que llamaremos P(A).

  

P(A)= Probabilidad de ocurrencia de A 
q(A)= Probabilidad de no courrencia 

q(A)= 1-P(A) 

Experimento Aleatorio 
Es un experimento en el que no se puede determinar los resultados hasta que no se efectue el expermiento como tal. 

Ejemplp = Lanzamiento de Dados, Moneda,Extraccion de balotas....

Espacio muestral 
Es el conjunto de todos los resultados posibles del experimento aleatorio 















































Principio de Multiplicacion 





Analisis Combinatorio 

  • Permutacion: es un arreglo que se hace con los N elementos de un conjunto: teniendo en cuenta que el orden importa (la Formula no tiene en cuenta las repeteciones) 
#Arreglos = Pn - n!





  • Variacion: Es una permutacion, en la que para hacer los arreglos con los N elementos del conjunto se toman de R en R elementos (R<n)
#Arreglos= 4P2= 4!/(4-2)!

  • Combinacion: Una combinacion, es el arreglos que hace con los N elementos de 1 conjunto, tomando en cuenta que no importa el orden (No hay repeteciones) 
#Arreglos = nCr =n!/(n-r)!r!



VIDEO EXPLICATIVO 

  • https://www.youtube.com/watch?v=V0RpOkrizIQ
  • https://www.youtube.com/watch?v=cKeWnqxSPk0
  • https://www.youtube.com/watch?v=oFg7yMFR70A
AQUI ESTOS VIDEOS TE EXPLICA MUCHO MEJOR UN EJERCICIO Y HASTA PARA QUE BENEFICIO NOS AYUDA 









 

lunes, 9 de mayo de 2016

Regresion y Correlación

Regresion: la regresión es un proceso estadístico para estimar las relaciones entre variables. Incluye muchas técnicas para el modelado y análisis de diversas variables, cuando la atención se centra en la relación entre una variable dependiente y una o más variables independientes (o predictoras). Más específicamente, el análisis de regresión ayuda a entender cómo el valor de la variable dependiente varía al cambiar el valor de una de las variables independientes, manteniendo el valor de las otras variables independientes fijas. Más comúnmente, el análisis de regresión estima la esperanza condicional de la variable dependiente dadas las variables independientes - es decir, el valor promedio de la variable dependiente cuando se fijan las variables independientes. Con menor frecuencia, la atención se centra en un cuantil, u otro parámetro de localización de la distribución condicional de la variable dependiente dadas las variables independientes. En todos los casos, el objetivo es la estimación de una función de las variables independientes llamada la función de regresión. En el análisis de regresión, también es de interés para caracterizar la variación de la variable dependiente en torno a la función de regresión que puede ser descrito por una distribución de probabilidad.
El análisis de regresión es ampliamente utilizado para la predicción y previsión, donde su uso tiene superposición sustancial en el campo de aprendizaje automático. El análisis de regresión se utiliza también para comprender que cuales de las variables independientes están relacionadas con la variable dependiente, y explorar las formas de estas relaciones. En circunstancias limitadas, el análisis de regresión puede utilizarse para inferir relaciones causales entre las variables independientes y dependientes. Sin embargo, esto puede llevar a ilusiones o falsas relaciones, por lo que se recomienda precaución,1 por ejemplo, la correlación no implica causalidad.

Correlacion: En probabilidad y estadística, la correlación indica la fuerza y la dirección de una relación lineal y proporcionalidad entre dos variables estadísticas. Se considera que dos variables cuantitativas están correlacionadas cuando los valores de una de ellas varían sistemáticamente con respecto a los valores homónimos de la otra: si tenemos dos variables (A y B) existe correlación si al aumentar los valores de A lo hacen también los de B y viceversa. La correlación entre dos variables no implica, por sí misma, ninguna relación de causalidad






  • MÉTODO DE CUADRADOS MÍNIMOS – REGRESIÓN LINEAL: Hemos enfatizado sobre la importancia de las representaciones gráficas y hemos visto la utilidad de las versiones linealizadas de los gráficos (X, Y) junto a las distintas maneras de llevar a cabo la linealización. A menudo nos confrontamos con situaciones en las que existe o suponemos que existe una relación lineal entre las variables Y.Surge de modo natural la pregunta: ¿cuál es la relación analítica que mejor se ajusta a nuestros datos? El método de cuadrados mínimos es un procedimiento general que nos permite responder esta pregunta. Cuando la relación entre las variables es lineal, el método de ajuste por cuadrados mínimos se denomina también método de regresión lineal.Observamos o suponemos una tendencia lineal entre las variables y nos preguntamos sobre cuál es lamejor recta:
 y(x) = a x b

Que representa este caso de interés. Es útil definir la función:

Que es una medida de la desviación total de los valores observados yrespecto de los predichos por el modelo lineal a x b. Los mejores valores de la pendiente y la ordenada al origen son aquellos que minimizan esta desviación total, o sea, son los valores que remplazados en la Ec.(1) minimizan la funciónc2. Ec.(2). Los parámetros pueden obtenerse usando técnicas matemáticas que hacen uso del cálculo diferencial. Aplicando estas técnicas, el problema de minimización se reduce al de resolver el par de ecuaciones:




MAPA MENTALREGRESIÓN Y CORRELACIÓN



VIDEO EXPLICATIVO 
https://www.youtube.com/watch?v=b0blULCMHAs

EJERCICIO Y SU RESPECTIVA SOLUCION PARA UNA MAYOR INTERPRETACION 

Unidad 1 : Medidas de Dispersión

Unidad 1 : Medidas de Dispersión 


Concepto: Las medidas de dispersión, también llamadas medidas de variabilidad, muestran la variabilidad de una distribución, indicando por medio de un número si las diferentes puntuaciones de una variable están muy alejadas de la media. Cuanto mayor sea ese valor, mayor será la variabilidad, y cuanto menor sea, más homogénea será a la media. Así se sabe si todos los casos son parecidos o varían mucho entre ellos.
Para calcular la variabilidad que una distribución tiene respecto de su media, se calcula la media de las desviaciones de las puntuaciones respecto a la media aritmética. Pero la suma de las desviaciones es siempre cero, así que se adoptan dos clases de estrategias para salvar este problema. Una es tomando las desviaciones en valor absoluto (desviación media) y otra es tomando las desviaciones al cuadrado (varianza).

Rango: Es la Diferencia entre mayor y menos dato 

Ejemplo = 180 - 150 =(la diferencia entre el mayor y menor de los datos) 


DERIVACIÓN MEDIA ( Formula ) 

La desviación respecto a la media es la diferencia en valor absoluto entre cada valor de la variable estadística y la media aritmética.

No Agrupados 


Datos agrupados con intervalos 




VARIANZA ( Formulas ) 

La varianza es una medida estadística que mide la dispersión de los valores respecto a un valor central (media), es decir, es el cuadrado de las desviaciones:
Datos no agrupados 


 S_X^2 = \frac{\sum_{i=1}^n (X_i - \bar{X})^2}{n-1}

Para Datos agrupados con intervalos 



DERIVACIÓN TÍPICA ( Formulas )
La varianza a veces no se interpreta claramente, ya que se mide en unidades cuadráticas. Para evitar ese problema se define otra medida de dispersión, que es la derivación típica, o derivación estándar que se halla como la raíz cuadrada positiva de la varianza. La desviación típica informa sobre la dispersión de los datos respecto al valor de la media; cuanto mayor sea su valor, más dispersos estarán los datos. Esta medida viene representada en la mayoría de los casos por S, dado que es su inicial de su nominación en inglés.


Datos No agrupados 



Datos Agrupados con intervalos 




Coeficiente de Variacion 

La covarianza  entre dos variables es un estadístico resumen indicador de si las puntuaciones están relacionadas entre sí. La formulación clásica se simboliza por la letra griega sigma (σ) cuando ha sido calculada en la población. Si se obtiene sobre una muestra, la fórmula suele aparecer expresada como:


Puntaje tipificado

El término unidad tipificadavariable centrada reducidavariable estandarizada o normalizada se utiliza en estadística para comparar datos procedentes de diferentes muestras o poblaciones.




MAPA MENTAL 





VIDEO EXPLICATIVO 
https://www.youtube.com/watch?v=wm6maUOPmfY

EJERCICIO Y SU RESPECTIVA SOLUCION PARA UNA MAYOR INTERPRETACION