Regresión Lineal

You might also like

Download as docx, pdf, or txt
Download as docx, pdf, or txt
You are on page 1of 8

REGRESIÓN LINEAL

Juan Carlos CastañedaVergara


Samanta Castrillón Pineda
Valeria Carmona Mena
Maria Fernanda Tengana Suarez
Cristian Mateo Usuga Usuga
Valentina Vanegas Arboleda

DEFINICIÓN

En estadística, la regresión lineal o ajuste lineal es un modelo matemático usado


para predecir el valor de una variable según el valor de otra. La variable que
desea predecir se denomina variable dependiente. La variable que se está
utilizando para predecir el valor de la otra variable se denomina variable
independiente.

Esta forma de análisis estima los coeficientes de la ecuación lineal,


involucrando una o más variables independientes que mejor predicen el valor de
la variable dependiente. La regresión lineal se ajusta a una línea recta o a una
superficie que minimiza las diferencias entre los valores de salida previstos y
reales. Hay calculadoras de regresión lineal simple que utilizan el método de
“mínimos cuadrados” para determinar la línea que mejor se ajusta para un
conjunto de datos pareados. A continuación, se calcula el valor de X (variable
dependiente) con respecto a Y (variable independiente).

Los modelos de regresión lineal son relativamente sencillos y proporcionan una


fórmula matemática fácil de interpretar que puede generar predicciones.

Y= aX + b

Y= variable dependiente
a = pendiente
X = variable independiente
b = interseccion con el eje Y

REGRESIÓN LINEAL SIMPLE

El objetivo de un modelo de regresión es tratar de explicar la relación que existe


entre una variable dependiente (variable respuesta) Y un conjunto de variables
independientes (variables explicativas) X1,..., Xn. En un modelo de regresión
lineal simple tratamos de explicar la relación que existe entre la variable
respuesta Y y una única variable explicativa X. El objetivo de un modelo de
regresión es tratar de explicar la relación que existe entre una variable
dependiente (variable respuesta) Y un conjunto de variables independientes
(variables explicativas) X1,..., Xn.
En un modelo de regresión lineal simple se trata de explicar la relación que
existe entre la variable respuesta Y y una única variable explicativa X.

El modelo de regresión lineal simple tiene la siguiente expresión:


Y X =+ + αβ ε

En donde es la ordenada en el origen (el valor que toma Y cuando X vale 0), es
la pendiente de la recta (e indica cómo cambia Y al incrementar X en una
unidad) y una variable que incluye un conjunto grande de factores, cada uno de
los cuales influye en la respuesta sólo en pequeña magnitud, a la que
llamaremos error. X e Y son variables aleatorias, por lo que no se puede
establecer una relación lineal exacta entre ellas.
Para hacer una estimación del modelo de regresión lineal simple, trataremos de
buscar una recta de la forma, de modo que se ajuste a la nube de puntos.

Para esto utilizaremos el método de mínimos cuadrados. Este método consiste


en minimizarla suma de los cuadrados de los errores:

Es decir, la suma de los cuadrados de las diferencias


entre los valores reales observados (yi) y los valores estimados (ˆy ).

Con este método, las expresiones que se obtiene para a y b son las siguientes:

En donde denotan las medias muestrales de X e Y (respectivamente),


es la varianza muestral de X y XY S es la covarianza muestral entre X e Y.
Estos parámetros se calculan como:
Para calcular la recta de regresión de X sobre Y se hace aproximando X por

REGRESION MULTIPLE

La regresión lineal múltiple permite generar un modelo lineal en el que el valor


de la variable dependiente o respuesta (Y) se determina a partir de un conjunto
de variables independientes llamadas predictores (X1,X2,X3...). Es una
extensión de la regresión lineal simple, los modelos de regresión múltiple
pueden emplearse para predecir el valor de la variable dependiente o para
evaluar la influencia que tienen los predictores sobre ella. En el modelo de
regresi´on lineal m´ultiple se supone que la funci´on de regresi´on que relaciona
la variable dependiente con las variables independientes es lineal:

Y = β0 + β 1 X 1 + β 2 X 2 + β 3 X 3 + β 4 X 4 +......+ β n X n + ε

- β 0 es el termino independiente. Es el valor esperado de Y cuando


X1, . . . , Xn son cero.
- β1, β2, . . . βp son los coeficientes parciales de la regresion:
- β1 mide el cambio en Y por cada cambio unitario en X1, manteniendo
X2, X3, . . . , Xp constantes.
- βn mide el cambio en Y por cada cambio unitario en Xp ,
manteniendo X1, . . . , Xp−1 constantes.
- X1, X2, X3, X4,........Xn son las variables independientes.
- ε es el error de observacion debido a variables no controladas.

REGRESIÓN NO LINEAL:Es un método para encontrar un modelo no lineal


para la relación entre la variable dependiente y un conjunto de variables
independientes. A diferencia de la regresión lineal tradicional, que está
restringida a la estimación de modelos lineales, la regresión no lineal puede
estimar modelos con relaciones arbitrarias entre las variables independientes y
las dependientes. Esto se lleva a cabo usando algoritmos de estimación
iterativos.
La diferencia fundamental entre las regresiones lineal y no lineal, y la base para
los nombres de los análisis, son las formas funcionales aceptables del modelo.
Específicamente, la regresión lineal requiere parámetros lineales mientras que la
no lineal no. Utilice la regresión no lineal en lugar de la regresión lineal cuando
no pueda modelar adecuadamente la relación con parámetros lineales.

Una función de regresión lineal debe ser lineal en los parámetros, lo cual
restringe la ecuación a una sola forma básica. Los parámetros son lineales
cuando cada término del modelo es aditivo y contiene solo un parámetro que
multiplica el término:

Respuesta = constante + parámetro * predictor + ... + parámetro * predictor

o y = βo + β1X1 + β2X2 + ... + βkXk

Sin embargo, una ecuación no lineal puede adoptar muchas formas diferentes.
De hecho, debido a que el número de posibilidades es infinito, usted debe
especificar la función de expectativa que Minitab utiliza para realizar la
regresión no lineal. Estos ejemplos ilustran la variabilidad (las θ representan los
parámetros):

● y = θX (Convexa 2, 1 parámetro, 1 predictor)


● y = θ1 * X1 / ( θ2 + X1 ) (ecuación de Michaelis-Menten, 2 parámetros, 1
predictor)
● y = θ1 - θ2 * ( ln ( X1 + θ3 ) - ln ( X2 )) (ecuación de Nernst, 3
parámetros, 2 predictores)

La función que se elige suele depender del conocimiento previo de la forma de


la curva de respuesta o del comportamiento de las propiedades físicas y
químicas del sistema. Las formas no lineales posibles incluyen cóncava,
convexa, crecimiento y descenso exponencial, curva sigmoidal (S) y curvas
asintóticas. Usted debe especificar la función que satisfaga los requisitos de
conocimiento previo y los supuestos de la regresión no lineal.

Aunque la flexibilidad para especificar muchas funciones de expectativa


diferentes es muy conveniente, también es cierto que puede requerirse un gran
esfuerzo para determinar la función que proporcione el ajuste óptimo para los
datos. Esto, con frecuencia, requiere investigación adicional, conocimiento del
área de estudio y análisis de ensayo y error. Además, en el caso de las
ecuaciones no lineales, determinar el efecto que tiene cada predictor sobre la
respuesta puede ser menos intuitivo que para las ecuaciones lineales

Regresión Logística Simple: Es un método de regresión que permite estimar la


probabilidad de una variable cualitativa binaria en función de una variable
cuantitativa. Una de las principales aplicaciones de la regresión logística es la
de clasificación binaria, en el que las observaciones se clasifican en un grupo u
otro dependiendo del valor que tome la variable empleada como predictor. Por
ejemplo, clasificar a un individuo desconocido como hombre o mujer en
función del tamaño de la mandíbula.

Consideraciones importantes al emplear el análisis de regresión

Algo que debemos tener presente es que estos modelos predictivos no son
exactos. En ellos es posible confundir la correlación de dos variables con una
causalidad. Si las variables no tienen una razón lógica para relacionarlas entre
sí, podemos llegar a conclusiones erróneas al analizar datos que no se
relacionen en la realidad.

Como vemos, existen muchas maneras diferentes de aplicar un análisis de


regresión, cada una adaptada a las necesidades particulares de cada caso de
estudio. Y aunque es necesario tener precaución y elegir bien las variables a
estudiar, la regresión nos permite obtener datos valiosos que utilizar en nuestro
beneficio.

WEBGRAFIA:

Rodrigo, J. A. (2016). Introducción a la Regresión Lineal Múltiple.


Cienciadedatos.net.
https://www.cienciadedatos.net/documentos/25_regresion_lineal_multiple#Vari
ables_nominalescateg%C3%B3ricas_como_predictores

Eio.Usc.Es, 2012,
http://eio.usc.es/eipc1/BASE/BASEMASTER/FORMULARIOS-PHP-DPTO/MATERIALES/
Mat_50140128_RegresionMultiple.pdf.
Rodrigo, J. A. (s/f). Regresión logística simple y múltiple. Cienciadedatos.net.

Recuperado el 2 de noviembre de 2021, de

https://www.cienciadedatos.net/documentos/27_regresion_logistica_

simple_y_multiple

You might also like