-
Red neuronal simple Implementación básica de un modelo de regresión lineal, para aproximar a un valor único utilizando reglas básicas de cálculo diferencial, como: derivadas, derivadas parciales.
A groso modo, el modelo funciona de la siguiente manera:
-
Predicción: la predicción del modelo se define como:
$$\hat{y} = w \cdot x + b$$ -
Cálculo de gradientes: las gradientes del MSE respecto a los parámetros 𝑤 y 𝑏 son:
$$\frac{\partial \text{MSE}}{\partial w} = 2 \cdot (\hat{y} - y) \cdot x$$ $$\frac{\partial \text{MSE}}{\partial b} = 2 \cdot (\hat{y} - y)$$ -
Actualización de Parámetros: los parámetros se actualizan en cada iteración usando el descenso de gradiente con una tasa de aprendizaje
$\alpha$ hasta que el modelo converja en un valor aproximado deseado.$$w \leftarrow w - \alpha \cdot \frac{\partial \text{MSE}}{\partial w}$$ $$b \leftarrow b - \alpha \cdot \frac{\partial \text{MSE}}{\partial b}$$
-
-
RN + ReLU Esta red es muy similar a la anterior pero solo sirve para predecir un valor real positivo, además, se incluye el uso de:
- Función de activación ReLU
-
Notifications
You must be signed in to change notification settings - Fork 0
Berishten/Redes-neuronales
Folders and files
Name | Name | Last commit message | Last commit date | |
---|---|---|---|---|
Repository files navigation
About
Repositorio dedicado a registrar mis avances en inteligencia artificial