Introducción a redes neuronales

redes neuronales

Redes neuronales 1

Eduardo Selim M. M. , Carlos A. Ar.
05-29-2021

Tareita: Revisar el artpiculo Cybento, G(1989). “Approximations by superpositions of sigmoidal functions”. Mathematics of control, Signals and Systems 303-314. Reporte:

Es decir, sólo se tiene una variable explicativa \(x_1\) y se derivarán 2 nuevas variables \(a_1, a_2\). Entonces, se hace una regresión logística para predecir \(G = 1\) o \(G = 0\)

\[ p_1(x ; a_1, a_2) = logit(\beta_0 + \beta_1a_1 + \beta_2a_2) \]

Donde

\[ a_1(x) := h(\beta_{10} + \beta_{11}x_1)\\ a_2(x) := h(\beta_{20} + \beta_{21}x_1) \]

con \(h(\cdot)\) preestablecida. Para este ejemplo, supóngase que \(h(x) = \frac{1}{1+ e^{-x}}\)

Observación: En esta especificación, hay 7 parámetros, que eventualmente tendrán que estimar: \(\beta_0, \beta_1, \beta_2, \beta_{10}, \beta_{11}, \beta_{20}, \beta_{21}\) ¿Cómo estimar estos \(\beta'^s\)?

Feeed forward

Ejemplo

Notación: \(a^{(l)} := (a_0^{(l)}, a_1^{(l)}, ..., a_{n_l}^{(l)})\) i.e. el vector de unidades de la capa \(l\).

Entonces el algoritmo feed-forward en notación matricial es: