Regresión logística
El algoritmo de regresión logística consiste en:
- Tomar los datos
- Elegir un modelo aleatorio
- Calcular el error
- Minimizar el error y obtener un modelo mejor
El algoritmo de regresión logística consiste en:
1958 – Perceptrón 1965 – Perceptrón multicapa 1980’s Neuronas Sigmoidales Redes Feedforward Retropropagación 1989 – Convolutional neural networks (CNN) / Recurent neural networks (RNN) 1997 – Long short term memory (LSTM) 2006 – Deep Belief Networks (DBN): Nace deep learning Restricted Boltzmann Machine Encoder / Decoder = Auto-encoder 2014 – Generative Adversarial Networks (GAN)
La entropía cruzada conecta las probabilidades con las funciones de error. Está vinculada con la estimación por máxima verosimilitud. Buscaremos modelo cuya entropía sea mínima, porque nos darán la mejor clasificación, ya que son los que tienen una mayor probabilidad (y minimizan la función de error: entropía cruzada). La entropía se define como $-ln(P(x))$. La…
La retroprogación (backpropagation o propagación hacia atrás) es un método de cálculo del gradiente. El método emplea un ciclo propagación – adaptación de dos fases. Una vez que se ha aplicado un patrón a la entrada de la red como estímulo, este se propaga desde la primera capa a través de las capas siguientes de…
El aprendizaje profundo (deep learning) es un conjunto de algoritmos de aprendizaje automático (machine learning) basados en asimilar representaciones de datos. Una observación (por ejemplo, una imagen) puede ser representada en muchas formas (por ejemplo, un vector de píxeles), pero algunas representaciones hacen más fácil aprender tareas de interés (por ejemplo, "¿es esta imagen una…
Introducción Redes neuronales Perceptrón Softmax Entropía cruzada Regresión logística Descenso del gradiente Perceptrones multicapa Feedforward Retropropagación Convolutional Neural Network Historia de las redes neuronales – rhernando.net Bibliografía Libros Redes neuronales & deep learning, Fernando Berzal Cursos AI Programming with Python Nanodegree Juno Lee, Mat Leonard, Jennifer Staab, Juan Delgado, Mike Yi, Ortal Arel, Luis Serrano…
La función Softmax La función Softmax (o función exponencial normalizada)es equivalente a la sigmoide, pero cuando el problema de clasificación en lugar de tener dos clases tiene tres o más. La función está dada por $$ \sigma_j(\vec{z}) = \frac{e^{z_j}}{\sum_{k=1}^K e^{z_k}}, \mbox{ para } j=1,\dots K $$ En python la podríamos definir de la siguiente forma:…