Publicaciones Similares

  • Feedforward

    Se llama redes feedforward a las redes en que las salidas de una capa son utilizadas como entradas en la próxima capa. Esto quiere decir que no hay loops «hacia atrás». Siempre se «alimenta» de valores hacia adelante. El concepto de «fully connected Feedforward Networks» se refiere a que todas las neuronas de entrada, están…

  • Deep Learning

    El aprendizaje profundo (deep learning) es un conjunto de algoritmos de aprendizaje automático (machine learning) basados en asimilar representaciones de datos. Una observación (por ejemplo, una imagen) puede ser representada en muchas formas (por ejemplo, un vector de píxeles), pero algunas representaciones hacen más fácil aprender tareas de interés (por ejemplo, "¿es esta imagen una…

  • Razonamiento y aprendizaje

    Razonamiento Introducción. Sistemas expertos Un sistema experto es un sistema informático (hardware o software) que simula a expertos humanos en cierta área de especialización dada. Razonamiento aproximado. Tratamiento de la incertidumbre Fuentes de incertidumbre Se pueden clasificar las fuentes de incertidumbre en los siguientes grupos: Deficiencias de la información, características del mundo real, y deficiencias…

  • Softmax

    La función Softmax La función Softmax (o función exponencial normalizada)es equivalente a la sigmoide, pero cuando el problema de clasificación en lugar de tener dos clases tiene tres o más. La función está dada por $$ \sigma_j(\vec{z}) = \frac{e^{z_j}}{\sum_{k=1}^K e^{z_k}}, \mbox{ para } j=1,\dots K $$ En python la podríamos definir de la siguiente forma:…

  • Historia de las redes neuronales

    1958 – Perceptrón 1965 – Perceptrón multicapa 1980’s Neuronas Sigmoidales Redes Feedforward Retropropagación 1989 – Convolutional neural networks (CNN) / Recurent neural networks (RNN) 1997 – Long short term memory (LSTM) 2006 – Deep Belief Networks (DBN): Nace deep learning Restricted Boltzmann Machine Encoder / Decoder = Auto-encoder 2014 – Generative Adversarial Networks (GAN)

  • Descenso del gradiente

    El método del descenso del gradiente (gradient descent) es un algoritmo de optimización que permite converger hacia el valor mínimo de una función mediante un proceso iterativo. En aprendizaje automático básicamente se utiliza para minimizar una función que mide el error de predicción del modelo en el conjunto de datos. A esta función se le…

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *