Publicaciones Similares

  • Historia de las redes neuronales

    1958 – Perceptrón 1965 – Perceptrón multicapa 1980’s Neuronas Sigmoidales Redes Feedforward Retropropagación 1989 – Convolutional neural networks (CNN) / Recurent neural networks (RNN) 1997 – Long short term memory (LSTM) 2006 – Deep Belief Networks (DBN): Nace deep learning Restricted Boltzmann Machine Encoder / Decoder = Auto-encoder 2014 – Generative Adversarial Networks (GAN)

  • Feedforward

    Se llama redes feedforward a las redes en que las salidas de una capa son utilizadas como entradas en la próxima capa. Esto quiere decir que no hay loops «hacia atrás». Siempre se «alimenta» de valores hacia adelante. El concepto de «fully connected Feedforward Networks» se refiere a que todas las neuronas de entrada, están…

  • Machine Learning

    Introducción Los términos machine learning y aprendizaje automático se utilizan indistintamente. Inteligencia artificial Aunque a veces se usan indistintamente los términos inteligencia artificial y machine learning, machine learning es solo una parte de la inteligencia artificial. Ejemplos en los que se utiliza hoy en día la inteligencia artificial son: Detección del fraude. Programación de recursos….

  • Minería de datos

    Definición de Minería de Datos La Minería de Datos (Data Mining) es un conjunto de técnicas y procesos de análisis de datos que permite extraer información de bases de datos y Almacenes de Datos mediante la búsqueda automatizada de patrones y relaciones. Modelos de Minería de Datos De verificación. El usuario solicita que se verifique…

  • Análisis de datos

    En el Análisis de Datos (o Data Science) tenemos cinco etapas: Enmarcar el problema. Hacer las preguntas adecuadas.    – ¿Cuál es el objetivo?    – ¿Qué queremos estimar o predecir? Adquirir y preparar los datos.    – ¿Qué recursos tenemos para obtener datos?    – ¿Qué información es relevante?    – Limpiar y filtrar…

  • Softmax

    La función Softmax La función Softmax (o función exponencial normalizada)es equivalente a la sigmoide, pero cuando el problema de clasificación en lugar de tener dos clases tiene tres o más. La función está dada por $$ \sigma_j(\vec{z}) = \frac{e^{z_j}}{\sum_{k=1}^K e^{z_k}}, \mbox{ para } j=1,\dots K $$ En python la podríamos definir de la siguiente forma:…

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *