Publicaciones Similares

  • Machine Learning

    Introducción Los términos machine learning y aprendizaje automático se utilizan indistintamente. Inteligencia artificial Aunque a veces se usan indistintamente los términos inteligencia artificial y machine learning, machine learning es solo una parte de la inteligencia artificial. Ejemplos en los que se utiliza hoy en día la inteligencia artificial son: Detección del fraude. Programación de recursos….

  • Historia de las redes neuronales

    1958 – Perceptrón 1965 – Perceptrón multicapa 1980’s Neuronas Sigmoidales Redes Feedforward Retropropagación 1989 – Convolutional neural networks (CNN) / Recurent neural networks (RNN) 1997 – Long short term memory (LSTM) 2006 – Deep Belief Networks (DBN): Nace deep learning Restricted Boltzmann Machine Encoder / Decoder = Auto-encoder 2014 – Generative Adversarial Networks (GAN)

  • Análisis de datos

    En el Análisis de Datos (o Data Science) tenemos cinco etapas: Enmarcar el problema. Hacer las preguntas adecuadas.    – ¿Cuál es el objetivo?    – ¿Qué queremos estimar o predecir? Adquirir y preparar los datos.    – ¿Qué recursos tenemos para obtener datos?    – ¿Qué información es relevante?    – Limpiar y filtrar…

  • Almacén de datos

    Definición de Almacén de Datos Un Almacén de Datos (o Data Warehouse) es una gran colección de datos que recoge información de múltiples sistemas fuentes u operacionales dispersos, y cuya actividad se centra en la Toma de Decisiones –es decir, en el análisis de la información– en vez de en su captura. Una vez reunidos…

  • Deep Learning

    Introducción Redes neuronales Perceptrón Softmax Entropía cruzada Regresión logística Descenso del gradiente Perceptrones multicapa Feedforward Retropropagación Convolutional Neural Network Historia de las redes neuronales – rhernando.net Bibliografía Libros Redes neuronales & deep learning, Fernando Berzal Cursos AI Programming with Python Nanodegree Juno Lee, Mat Leonard, Jennifer Staab, Juan Delgado, Mike Yi, Ortal Arel, Luis Serrano…

  • Softmax

    La función Softmax La función Softmax (o función exponencial normalizada)es equivalente a la sigmoide, pero cuando el problema de clasificación en lugar de tener dos clases tiene tres o más. La función está dada por $$ \sigma_j(\vec{z}) = \frac{e^{z_j}}{\sum_{k=1}^K e^{z_k}}, \mbox{ para } j=1,\dots K $$ En python la podríamos definir de la siguiente forma:…

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *