Publicaciones Similares

  • Redes neuronales

    Las redes neuronales se utilizan para el aprendizaje profundo, o Deep Learning. El diseño de las Redes Neuronales Artificiales está inspirado en las redes neuronales biológicas, imitando la forma en que opera el cerebro. Las neuronas utilizadas en las redes artificiales básicamente son funciones matemáticas. Cada red tiene: Neuronas de entrada, capa de entrada de…

  • Perceptrones multicapa

    Implementando la capa oculta Capas de entrada (input), oculta (hidden) y de salida (output) en una red neuronal Pesos entre la capa de entrada y la capa oculta Ejemplo A continuación se implementa una red neuronal 4x4x2, con paso directo y como función de activación la sigmoide. import numpy as np def sigmoid(x): """ Calculate…

  • Descenso del gradiente

    El método del descenso del gradiente (gradient descent) es un algoritmo de optimización que permite converger hacia el valor mínimo de una función mediante un proceso iterativo. En aprendizaje automático básicamente se utiliza para minimizar una función que mide el error de predicción del modelo en el conjunto de datos. A esta función se le…

  • Machine Learning

    Introducción Los términos machine learning y aprendizaje automático se utilizan indistintamente. Inteligencia artificial Aunque a veces se usan indistintamente los términos inteligencia artificial y machine learning, machine learning es solo una parte de la inteligencia artificial. Ejemplos en los que se utiliza hoy en día la inteligencia artificial son: Detección del fraude. Programación de recursos….

  • Análisis de datos

    En el Análisis de Datos (o Data Science) tenemos cinco etapas: Enmarcar el problema. Hacer las preguntas adecuadas.    – ¿Cuál es el objetivo?    – ¿Qué queremos estimar o predecir? Adquirir y preparar los datos.    – ¿Qué recursos tenemos para obtener datos?    – ¿Qué información es relevante?    – Limpiar y filtrar…

  • Softmax

    La función Softmax La función Softmax (o función exponencial normalizada)es equivalente a la sigmoide, pero cuando el problema de clasificación en lugar de tener dos clases tiene tres o más. La función está dada por $$ \sigma_j(\vec{z}) = \frac{e^{z_j}}{\sum_{k=1}^K e^{z_k}}, \mbox{ para } j=1,\dots K $$ En python la podríamos definir de la siguiente forma:…

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *