Publicaciones Similares

  • Feedforward

    Se llama redes feedforward a las redes en que las salidas de una capa son utilizadas como entradas en la próxima capa. Esto quiere decir que no hay loops «hacia atrás». Siempre se «alimenta» de valores hacia adelante. El concepto de «fully connected Feedforward Networks» se refiere a que todas las neuronas de entrada, están…

  • Perceptrones multicapa

    Implementando la capa oculta Capas de entrada (input), oculta (hidden) y de salida (output) en una red neuronal Pesos entre la capa de entrada y la capa oculta Ejemplo A continuación se implementa una red neuronal 4x4x2, con paso directo y como función de activación la sigmoide. import numpy as np def sigmoid(x): """ Calculate…

  • Agentes de IA

    La inteligencia artificial (IA) está revolucionando la forma en que interactuamos con el mundo. Entre las aplicaciones más interesantes y útiles se encuentran los agentes de IA, programas diseñados para realizar tareas específicas, aprender de la experiencia y adaptarse a nuevas situaciones. En este artículo, exploraremos qué son los agentes de IA, cómo funcionan y…

  • Historia de las redes neuronales

    1958 – Perceptrón 1965 – Perceptrón multicapa 1980’s Neuronas Sigmoidales Redes Feedforward Retropropagación 1989 – Convolutional neural networks (CNN) / Recurent neural networks (RNN) 1997 – Long short term memory (LSTM) 2006 – Deep Belief Networks (DBN): Nace deep learning Restricted Boltzmann Machine Encoder / Decoder = Auto-encoder 2014 – Generative Adversarial Networks (GAN)

  • Entropía cruzada

    La entropía cruzada conecta las probabilidades con las funciones de error. Está vinculada con la estimación por máxima verosimilitud. Buscaremos modelo cuya entropía sea mínima, porque nos darán la mejor clasificación, ya que son los que tienen una mayor probabilidad (y minimizan la función de error: entropía cruzada). La entropía se define como $-ln(P(x))$. La…

  • Perceptrón

    El perceptrón es el bloque básico de construcción de las redes neuronales artificiales. Los perceptrones se asemejan a las neuronas cerebrales. Algoritmo lineal del perceptrón Los pasos del algoritmo son los siguientes: Inicializar los valores de los pesos y del bias (sesgo) Propagar hacia delante Comprobar el error Retropropagar y ajustar pesos y sesgo Repetir…

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *