Publicaciones Similares

  • Retropropagación

    La retroprogación (backpropagation o propagación hacia atrás) es un método de cálculo del gradiente. El método emplea un ciclo propagación – adaptación de dos fases. Una vez que se ha aplicado un patrón a la entrada de la red como estímulo, este se propaga desde la primera capa a través de las capas siguientes de…

  • Perceptrones multicapa

    Implementando la capa oculta Capas de entrada (input), oculta (hidden) y de salida (output) en una red neuronal Pesos entre la capa de entrada y la capa oculta Ejemplo A continuación se implementa una red neuronal 4x4x2, con paso directo y como función de activación la sigmoide. import numpy as np def sigmoid(x): """ Calculate…

  • Programación orientada a aspectos

    La programación orientada a aspectos (AOP) es un modelo de programación que implementa la lógica cruzada, proporcionando mecanismos que hacen posible separar los elementos que son transversales a todo el sistema. Introducción Durante el desarrollo de aplicaciones nos encontramos con problemas que no se pueden resolver de una manera adecuada con las técnicas habituales de…

  • Redes neuronales

    Las redes neuronales se utilizan para el aprendizaje profundo, o Deep Learning. El diseño de las Redes Neuronales Artificiales está inspirado en las redes neuronales biológicas, imitando la forma en que opera el cerebro. Las neuronas utilizadas en las redes artificiales básicamente son funciones matemáticas. Cada red tiene: Neuronas de entrada, capa de entrada de…

  • Monitorizar la memoria libre

    #!/bin/bash while [ true ] ; # se estará ejecutando indefinidamente do mem=`free -m |awk ‘NR==2 {print $4}’` # free -> da la memoria libre del sistema # -m : en megas # awk -> extrae texto # NR==2 : la 2ª línea # {print $4}: la 4ª columna if [ $mem -lt 10 ];…

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *