person playing upright piano in sephia photography

Acordes básicos para piano

Tonalidades del Grupo 1 Las tonalidades Do, Sol y Fa se llaman tonalidades del grupo 1, porque todas tienen un sonido similar y sus acordes son parecidos. Tonalidad de Do Mayor Acompañamiento (acordes) Tonalidad de Fa Mayor Acompañamiento (acordes) Tonalidad de Sol Mayor Acompañamiento (acordes)

two pink padlock on pink surface

Auditoría

Gestión de logs y auditoría de eventos La gestión de logs es el proceso de recopilar, almacenar y analizar los registros de eventos generados por los sistemas informáticos. Los “logs” son archivos que registran eventos que ocurren en el sistema operativo o el software. Por ejemplo, un servidor web puede tener un log de todas las solicitudes…

two pink padlock on pink surface

AMF

La AMF (Autenticación MultiFactor) agrega una capa adicional de protección al proceso de inicio de sesión. Incluso si alguien obtiene su contraseña, aún necesitarán un segundo factor (como un código de seguridad enviado a su teléfono) para acceder a su cuenta. Beneficios de la AMF Seguridad mejorada: Al requerir múltiples formas de verificación, la AMF…

two pink padlock on pink surface

Ransomware

Ransomware El ransomware es un tipo de software malicioso, también conocido como “malware”, que los ciberdelincuentes utilizan para bloquear el acceso a los archivos de un usuario. Este bloqueo se realiza mediante el cifrado de los archivos, lo que significa que se alteran de tal manera que el usuario no puede abrirlos sin una clave…

a white toy with a black nose

Deep Learning

Introducción Redes neuronales Perceptrón Softmax Entropía cruzada Regresión logística Descenso del gradiente Perceptrones multicapa Feedforward Retropropagación Convolutional Neural Network Historia de las redes neuronales – rhernando.net Bibliografía Libros Redes neuronales & deep learning, Fernando Berzal Cursos AI Programming with Python Nanodegree Juno Lee, Mat Leonard, Jennifer Staab, Juan Delgado, Mike Yi, Ortal Arel, Luis Serrano…

a white toy with a black nose

Historia de las redes neuronales

1958 – Perceptrón 1965 – Perceptrón multicapa 1980’s Neuronas Sigmoidales Redes Feedforward Retropropagación 1989 – Convolutional neural networks (CNN) / Recurent neural networks (RNN) 1997 – Long short term memory (LSTM) 2006 – Deep Belief Networks (DBN): Nace deep learning Restricted Boltzmann Machine Encoder / Decoder = Auto-encoder 2014 – Generative Adversarial Networks (GAN)

a white toy with a black nose

Convolutional Neural Network

Las Convolutional Neural Networks son redes multicapa que toman su inspiración del cortex visual de los animales. Esta arquitectura es útil en varias aplicaciones, principalmente procesamiento de imágenes, reconocimiento de vídeo y procesamiento del lenguaje natural. La arquitectura consta de varias capas que implementaban la extracción de características y luego clasificar. El siguiente paso es…

a white toy with a black nose

Retropropagación

La retroprogación (backpropagation o propagación hacia atrás) es un método de cálculo del gradiente. El método emplea un ciclo propagación – adaptación de dos fases. Una vez que se ha aplicado un patrón a la entrada de la red como estímulo, este se propaga desde la primera capa a través de las capas siguientes de…

a white toy with a black nose

Feedforward

Se llama redes feedforward a las redes en que las salidas de una capa son utilizadas como entradas en la próxima capa. Esto quiere decir que no hay loops «hacia atrás». Siempre se «alimenta» de valores hacia adelante. El concepto de «fully connected Feedforward Networks» se refiere a que todas las neuronas de entrada, están…

a white toy with a black nose

Perceptrones multicapa

Implementando la capa oculta Capas de entrada (input), oculta (hidden) y de salida (output) en una red neuronal Pesos entre la capa de entrada y la capa oculta Ejemplo A continuación se implementa una red neuronal 4x4x2, con paso directo y como función de activación la sigmoide. import numpy as np def sigmoid(x): """ Calculate…

a white toy with a black nose

Descenso del gradiente

El método del descenso del gradiente (gradient descent) es un algoritmo de optimización que permite converger hacia el valor mínimo de una función mediante un proceso iterativo. En aprendizaje automático básicamente se utiliza para minimizar una función que mide el error de predicción del modelo en el conjunto de datos. A esta función se le…

a white toy with a black nose

Regresión logística

El algoritmo de regresión logística consiste en: Tomar los datos Elegir un modelo aleatorio Calcular el error Minimizar el error y obtener un modelo mejor