Publicaciones Similares

  • Minería de datos

    Definición de Minería de Datos La Minería de Datos (Data Mining) es un conjunto de técnicas y procesos de análisis de datos que permite extraer información de bases de datos y Almacenes de Datos mediante la búsqueda automatizada de patrones y relaciones. Modelos de Minería de Datos De verificación. El usuario solicita que se verifique…

  • Historia de las redes neuronales

    1958 – Perceptrón 1965 – Perceptrón multicapa 1980’s Neuronas Sigmoidales Redes Feedforward Retropropagación 1989 – Convolutional neural networks (CNN) / Recurent neural networks (RNN) 1997 – Long short term memory (LSTM) 2006 – Deep Belief Networks (DBN): Nace deep learning Restricted Boltzmann Machine Encoder / Decoder = Auto-encoder 2014 – Generative Adversarial Networks (GAN)

  • Deep Learning

    Introducción Redes neuronales Perceptrón Softmax Entropía cruzada Regresión logística Descenso del gradiente Perceptrones multicapa Feedforward Retropropagación Convolutional Neural Network Historia de las redes neuronales – rhernando.net Bibliografía Libros Redes neuronales & deep learning, Fernando Berzal Cursos AI Programming with Python Nanodegree Juno Lee, Mat Leonard, Jennifer Staab, Juan Delgado, Mike Yi, Ortal Arel, Luis Serrano…

  • Softmax

    La función Softmax La función Softmax (o función exponencial normalizada)es equivalente a la sigmoide, pero cuando el problema de clasificación en lugar de tener dos clases tiene tres o más. La función está dada por $$ \sigma_j(\vec{z}) = \frac{e^{z_j}}{\sum_{k=1}^K e^{z_k}}, \mbox{ para } j=1,\dots K $$ En python la podríamos definir de la siguiente forma:…

  • Chat Completion vs Asistentes Open AI

    Modelos de Finalización de Chat: Funcionamiento Básico: Estos modelos, como GPT-4 o GPT-4o, reciben una secuencia de mensajes como entrada y generan una respuesta basada en ellos. Limitaciones: Falta de Memoria Persistente: No retienen automáticamente el historial de mensajes. Por ejemplo, si preguntas "¿Cuál es la capital de Japón?" y luego "Cuéntame algo sobre la…

  • Descenso del gradiente

    El método del descenso del gradiente (gradient descent) es un algoritmo de optimización que permite converger hacia el valor mínimo de una función mediante un proceso iterativo. En aprendizaje automático básicamente se utiliza para minimizar una función que mide el error de predicción del modelo en el conjunto de datos. A esta función se le…

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *