Publicaciones Similares

  • Retropropagación

    La retroprogación (backpropagation o propagación hacia atrás) es un método de cálculo del gradiente. El método emplea un ciclo propagación – adaptación de dos fases. Una vez que se ha aplicado un patrón a la entrada de la red como estímulo, este se propaga desde la primera capa a través de las capas siguientes de…

  • Entropía cruzada

    La entropía cruzada conecta las probabilidades con las funciones de error. Está vinculada con la estimación por máxima verosimilitud. Buscaremos modelo cuya entropía sea mínima, porque nos darán la mejor clasificación, ya que son los que tienen una mayor probabilidad (y minimizan la función de error: entropía cruzada). La entropía se define como $-ln(P(x))$. La…

  • Chat Completion vs Asistentes Open AI

    Modelos de Finalización de Chat: Funcionamiento Básico: Estos modelos, como GPT-4 o GPT-4o, reciben una secuencia de mensajes como entrada y generan una respuesta basada en ellos. Limitaciones: Falta de Memoria Persistente: No retienen automáticamente el historial de mensajes. Por ejemplo, si preguntas "¿Cuál es la capital de Japón?" y luego "Cuéntame algo sobre la…

  • Análisis de datos

    En el Análisis de Datos (o Data Science) tenemos cinco etapas: Enmarcar el problema. Hacer las preguntas adecuadas.    – ¿Cuál es el objetivo?    – ¿Qué queremos estimar o predecir? Adquirir y preparar los datos.    – ¿Qué recursos tenemos para obtener datos?    – ¿Qué información es relevante?    – Limpiar y filtrar…

  • Historia de las redes neuronales

    1958 – Perceptrón 1965 – Perceptrón multicapa 1980’s Neuronas Sigmoidales Redes Feedforward Retropropagación 1989 – Convolutional neural networks (CNN) / Recurent neural networks (RNN) 1997 – Long short term memory (LSTM) 2006 – Deep Belief Networks (DBN): Nace deep learning Restricted Boltzmann Machine Encoder / Decoder = Auto-encoder 2014 – Generative Adversarial Networks (GAN)

  • Descenso del gradiente

    El método del descenso del gradiente (gradient descent) es un algoritmo de optimización que permite converger hacia el valor mínimo de una función mediante un proceso iterativo. En aprendizaje automático básicamente se utiliza para minimizar una función que mide el error de predicción del modelo en el conjunto de datos. A esta función se le…

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *