Logo de Mydra
Artificial Intelligence
DeepLearning.AI logo

DeepLearning.AI

Matemáticas para el Aprendizaje Automático y la Ciencia de Datos Especialización

  • hasta 3 meses
  • Principiante

Matemáticas para el Aprendizaje Automático y la Ciencia de Datos es una especialización amigable para principiantes donde dominarás el conjunto de herramientas matemáticas fundamentales del aprendizaje automático: cálculo, álgebra lineal, estadísticas y probabilidad. Este curso te ayudará a entender qué hace que los algoritmos funcionen y cómo ajustarlos para implementaciones personalizadas, capacitándote para sobresalir en entrevistas de aprendizaje automático y conseguir el trabajo de tus sueños.

  • Análisis de Datos
  • Cálculo
  • Vectores y Matrices
  • Transformaciones Lineales
  • Autovectores y Autovalores

Resumen

En esta especialización, obtendrás una comprensión profunda de los principios matemáticos que sustentan los algoritmos de aprendizaje automático. Aprenderás a aplicar técnicas estadísticas para mejorar tu análisis de datos y adquirirás habilidades que son muy buscadas por los empleadores. Al final del curso, serás capaz de implementar y optimizar algoritmos de aprendizaje automático, convirtiéndote en un activo valioso en el campo de la IA y la ciencia de datos.

  • Web Streamline Icon: https://streamlinehq.com
    Online
    ubicación del curso
  • Layers 1 Streamline Icon: https://streamlinehq.com
    Inglés
    idioma del curso
  • Certificación Profesional
    al completar el curso
  • A tu propio ritmo
    formato del curso
  • Clases En vivo
    entregado en línea

¿Para quién es este curso?

Aspirantes a Científicos de Datos

Individuos que buscan construir una base matemática sólida para una carrera en ciencia de datos.

Entusiastas del Aprendizaje Automático

Cualquiera interesado en entender los principios matemáticos detrás de los algoritmos de aprendizaje automático.

Profesionales en Transición a IA

Profesionales de otros campos que desean hacer la transición a roles de IA y aprendizaje automático.

Esta especialización te proporcionará las habilidades matemáticas clave necesarias para sobresalir en el aprendizaje automático y la ciencia de datos. Aprenderás temas esenciales como cálculo, álgebra lineal y probabilidad, que son cruciales para entender e implementar algoritmos de aprendizaje automático. Este curso es perfecto para principiantes y profesionales que buscan avanzar en sus carreras en IA.

Requisitos Previos

1 / 3

  • Matemáticas a nivel de escuela secundaria

  • Comprensión básica de álgebra

  • Interés en el aprendizaje automático y la ciencia de datos

¿Qué aprenderás?

Álgebra Lineal para el Aprendizaje Automático y la Ciencia de Datos
Semana 1: Sistemas de Ecuaciones Lineales Lección 1: Sistemas de ecuaciones lineales: dos variables Motivación del aprendizaje automático Sistemas de oraciones Sistemas de ecuaciones Sistemas de ecuaciones como líneas Una noción geométrica de singularidad Matrices singulares vs no singulares Dependencia e independencia lineal El determinante Lección 2: Sistemas de ecuaciones lineales: tres variables Sistemas de ecuaciones (3×3) Singular vs no singular (3×3) Sistemas de ecuaciones como planos (3×3) Dependencia e independencia lineal (3×3) El determinante (3×3) Semana 2: Resolución de sistemas de ecuaciones lineales Lección 1: Resolución de sistemas de ecuaciones lineales: Eliminación Motivación del aprendizaje automático Resolución de sistemas de ecuaciones lineales no singulares Resolución de sistemas de ecuaciones lineales singulares Resolución de sistemas de ecuaciones con más variables Reducción de filas de matrices Operaciones de filas que preservan la singularidad Eliminación gaussiana Lección 2: Resolución de sistemas de ecuaciones lineales: Forma escalonada y rango El rango de una matriz El rango de una matriz en general Forma escalonada Forma escalonada en general Forma escalonada reducida Semana 3: Vectores y Transformaciones Lineales Lección 1: Vectores Norma de un vector Suma y diferencia de vectores Distancia entre vectores Multiplicación de un vector por un escalar El producto punto Producto punto geométrico Multiplicación de una matriz por un vector Laboratorio: Operaciones con vectores: Multiplicación escalar, suma y producto punto de vectores Lección 2: Transformaciones lineales Matrices como transformaciones lineales Transformaciones lineales como matrices Multiplicación de matrices La matriz identidad Inversa de una matriz ¿Qué matrices tienen una inversa? Redes neuronales y matrices Semana 4: Determinantes y Autovectores Lección 1: Determinantes en profundidad Motivación del aprendizaje automático Singularidad y rango de la transformación lineal Determinante como área Determinante de un producto Determinantes de inversas Lección 2: Autovalores y Autovectores Bases en álgebra lineal Espacio en álgebra lineal Visualización interactiva: Espacio lineal Autobases Autovalores y autovectores Análisis de Componentes Principales (PCA)
Cálculo para el Aprendizaje Automático y la Ciencia de Datos
Semana 1: Funciones de una variable: Derivada y optimización Lección 1: Derivadas Ejemplo para motivar derivadas: Velocímetro Derivada de funciones comunes (c, x, x^2, 1/x) Significado de e y la derivada de e^x Derivada de log x Existencia de derivadas Propiedades de la derivada Lección 2: Optimización con derivadas Video 1: Introducción a la optimización: Ejemplo de temperatura Video 2: Optimización de funciones de costo en ML: Pérdida cuadrada Video 3: Optimización de funciones de costo en ML: Pérdida logarítmica Semana 2: Funciones de dos o más variables: Gradientes y descenso de gradiente Lección 1: Gradientes y optimización Introducción a los gradientes Ejemplo para motivar gradientes: Temperatura Notación de gradiente Optimización usando el método de la pendiente: Regresión lineal Lección 2: Descenso de Gradiente Optimización usando descenso de gradiente: 1 variable Optimización usando descenso de gradiente: 2 variables Descenso de gradiente para regresión lineal Semana 3: Optimización en Redes Neuronales y Método de Newton Lección 1: Optimización en Redes Neuronales Perceptrón sin activación y pérdida cuadrada (regresión lineal) Perceptrón con activación sigmoide y pérdida logarítmica (clasificación) Red neuronal de dos capas con activación sigmoide y pérdida logarítmica Matemáticas de la retropropagación Lección 2: Más allá del Descenso de Gradiente: Método de Newton Búsqueda de raíces con el método de Newton Adaptación del método de Newton para optimización Segundas derivadas y Hessianos Método de Newton multivariante
Probabilidad y Estadística para el Aprendizaje Automático y la Ciencia de Datos
Semana 1: Introducción a la probabilidad y variables aleatorias Lección 1: Introducción a la probabilidad Concepto de probabilidad: ensayos aleatorios repetidos Probabilidad condicional e independencia Aprendizaje discriminativo y probabilidad condicional Teorema de Bayes Lección 2: Variables aleatorias Variables aleatorias Función de distribución acumulativa Variables aleatorias discretas: Distribución de Bernoulli Variables aleatorias discretas: Distribución binomial Función de masa de probabilidad Variables aleatorias continuas: Distribución uniforme Variables aleatorias continuas: Distribución gaussiana Variables aleatorias continuas: Distribución chi-cuadrado Función de distribución de probabilidad Semana 2: Descripción de distribuciones y vectores aleatorios Lección 1: Descripción de distribuciones Medidas de tendencia central: media, mediana, moda Valores esperados Cuantiles y diagramas de caja Medidas de dispersión: varianza, desviación estándar Lección 2: Vectores aleatorios Distribuciones conjuntas Distribuciones marginales y condicionales Independencia Medidas de relación: covarianza Distribución normal multivariante Semana 3: Introducción a la estadística Lección 1: Muestreo y estimaciones puntuales Población vs. muestra Descripción de muestras: proporción de muestra y media de muestra Distribución de la media de la muestra y proporción: Teorema del Límite Central Estimaciones puntuales Estimaciones sesgadas vs no sesgadas Lección 2: Estimación de máxima verosimilitud Ejemplo de motivación en ML: Análisis Discriminante Lineal Verosimilitud Intuición detrás de la estimación de máxima verosimilitud MLE: Cómo obtener el máximo usando cálculo Lección 3: Estadística bayesiana Ejemplo de motivación en ML: Naive Bayes Estadística frecuentista vs. bayesiana Distribuciones a priori/ a posteriori Estimadores bayesianos: media posterior, mediana posterior, MAP Semana 4: Estadísticas de intervalo y pruebas de hipótesis Lección 1: Intervalos de confianza Margen de error Estimación de intervalo Intervalo de confianza para la media de la población IC para parámetros en regresión lineal Intervalo de predicción Lección 2: Pruebas de hipótesis Motivación en ML: Pruebas AB Juicio criminal Dos tipos de errores Prueba para proporción y medias Inferencia de dos muestras para la diferencia entre grupos ANOVA Poder de una prueba

Lo que dicen los estudiantes sobre este curso

  • En unos pocos minutos y un par de diapositivas, tuve la sensación de que podía aprender cualquier concepto. Me sentí como un superhéroe después de este curso. No sabía mucho sobre aprendizaje profundo antes, pero sentí que obtuve una base sólida después.

    Jan Zawadzki

  • Toda la especialización fue como una tienda de una sola parada para mí para descifrar redes neuronales y entender las matemáticas y la lógica detrás de cada variación de ellas. Puedo decir que las redes neuronales son menos una caja negra para muchos de nosotros después de tomar el curso.

    Kritika Jalan

  • Durante mi entrevista en Amazon, pude describir, en detalle, cómo funciona un modelo de predicción, cómo seleccionar los datos, cómo entrenar el modelo y los casos de uso en los que este modelo podría agregar valor al cliente.

    Chris Morrow

Conozca a su instructor

  • Luis Serrano

    No hay biografía disponible

Próximos cohortes

  • Fechas

    comienza ahora

Libre