Aprendizaje automático y profundo en Python

Aprendizaje automático y profundo en Python

Un enfoque teórico

  • Author: Pineda Pertuz, Carlos M.
  • Publisher: Rama Editorial
  • ISBN: 9788418971853
  • eISBN Pdf: 9788419857071
  • Place of publication:  Madrid , Spain
  • Year of publication: 2022
  • Pages: 347
Esta obra pretende ser una herramienta de apoyo y de consulta para estudiantes y profesionales interesados en dominar los fundamentos del aprendizaje automático y profundo, y así poder desarrollar sus propios modelos de aprendizaje aptos para realizar predicciones con base en los datos, para ello el autor combina explicaciones teóricas con ejemplos prácticos. El libro se inicia con explicaciones sobre el lenguaje Python, para luego abarcar los algoritmos más destacados dentro del aprendizaje de máquina. El contenido se encuentra dividido en dos partes: la primera enfocada en el machine learning y sus diferentes algoritmos de regresión y clasificación, clustering, entre otros. La segunda parte comprende varias técnicas de deep learning donde estudiaremos diferentes arquitecturas de redes neuronales como: redes densamente conectadas, redes convolucionales y redes recurrentes. Desde la web del libro podrá descargar los ejemplos y ejercicios que se desarrollan en el libro lo que facilitara al lector a asimilar lo aprendido.
  • Cover
  • Title page
  • Copyright page
  • Contenido
  • Prólogo
  • Introducción
  • Capítulo 1. Conceptos básicos de programación en Python 3.9
    • 1.1 Entorno de desarrollo y primeros pasos
    • 1.2 Variables, Tipos de datos y operadores
    • 1.3 Estructuras de datos: Tuplas, listas y diccionarios
    • 1.4 Estructuras selectivas
    • 1.5 Estructuras repetitivas
    • 1.6 Funciones
    • 1.7 Clases y objetos
  • Capítulo 2. Introducción al Aprendizaje Automático
    • 2.1 ¿Qué es aprendizaje automático?
    • 2.2 Conceptos de aprendizaje automático
    • 2.3 Tipos de aprendizaje automático
    • 2.4 Problemas tipicos en aprendizaje automático
    • 2.5 Metodología CRISP-DM
  • Capítulo 3. Herramientas para el aprendizaje automático
    • 3.1 Manejo básico de datos con PANDAS
    • 3.2 Manejo de arreglos con Numpy
      • 3.2.1. Creación de arreglos
      • 3.2.2. Acceso a elementos
      • 3.2.3. Redimensionamiento
      • 3.2.4. Operaciones matemáticas
    • 3.3 Creando gráficos con Matplotlib
      • 3.3.1 Gráficos de líneas
      • 3.3.2 Gráficos de barras
      • 3.3.3 Diagramas de dispersión
      • 3.3.4. Histogramas
      • 3.3.5. Diagrama de caja y bigotes
    • 3.4 Breve Introducción a Scikit-Learn
  • Capítulo 4. Preprocesado de datos
    • 4.1 ¿Que es el preprocesado de datos?
    • 4.2 Creación de conjunto de entrenamiento y pruebas
    • 4.3 Manejo de datos ausentes
    • 4.4 Manejo de datos categóricos
    • 4.5 Escalamiento de características
  • Capítulo 5. Modelos de regresión
    • 5.1 Visualización de la relación entre características del conjunto de datos
    • 5.2 Solución mediante el enfoque de mínimos cuadrados
    • 5.3 Descenso del gradiente
    • 5.4 Regresión lineal mediante scikit-learn
      • 5.4.1. Regresión Simple
      • 5.4.2 Regresión múltiple
    • 5.5 Regresión con random sample consensus (RAMSAC)
    • 5.6 Regresión lineal polinómica
    • 5.7 Regresión lineal múltiple en notación matricial
    • 5.8 Modelos no lineales
      • 5.8.1 Funciones no lineales
      • 5.8.2 Ejemplo suscripciones de telefonía
  • Capítulo 6. Regularización, métricas de evaluación y ajuste de hiperparámetros
    • 6.1. Regularización
      • 6.1.1 Regresión Rígida
      • 6.1.2 Regresión Lasso
      • 6.1.3 Red elástica
    • 6.2. Métricas y técnicas de validación de modelos de regresión
      • 6.2.1 Error absoluto medio (MAE)
      • 6.2.2 Error cuadrático medio (MSE)
      • 6.2.3 Coeficiente de determinación (R2)
      • 6.2.4 Validación cruzada por k iteraciones
    • 6.3. Curvas de aprendizaje y validación
    • 6.4. Técnica de busqueda de cuadrículas para el ajuste de hiperparámetros
  • Capítulo 7. Modelos de Clasificación I
    • 7.1 Perceptrón simple
    • 7.2 Neurona lineal adaptativa (ADALINE)
    • 7.3 Regresión logística
      • 7.3.1 Regresión logística con scikit-learn
      • 7.3.2 Regresión logística con el descenso del gradiente estocástico
      • 7.3.3 Regresión logística con regularización
    • 7.4. Métricas de evaluación
      • 7.4.1. Matriz de confusión
      • 7.4.2. Exactitud (Accuracy)
      • 7.4.3. Precisión (Precision)
      • 7.4.4. Recall, Sensibilidad o TPR (Tasa de verdadero positivo)
      • 7.4.5. F1
      • 7.4.6. Tasa de falsos positivos
      • 7.4.7. Curvas ROC (receiver operating characteristics)
    • 7.5 Máquinas de vectores de soporte (SVM)
      • 7.5.1. Clasificación Multiclase con SVM lineal
      • 7.5.2. Kernels para separar datos no lineales
  • Capítulo 8. Modelos de Clasificación II
    • 8.1 Árboles de decisión
      • 8.1.1. Métricas para medir la separación
      • 8.1.2. Crear y visualizar árboles de decisión con Scikit-Learn
      • 8.1.3. Identificación de características importantes
    • 8.2 Bosques aleatorios (Random Forest)
    • 8.3 Adaboost (Adaptative boosting)
    • 8.4 Gradient boosting
    • 8.5 Naive bayes
    • 8.6 K Vecinos mas cercanos (KNN)
    • 8.7 Sistemas de recomendación
      • 8.7.1. Sistemas de recomendación basados en contenido
      • 8.7.2. Sistema de recomendación basado en filtro colaborativo
    • 8.8 Entrenamiento mediante aprendizaje en línea
  • Capítulo 9. Clustering
    • 9.1 K Medias
    • 9.2 Clustering jerárquico
    • 9.3 Dbscan (Density Based Spatial Clustering of Applications with Noise)
  • Capítulo 10. Reducción de la dimensionalidad
    • 10.1 Análisis de componentes principales (PCA)
    • 10.2 Análisis discriminante lineal (ADL)
  • Capítulo 11. Introducción a las redes neuronales
    • 11.1 Conceptos básicos sobre redes neuronales
      • 11.1.1. Neurona artificial
      • 11.1.2. Red neuronal
      • 11.1.3. Pesos
      • 11.1.4. Sesgos (Bias)
      • 11.1.5. Funciones de activación determina la salida de la neurona.
    • 11.2 Entrenamiento de una red neuronal
    • 11.3 Red neuronal para clasificación binaria
    • 11.4 Red neuronal para clasificación múltiple
  • Capítulo 12. Redes neuronales convolucionales
    • 12.1 Introducción a las redes neuronales convolucionales
      • 12.1.1. Convolución
      • 12.1.2. Agrupación
    • 12.2 CNNs en Keras
    • 12.3 Regularización y dropout
  • Capítulo 13. Aumento de datos y transferencia de aprendizaje
    • 13.1 Generador de datos de imágenes
    • 13.2 Aumento de datos (data augmentation)
    • 13.3 Transferencia de aprendizaje (transfer learning)
      • 13.3.1. Extracción de características
      • 13.3.2. Ajuste fino (Fine tuning)
  • Capítulo 14. Introducción al Procesamiento del Lenguaje Natural (PNL)
    • 14.1 Palabras embebidas (Word embedding)
    • 14.2 Introducción a Word2Vec
    • 14.3 Word2vec con librería Gensim
  • Capítulo 15. Redes neuronales recurrentes (RNN)
    • 15.1 Introducción a las redes neuronales recurrentes
    • 15.2 Propagación a través del tiempo (BPTT)
    • 15.3 LSTM (Memoria larga a corto plazo)
      • 15.3.1. Ejemplo sobre análisis de sentimiento
      • 15.3.2. Ejemplo sobre generación de texto
  • Referencias bibliográficas
  • Índice analítico

SUBSCRIBE TO OUR NEWSLETTER

By subscribing, you accept our Privacy Policy