Redes neuronales, arquitectura con capas de entrada, ocultas y salida, funciones de activación ReLU, Sigmoid y Tanh, conceptos de entrenamiento como épocas, batches y backpropagation, técnicas anti-overfitting como early stopping y dropout, diferencias entre Deep Learning y Machine Learning tradicional con fundamentos teóricos completos y ejemplos prácticos de código.
Algoritmos Naive Bayes y Árboles de Decisión, sus fundamentos teóricos basados en el Teorema de Bayes y reglas de decisión, características principales, asunción de independencia condicional, métricas de pureza (Gini, Entropía), construcción mediante división recursiva, manejo del problema de Laplace con smoothing, interpretabilidad, manejo de valores faltantes, técnicas de poda para evitar overfitting, y aplicaciones prácticas en clasificación de texto y problemas de decisión.
K-Nearest Neighbors (KNN), algoritmo no paramétrico basado en distancias, hiperparámetros (k, métricas de distancia, pesos), procesamiento de texto (limpieza, stop words, Count Vectorizer, TF-IDF), ingeniería de variables textuales (longitud, patrones, emojis, URLs), y aplicaciones prácticas en clasificación con fundamentos teóricos completos.
Métodos de kernel en machine learning, kernel ridge regression, kernel trick para mapeo implícito a dimensiones superiores, tipos de kernels (lineal, RBF, polinomial), Support Vector Machines, consideraciones computacionales, hiperparámetros críticos (C, gamma, degree) y aplicaciones prácticas con fundamentos teóricos completos.
Linear Discriminant Analysis (LDA) como algoritmo supervisado para clasificación y reducción de dimensionalidad, diferencias fundamentales entre PCA y LDA, implementación de Pipelines en scikit-learn para automatización de preprocesamiento, ColumnTransformers para manejo de datos mixtos, y escaladores (StandardScaler, MinMaxScaler, RobustScaler) con ejemplos prácticos completos y fundamentos teóricos.
Validación cruzada K-Fold para evaluación robusta de modelos, técnicas de búsqueda de hiperparámetros (Grid Search exhaustivo vs Random Search eficiente), algoritmos de optimización (descenso del gradiente y gradiente estocástico), configuración del learning rate como hiperparámetro crítico, y selección del best estimator con fundamentos teóricos completos, implementaciones prácticas en Python y pipelines de optimización.
Hi :)
Matemáticas
Vectores
Álgebra Lineal
Geometría Analítica
Producto Punto
Espacios Vectoriales
Ortogonalidad
Normalización
Funciones
Álgebra
Composición de Funciones
Función Inversa
Combinación de Funciones
Transformaciones Gráficas
Aplicaciones Económicas
Interés Compuesto
Proporcionalidad
R
Data
Machine Learning
Aprendizaje Supervisado
Inteligencia Artificial
Clasificación
Regresión
Deep Learning