Diccionari d’Aprenentatge Automàtic
- Conceptes Bàsics i Paradigmes d’Aprenentatge
- Dades i variables
- Models i Algoritmes
- Entrenament, Avaluació i Optimització
- Qualitats dels models
- Arquitectures de Xarxes
- Mecanismes d’Aprenentatge
- Intel·ligència Artificial Generativa i Models de Llenguatge
- Àrees Aplicades i Tipus de Problemes
- Llista d’algoritmes
- Conceptes matemàtics
- Abreviatures
Conceptes Bàsics i Paradigmes d’Aprenentatge
Aprenentatge Supervisat (Supervised Learning):
Aprenentatge a partir d’exemples etiquetats on l’algoritme aprèn a mapar entrades amb sortides conegudes. Inclou classificació i regressió.
Aprenentatge No Supervisat (Unsupervised Learning):
Descoberta de patrons en dades sense etiquetes, com l’agrupament (clustering) i la reducció de dimensionalitat.
Aprenentatge per Reforç (Reinforcement Learning):
Agent que aprèn a prendre decisions interactuant amb un entorn, rebent recompenses o penalitzacions.
Aprenentatge Semi-supervisat i Auto (Semi-supervised Learning):
Combina una petita quantitat de dades etiquetades amb moltes dades no etiquetades per millorar el rendiment.
Aprenentatge Auto-supervisat (Self-supervised Learning):
Utilitza dades no etiquetades generant automàticament senyals d’entrenament (pseudo-etiquetes) per aprendre sense supervisió explícita.
Dades i variables
Conjunt de Dades (Dataset):
Col·lecció estructurada d’exemples utilitzada per entrenar, validar i avaluar models de machine learning. Pot dividir-se en conjunts d’entrenament, validació i test.
Exemple (Example/Instance):
Una única observació o mostra del conjunt de dades que conté les característiques d’entrada (x) i, en aprenentatge supervisat, la seva etiqueta o valor objectiu corresponent (y). Representa una unitat completa d’informació que el model utilitza per aprendre o fer prediccions.
Característica / atribut / x (feature):
Variables d’entrada que els models utilitzen per predir. Representen les propietats mesurables o observables dels exemples que ajuden el model a aprendre patrons i fer prediccions sobre la variable objectiu. En notació matemàtica es representa com “x”.
Objectiu / resposta / y (target): Valor correcte associat a cada exemple. En regressió, correspon a un valor numèric continu (ex. temperatura, preu). En classificació, s’anomena etiqueta o classe (label) i representa una categoria discreta (ex. “gat”, “gos”, “spam”). En notació matemàtica, s’acostuma a representar com (y), i es compara amb la predicció del model (ŷ) per calcular l’error.
Predicció / estimació / ŷ (prediction): Els valors que genera el model com a sortida després del processament de les dades d’entrada. Són les estimacions o prediccions que fa el model, que es comparen amb els valors reals per avaluar el rendiment. En notació matemàtica es representa com “ŷ” (y amb accent circumflex).
Dades Esbiaixades (Biased Data):
Quan el conjunt de dades no representa adequadament la diversitat real, portant a models discriminadors o poc generalitzables.
Dades Desbalancejades (Imbalanced Data):
Situació on algunes classes tenen molt menys exemples que altres, afectant el rendiment. Poden requerir tècniques específiques (com sobremostreig o penalització).
Conjunt d’Entrenament (Training Set):
Subconjunt de dades utilitzat per ajustar els paràmetres del model durant la fase d’entrenament. Aquestes dades són les que el model “veu” i aprèn a reproduir o predir.
Conjunt de Validació (Validation Set):
Subconjunt de dades (opcional) no utilitzat durant l’entrenament que serveix per avaluar la capacitat de generalització del model i per ajustar hiperparàmetres, evitant així sobreajustament.
Conjunt de Prova (Test Set):
Subconjunt de dades completament independent que s’utilitza per mesurar de manera objectiva el rendiment final del model després de l’entrenament i la validació. Representa la seva capacitat en dades noves i desconegudes.
Outliers (Valors Atípics):
Observacions que es desvien notablement de la majoria de les dades. Poden ser causats per errors de mesura, soroll o fenòmens inusuals, i poden afectar negativament el rendiment dels models.
Models i Algoritmes
Conceptes bàsics
Algoritme (Algorithm):
Conjunt d’instruccions ben definides que permeten resoldre un problema o executar una tasca. És un concepte general en informàtica. En aprenentatge automàtic, un algoritme especifica com aprendre patrons a partir de dades. No conté informació específica sobre cap conjunt de dades fins que s’entrena. En aplicar-lo a dades d’entrenament, es genera un model concret.
Model (Model):
Representació concreta obtinguda en aplicar un algoritme a dades d’entrenament. Conté els paràmetres apresos que defineixen com el model fa prediccions o classificacions sobre noves dades. És la instància que s’utilitza després de l’entrenament.
Arquitectura (del model): Estructura interna que defineix com s’organitzen i connecten els components d’un model, especialment en xarxes neuronals. Determina la forma i la complexitat del model, incloent el nombre de capes, el tipus d’unitats (neurones), com flueix la informació entre capes i quines funcions d’activació s’utilitzen. És un disseny reutilitzable amb diferents conjunts de dades i configuracions.
Paràmetres (Parameters):
Valors interns del model que s’ajusten durant l’entrenament per capturar la relació entre les característiques d’entrada i la variable objectiu. Exemples comuns són els pesos i el biaix. Són específics per cada model.
Pesos (Weights):
Paràmetres que modulen la influència de cada característica d’entrada sobre la predicció final. Normalment representen l’importància relativa de cada variable.
Biaix (Bias):
Paràmetre que permet ajustar la sortida del model independentment de les entrades, facilitant que el model pugui fer prediccions més flexibles i ajustades.
Tipus de models segons el comportament o objectiu
Model Determinista (Deterministic Model):
Un model que, donada una mateixa entrada, sempre genera la mateixa sortida exacta, sense incertesa ni variabilitat. Exemple: una funció matemàtica pura com la regressió lineal sense soroll addicional.
Model Estocàstic (Stochastic Model):
Model que incorpora components aleatoris en el seu funcionament o entrenament. Pot produir diferents resultats amb la mateixa entrada degut a l’atzar. No implica necessàriament càlculs explícits de probabilitat. A diferència dels models probabilístics, no sempre fan servir explícitament distribucions de probabilitat.
Model Probabilístic (Probabilistic Model):
Model que representa explícitament la incertesa mitjançant distribucions de probabilitat. Utilitza la teoria de la probabilitat per fer inferències i prediccions. És un cas particular de model estocàstic, on la incertesa es representa explícitament mitjançant distribucions de probabilitat.
Model Generatiu:
Aprèn la distribució conjunta de les dades d’entrada i les sortides. Pot generar noves dades similars a les d’entrenament.
Model Discriminatiu:
Aprèn la frontera de decisió entre classes o la relació entre entrada i sortida. S’utilitza per fer classificacions o prediccions directes.
Mètodes d’Ensemble (Ensemble Methods):
Combinació de diversos models per millorar rendiment (bagging, boosting, stacking).
Entrenament, Avaluació i Optimització
Cicle de vida d’un model
Entrenament (Training):
Fase en què l’algoritme ajusta els paràmetres interns del model per minimitzar l’error sobre les dades d’entrenament, mitjançant una funció de pèrdua. Aquest procés es duu a terme amb tècniques d’optimització com el descens de gradient.
Validació (Validation):
Fase on es comprova com generalitza el model a dades no vistes durant l’entrenament. Es fa servir per ajustar hiperparàmetres, detectar sobreajustament i seleccionar el millor model abans de la seva avaluació final.
Avaluació (Evaluation):
Fase final del desenvolupament del model en què es mesura el rendiment del model ja entrenat i validat, utilitzant un conjunt de proves (test set) independent. Permet estimar com es comportarà el model en un entorn real.
Inferència (Inference):
Fase en què s’utilitza el model ja entrenat i validat per fer prediccions sobre dades noves i desconegudes. És el moment en què el model s’aplica en situacions reals per resoldre la tasca per a la qual va ser dissenyat, sense fer cap ajust addicional als seus paràmetres.
Conceptes tècnics clau
Hiperparàmetres (Hyperparameters):
Són valors configurables que determinen el comportament del procés d’entrenament abans que comenci, i no s’aprenen automàticament a partir de les dades. Inclouen, per exemple, la taxa d’aprenentatge, el nombre de capes d’una xarxa neuronal, o la mida dels batch.
Funció de Pèrdua (Loss Function):
És una funció matemàtica que quantifica l’error entre la predicció del model i el valor real per a una mostra individual. Durant l’entrenament, el model calcula aquesta pèrdua per a cada exemple i l’objectiu és reduir-la al mínim.
Funció de Cost (Cost Function):
És la funció objectiu que avalua globalment l’error del model sobre el conjunt d’entrenament (o sobre un lot de mostres). Normalment és la mitjana de totes les pèrdues, però pot incloure termes addicionals com la regularització, per penalitzar models massa complexos. L’optimització del model consisteix a minimitzar aquesta funció.
Descens de Gradient (Gradient Descent):
Algoritme d’optimització iteratiu que ajusta els paràmetres del model en la direcció oposada al gradient de la funció de cost. L’objectiu és trobar els valors dels paràmetres que minimitzen l’error. És una tècnica fonamental per entrenar models en aprenentatge automàtic.
Propagació endavant (Forward Propagation):
Procés en una xarxa neuronal on les dades d’entrada passen capa per capa fins a la capa de sortida. Cada capa calcula una activació basada en els pesos i funcions d’activació, produint finalment la predicció o resultat del model.
Retropropagació (Backpropagation):
Algorisme fonamental en xarxes neuronals que permet ajustar els pesos del model aprenent dels errors. Primer, la xarxa fa una predicció (propagació endavant) i es calcula l’error comparant amb la resposta correcta. A continuació, aquest error es “propaga cap enrere” capa per capa, utilitzant la regla de la cadena per saber com afecta cada pes a l’error final.
Descens de Gradient Estocàstic (SGD):
Variant del descens de gradient que actualitza els paràmetres del model utilitzant mostres individuals o petits subconjunts (mini-batchs) del conjunt d’entrenament. Tot i introduir més soroll en les actualitzacions, sovint accelera l’entrenament i permet escapar de mínims locals.
Optimització (Optimization):
Procés matemàtic mitjançant el qual es troben els valors òptims dels paràmetres d’un model que minimitzen (o maximitzen) una funció objectiu, com la funció de cost. L’optimització és el nucli del procés d’aprenentatge en machine learning.
Validació Creuada (Cross-Validation):
Tècnica que divideix les dades en k parts (folds) i entrena el model k vegades, cada vegada deixant una part diferent per a validació i entrenant amb la resta. Això permet utilitzar tota la informació de les dades tant per entrenar com per validar, i ofereix una estimació més fiable del rendiment del model, especialment quan les dades són limitades.
Qualitats dels models
Sobreajustament (Overfitting):
Succeeix quan un model aprèn massa bé els detalls i el soroll del conjunt d’entrenament, fins al punt que perd la capacitat de generalitzar. Això es manifesta quan el rendiment en entrenament és alt, però el rendiment en validació o test és baix. S’acostuma a donar en models molt complexos o amb massa paràmetres entrenats amb poca quantitat de dades.
Subajustament (Underfitting):
Es dona quan el model és massa senzill o poc entrenat i no aconsegueix capturar els patrons rellevants de les dades, tant d’entrenament com de test. En aquest cas, el rendiment és baix a tots els conjunts de dades. Pot ser degut a un model massa simple, a un entrenament insuficient o a una selecció inadequada de característiques.
Compromís Biaix-Variància (Bias-Variance Tradeoff):
Principi fonamental que descriu l’equilibri entre dos tipus d’error:
- Biaix alt: model massa simple, que no capta bé els patrons (subajustament).
- Variància alta: model massa sensible a les dades d’entrenament (sobreajustament).
L’objectiu és trobar un model prou flexible per captar els patrons rellevants, però no tan complex que memoritzi el soroll.
Generalització (Generalization):
Capacitat d’un model d’oferir bones prediccions sobre dades que no ha vist durant l’entrenament. La generalització és la meta principal de l’aprenentatge automàtic i es mesura mitjançant el rendiment en conjunts de validació o test. Millorar-la implica trobar el model adequat, aplicar regularització i utilitzar dades representatives.
Explicabilitat (Explainability):
Capacitat de comprendre, justificar o interpretar el comportament d’un model: per què pren una decisió concreta o quines característiques hi tenen més pes. És especialment important en entorns regulats o sensibles (com salut o finances) i en models complexos com les xarxes neuronals, que poden actuar com a “caixes negres”.
Justícia (Fairness):
Propietat que busca assegurar que el model no discrimini ni tracti de forma desigual grups poblacionals segons característiques com gènere, raça, edat o origen. La justícia s’avalua mitjançant mètriques específiques i tècniques d’anàlisi d’equitat, i forma part de l’ètica en la intel·ligència artificial.
Robustesa (Robustness):
Habilitat del model per mantenir un comportament estable davant canvis inesperats o condicions adverses, com soroll a les dades, valors fora de rang o manipulacions intencionades (adversarial attacks). Un model robust no depèn de petits detalls irrelevants de l’entrada i respon de manera fiable en contextos diferents als d’entrenament.
Arquitectures de Xarxes
Xarxes Neuronals (Neural Networks):
Sistemes computacionals inspirats en el cervell humà formats per neurones artificials interconnectades. Cada neurona processa informació i la transmet a les següents. Són la base de molts sistemes d’intel·ligència artificial.
Aprenentatge Profund (Deep Learning):
Branca de l’aprenentatge automàtic basada en xarxes neuronals amb moltes capes (profundes). Aquestes capes permeten aprendre representacions jeràrquiques de les dades, des de característiques simples fins a conceptes complexos.
Xarxes Convolucionals (CNNs):
Un tipus de xarxa neuronal especialment dissenyada per processar dades visuals com imatges o vídeos. Fan servir filtres (convolucions) que detecten patrons visuals com vores, formes o textures.
Xarxes Recurrents (RNNs):
Xarxes dissenyades per tractar dades seqüencials, com textos, àudio o sèries temporals. Tenen una memòria interna que conserva informació de passos anteriors, la qual cosa els permet entendre el context dins d’una seqüència.
LSTM (Long Short-Term Memory):
Una variant de les RNN que utilitza una estructura interna amb “portes” per mantenir informació rellevant durant períodes més llargs. Resol problemes de dependències a llarg termini en dades seqüencials.
GRU (Gated Recurrent Unit):
Versió simplificada de les LSTM amb rendiment similar però menor complexitat computacional. També útil per processar dades seqüencials.
Codificadors automàtics (Autoencoders):
Xarxes neuronals que aprenen a codificar les dades d’entrada en una representació més compacta (codificació) i després reconstruir-les. Són útils per reduir la dimensionalitat, detectar anomalies o eliminar soroll.
Transformers:
Arquitectura basada en mecanismes d’atenció que permet tractar dades seqüencials sense recórrer a recurrència. Molt eficaç en tasques de llenguatge natural i visió artificial. Ha substituït en gran mesura les RNNs.
GANs (Generative Adversarial Networks):
Consten de dues xarxes que competeixen entre si: un generador que crea dades falses i un discriminador que intenta distingir-les de les reals. Són molt potents en la generació de continguts visuals realistes.
ResNet (Residual Networks):
Arquitectura que introdueix connexions residuals per facilitar l’entrenament de xarxes molt profundes. Ha estat clau en la millora del rendiment en classificació d’imatges.
ViT (Vision Transformers):
Adaptació dels Transformers al camp de la visió per ordinador. Tracten imatges com seqüències de fragments, eliminant la necessitat de convolucions.
Graph Neural Networks (GNNs):
Xarxes neuronals dissenyades per treballar amb dades representades com grafos, com xarxes socials, estructures químiques o sistemes de recomanació.
Mecanismes d’Aprenentatge
Tècniques de preprocessament
Tokenització (Tokenization):
Procés de divisió del text en unitats més petites i processables (tokens) com paraules, subparaules o caràcters, convertint-los en format numèric per al processament del model.
Enginyeria de Característiques (Feature Engineering):
Selecció, transformació i creació de característiques per millorar el model.
Normalització (Normalization):
Escalat de característiques dins un rang específic (típicament [0,1] o [-1,1]) per assegurar que totes les variables tinguin la mateixa escala. S’aplica principalment a les dades d’entrada abans de l’entrenament.
Augmentació de Dades (Data Augmentation):
Procés de generar noves dades d’entrenament a partir de dades existents aplicant-hi modificacions (com girs, rotacions, soroll…). És molt útil en visió per ordinador per millorar la generalització.
Sobremostreig (Oversampling):
Tècnica per tractar dades desbalancejades que consisteix a augmentar el nombre d’exemples de les classes minoritàries per equilibrar el conjunt de dades. Es pot fer duplicant exemples existents o generant-ne de nous sintèticament.
Submostreig (Undersampling):
Mètode complementari al sobremostreig que consisteix a reduir el nombre de mostres de les classes majoritàries per igualar la distribució de classes.
Imputació (Imputation):
Tècnica per gestionar valors absents en les dades, substituint-los per valors calculats (mitjana, mediana, valor més freqüent) o mitjançant models predictius.
Codificació de Variables Categòriques:
Transformació de variables no numèriques en representacions numèriques. Inclou tècniques com one-hot encoding (vector binari) i label encoding (assignació d’enters únics).
Reducció de Dimensionalitat (Dimensionality Reduction):
Tècnica per disminuir el nombre de variables o característiques en un conjunt de dades, mantenint al màxim la informació rellevant. Pot fer-se amb mètodes estadístics (com PCA) o xarxes com els autoencoders.
Tècniques de Regularització
Regularització:
Conjunt de tècniques per prevenir el sobreentrenament (overfitting), penalitzant la complexitat del model o restringint la magnitud dels pesos. Inclou mètodes com L1, L2, dropout i weight decay.
Dropout:
Mètode de regularització que consisteix a desactivar de manera aleatòria algunes neurones durant l’entrenament per evitar dependències excessives i millorar la generalització del model.
Aturada Anticipada (Early Stopping):
Tècnica per evitar el sobreentrenament aturant l’entrenament del model quan el rendiment en les dades de validació comença a empitjorar.
Tècniques d’Aprenentatge
Normalització per Batch (Batch Normalization):
Tècnica que normalitza les activacions de cada capa durant l’entrenament per estabilitzar i accelerar el procés. Ajuda a reduir el problema del vanishing gradient, permet utilitzar taxes d’aprenentatge més altes i té efectes de regularització secundaris.
Ponderació per Classes (Class Weighting):
Tècnica d’entrenament que assigna pesos diferents a les classes durant el càlcul de la funció de pèrdua per compensar dades desbalancejades. Les classes minoritàries reben pesos més alts, fent que els seus errors tinguin més impacte en l’optimització del model sense modificar el conjunt de dades original.
Transfer Learning (Aprenentatge Transferit):
Consisteix a reutilitzar un model ja entrenat per resoldre un nou problema amb poques dades. S’aprofita el coneixement adquirit per una tasca similar (per exemple, amb xarxes com ResNet o BERT).
Ajust Fi (Fine-Tuning):
Variant del transfer learning on es reentrenen algunes parts del model preentrenat (normalment les últimes capes) perquè s’adaptin millor a la nova tasca.
Atenció (Attention):
Mecanisme que permet al model enfocar-se en parts específiques de l’entrada més rellevants per a la tasca. S’utilitza sovint per comparar dues seqüències i establir correspondències (per exemple, en traducció automàtica).
Atenció Auto-regressiva (Self-Attention):
Tipus d’atenció aplicat dins d’una mateixa seqüència, on cada element pot considerar els altres per captar dependències internes a llarg abast. És fonamental en arquitectures com els Transformers.
Intel·ligència Artificial Generativa i Models de Llenguatge
IA Generativa (Generative AI):
Sistemes d’intel·ligència artificial capaços de crear contingut original i realista (text, imatges, àudio, vídeo, codi) a partir de patrons apresos de grans volums de dades d’entrenament.
Models Generatius (Generative Models):
Tipus de models que aprenen la distribució de probabilitat de les dades d’entrenament per generar mostres noves i similars. Inclouen arquitectures com GANs, VAEs i models de difusió.
Models de Llenguatge (Language Models):
Models estadístics que aprenen la probabilitat de seqüències de paraules per predir el següent token i generar text coherent i contextualitzat.
Models de Llenguatge Grans (LLMs):
Models de llenguatge massius amb bilions de paràmetres, entrenats amb enormes corpus de text. Són capaços de realitzar múltiples tasques de NLP utilitzant arquitectures Transformer.
Tokenització (Tokenization):
Procés de divisió del text en unitats més petites i processables (tokens) com paraules, subparaules o caràcters, convertint-los en format numèric per al processament del model.
Embeddings:
Representacions vectorials denses que codifiquen paraules, frases o conceptes en un espai matemàtic multidimensional, capturant relacions semàntiques i sintàctiques.
Espai Vectorial (Vector Space):
Espai matemàtic multidimensional on es representen els embeddings, permetent calcular distàncies i similituds entre conceptes mitjançant operacions vectorials.
Similaritat Cosinus (Cosine Similarity):
Mètrica que mesura la similitud semàntica entre dos vectors calculant el cosinus de l’angle que formen, independent de la seva magnitud.
Prompting:
Tècnica d’interacció amb models generatius mitjançant instruccions, preguntes o exemples específics per guiar la generació cap al resultat desitjat. Una tècnica concreta és Chain-of-Thought.
Emmascarament (Masking):
Tècnica d’entrenament que consisteix a ocultar parts del text d’entrada perquè el model aprengui a predir les paraules emmascarades basant-se en el context.
Transferència Zero-shot i Few-shot:
Capacitat dels LLMs per realitzar tasques noves sense entrenament específic (zero-shot) o amb només uns pocs exemples (few-shot), aprofitant el coneixement adquirit durant l’entrenament.
Generació Multimodal (Multimodal Generation):
Capacitat de crear o combinar diferents tipus de contingut (text, imatges, àudio, vídeo) de manera coherent, permetent interaccions més riques entre modalitats diverses.
Generació Augmentada amb Recuperació (Retrieval-Augmented Generation – RAG):
Tècnica que combina un model de llenguatge amb un sistema de recuperació d’informació externa. Durant la inferència, el model consulta documents rellevants i utilitza aquest contingut per generar respostes més precises i actualitzades.
Àrees Aplicades i Tipus de Problemes
Classificació (Classification):
Assignació d’exemples a categories o classes predefinides mitjançant aprenentatge supervisat. Pot ser binària (dues classes) o multiclasse, i s’utilitza per organitzar i categoritzar dades de forma automàtica.
🟢 Exemple: Classificar clients com a “prospectes interessats” o “no interessats” en un producte per optimitzar campanyes de vendes.
Regressió (Regression):
Predicció de valors numèrics continus a partir de característiques d’entrada. Serveix per estimar quantitats com preus, temperatures o probabilitats.
🟢 Exemple: Estimar les vendes mensuals d’un producte basant-se en variables com pressupost de màrqueting, temporada i tendències passades.
Agrupament (Clustering):
Organització d’exemples similars en grups (clusters) sense etiquetes prèvies, mitjançant aprenentatge no supervisat. Permet descobrir patrons ocults dins les dades.
🟢 Exemple: Segmentar clients segons els seus hàbits de compra per dissenyar campanyes de màrqueting personalitzades.
Detecció d’Anomalies (Anomaly Detection):
Identificació de patrons, esdeveniments o observacions que es desvien del comportament normal per detectar fraus, errors o situacions inusuals.
🟢 Exemple: Detectar transaccions financeres inusuals que podrien indicar frau o errors en la comptabilitat.
Recomanació (Recommendation):
Suggeriment d’elements rellevants (productes, continguts, serveis, persones) basat en preferències, comportaments passats o similituds amb altres usuaris.
🟢 Exemple: Recomanar productes complementaris a un client en una botiga en línia per augmentar la facturació.
Anàlisi de Sèries Temporals (Time Series Analysis):
Estudi de dades ordenades cronològicament per identificar tendències, estacionalitats i patrons temporals, i per fer prediccions sobre el comportament futur.
🟢 Exemple: Preveure la demanda de productes estacional per ajustar l’inventari i optimitzar la cadena de subministrament.
Recuperació d’Informació (Information Retrieval):
Recerca i obtenció de documents o continguts rellevants d’una col·lecció gran a partir de consultes específiques d’usuari.
🟢 Exemple: Cercar contractes o documents legals rellevants dins d’una base de dades interna d’una empresa.
Generació de Contingut (Content Generation):
Creació automàtica de contingut original i coherent (text, imatges, àudio, vídeo, codi, etc.) mitjançant models generatius, amb aplicacions creatives i productives.
🟢 Exemple: Generar automàticament descripcions de productes per a un catàleg en línia que faciliti la venda i redueixi el temps de redacció.
Anàlisi de Sentiment:
Determinació automàtica de l’actitud, opinió o emoció expressada en textos, útil per comprendre la percepció pública sobre temes, productes o serveis.
🟢 Exemple: Analitzar opinions de clients sobre un producte en xarxes socials per detectar possibles millores o punts febles.
Traducció Automàtica:
Conversió automàtica de text d’un idioma a un altre per facilitar la comunicació multilingüe i l’accés global a la informació.
🟢 Exemple: Traduir automàticament informes comercials per a clients internacionals.
Reconeixement d’Imatges:
Identificació i classificació automàtica del contingut present en una imatge, amb aplicacions en catalogació, seguretat, diagnòstic mèdic, entre d’altres.
🟢 Exemple: Identificar productes en imatges per automatitzar processos de control d’estoc en magatzems.
Aprenentatge per Reforç (Reinforcement Learning):
Enfocament d’aprenentatge automàtic en què un agent aprèn a prendre decisions seqüencials mitjançant interacció amb un entorn. L’agent rep recompenses o penalitzacions segons les seves accions i aprèn estratègies òptimes per maximitzar la recompensa acumulada a llarg termini.
🟢 Exemple: Optimitzar la logística d’una empresa per reduir costos de transport aprenent la millor ruta i distribució de recursos.
Llista d’algoritmes
Algorismes Essencials
| Mètode / Algoritme | Tipus de problema | Descripció breu |
|---|---|---|
| Regressió lineal | Regressió | Ajusta un model lineal y=β0+β1x. |
| Regressió logística | Classificació (binària/multiclasse) | Estima la probabilitat d’una classe mitjançant la funció sigmoide (o multinomial en multiclasse). |
| Ridge / Lasso | Regressió | Regressió lineal amb penalització L2 (Ridge) o L1 (Lasso) per controlar l’overfitting. |
| Polynomial Features + Regressió | Regressió | Genera termes d’ordre superior com a part de l’enginyeria de característiques. |
| Arbre de decisió | Classificació / Regressió | Splits basats en guany d’informació o reducció d’error per generar regles d’arbre. |
| Random Forest | Classificació / Regressió | Conjunt d’arbres de decisió entrenats sobre submostres de dades i característiques. |
| Gradient Boosting | Classificació / Regressió | Seqüència d’arbres dèbils (XGBoost, LightGBM) que aprenen a corregir errors iterativament. |
| MLP (Multilayer Perceptron) | Classificació / Regressió | Xarxa neuronal feedforward bàsica per a tasques supervisades. |
| k-Nearest Neighbors (k-NN) | Classificació / Regressió | Predicció basada en els k veïns més propers segons una mètrica de distància. |
| Support Vector Machine (SVM) | Classificació / Regressió (SVR) | Hiperplà que maximitza el marge entre classes (o SVR per regressió). |
| Naive Bayes | Classificació | Model probabilístic que assumeix independència condicional entre característiques. |
| K-means | Clustering | Partitiona el dataset en k grups minimitzants la suma de distàncies quadràtiques. |
| PCA | Reducció de dimensionalitat | Projecció ortogonal per retenir la màxima variància amb menys components. |
| ARIMA / SARIMA | Sèries temporals | Models paramètrics per a sèries estacionàries i amb estacionalitat. |
Algorismes Avançats
| Mètode / Algoritme | Tipus de problema | Descripció breu |
|---|---|---|
| t-SNE | Reducció de dimensionalitat / Visualització | Visualització no lineal en 2D/3D; costós per a conjunts grans. |
| UMAP | Reducció de dimensionalitat / Visualització | Alternativa més ràpida i escalable a t-SNE. |
| Gaussian Mixture Models (GMM) | Clustering | Agrupa mitjançant una combinació de distribucions gaussianes; ofereix probabilitats de pertinença. |
| DBSCAN | Clustering | Agrupa regions d’alta densitat i detecta soroll sense definir k. |
| Hierarchical Clustering | Clustering | Construcció aglomerativa o divisiva d’un dendrograma de clústers. |
| Isolation Forest | Detecció d’anomalies | Aïlla punts en arbres aleatoris; bo per a dades d’alta dimensionalitat. |
| Local Outlier Factor (LOF) | Detecció d’anomalies | Mesura la densitat local al voltant de cada punt per identificar outliers. |
| Elliptic Envelope | Detecció d’anomalies | Pressuposa una distribució el·líptica per detectar outliers. |
| Autoencoder | Reducció de dimensionalitat / Detecció d’anomalies | Xarxa neuronal que aprèn a comprimir i reconstruir; útil per a detecció d’outliers. |
| Collaborative Filtering | Recomanació | Suggeriments basats en similituds de comportament entre usuaris o ítems. |
| Matrix Factorization (ALS, SVD) | Recomanació | Aprenentatge de factors latents que representen usuaris i ítems en un espai de baixa dimensió. |
| Prophet | Sèries temporals | Biblioteca de Meta per a forecasts amb tendència i estacionalitat automàtiques. |
| RNN / LSTM / GRU | Seqüències (NLP, sèries temporals) | Xarxes neuronals recurrents per modelar dependències seqüencials. |
| Transformer (BERT, GPT) | Seqüència (NLP, generació de contingut) | Arquitectura basada en atenció; excel·lent en traducció, classificació i generació de text. |
| Ensembles: Stacking / Blending | Classificació / Regressió | Combina models heterogenis (p. ex. regressió + arbres) per millorar el rendiment. |
| Q-Learning / DQN | Reinforcement Learning | Algoritmes de valor per aprendre polítiques en entorns seqüencials. |
| Policy Gradients (REINFORCE, PPO) | Reinforcement Learning | Aprenentatge directe de polítiques sovint amb xarxes neuronals profundes. |
Conceptes matemàtics
Fonaments
| Concepte | Definició |
|---|---|
| Mitjana i mediana | Mitjana: suma de tots els valors dividit pel nombre de valors. Mediana: valor central quan ordenem les dades. Ús en ML: entendre la distribució de les dades, detectar outliers. |
| Escalars, vectors, matrius i tensors | Un escalar és un número sol (ex: temperatura = 25°C). Un vector és una llista ordenada de números (ex: coordenades [x, y]). Una matriu és una taula bidimensional de números (ex: imatge en escala de grisos). Un tensor és una generalització en més dimensions (ex: imatge RGB: ample × alt × 3 canals de color). |
| Funcions i derivades | Funció: mapeja entrades a sortides f(x) → y. Derivada: indica si una funció puja o baixa, i com de ràpid (com la pendent d’un turó). Derivades parcials: canvi respecte una variable mantenint les altres constants. |
| Logaritmes | log_b(x) respon “a quina potència he d’elevar b per obtenir x?”. Propietats útils: log(ab) = log(a) + log(b). Ús en ML: funcions de pèrdua (cross-entropy), softmax, evitar overflow numèric. |
Àlgebra lineal
| Concepte | Definició |
|---|---|
| Producte escalar (dot product) | Operació que combina dos vectors de la mateixa mida i retorna un escalar. Geomètricament parlant, és alt si apunten en la mateixa direcció, zero si són perpendiculars. Ús en ML: combinar pesos amb característiques en xarxes neuronals. |
| Norma (norm) | Mesura la “longitud” o magnitud d’un vector. L1 norm: suma dels valors absoluts. L2 norm: arrel quadrada de la suma dels quadrats. Ús en ML: normalització de dades i regularització. |
| Multiplicació matrius | Operació que combina dues matrius m×n i n×p resultant m×p. Cada element del resultat és el producte escalar (dot product) d’una fila de la primera matriu amb una columna de la segona. Ús en ML: transforma dades d’entrada aplicant pesos per calcular prediccions en xarxes neuronals. |
| Distàncies | Euclidiana: distància recta entre punts (L2). Manhattan: suma de diferències absolutes (L1). Cosinus: mesura l’angle entre vectors, ignora la magnitud. Ús en ML: k-NN, clustering, mesura de similaritat. |
Probabilitat i estadística
| Concepte | Definició |
|---|---|
| Probabilitat | Mesura de la incertesa: P(A) indica la probabilitat que passi A, entre 0 i 1. Ús en ML: classificació probabilística, incertesa de prediccions. |
| Probabilitat condicional | Probabilitat que passi A sabent que ha passat B: P(A|B). Ús en ML: classificadors bayesians, arbres de decisió. |
| Teorema de Bayes | El Teorema de Bayes actualitza la probabilitat d’un fet A donada l’evidència B: P(A|B)=P(B|A)·P(A)/P(B), combinant prior, versemblança i evidència total. |
| Esperança i variància | Esperança o mitjana (μ): valor mitjà esperat d’una variable aleatòria. Variància (σ²): mesura la dispersió respecte la mitjana. Ús en ML: normalització, inicialització de pesos. |
| Correlació | Mesura de dependència lineal entre dues variables. Coeficient de Pearson: varia entre -1 (correlació negativa perfecta) i +1 (correlació positiva perfecta), 0 indica independència lineal. Ús en ML: selecció de característiques, detecció de multicol·linearitat. |
| Distribucions de probabilitat | Modelen com es distribueixen els valors. Normal/Gaussiana: forma de campana, molt comuna. Bernoulli: èxit/fracàs. Categòrica: múltiples classes. Ús en ML: modelatge de dades, inicialització. |
Optimització i entrenament
| Concepte | Definició |
|---|---|
| Gradient | Vector que indica la direcció de màxim creixement d’una funció. En ML, apunta cap on incrementar els pesos per augmentar l’error, per això anem en direcció oposada. |
| Descens pel gradient | Algorisme que minimitza una funció seguint el gradient negatiu. Actualitza pesos iterativament: pes_nou = pes_antic - taxa_aprenentatge * gradient. Base de l’entrenament de models. |
| Funcions de pèrdua (loss) | Mesuren l’error del model. MSE: per regressió. Cross-entropy: per classificació. Objectiu: minimitzar aquesta funció durant l’entrenament. |
Models i arquitectures
| Concepte | Definició |
|---|---|
| Funcions lineals | Equacions de la forma y=mx+b (2D) o y=w₁x₁+w₂x₂+…+b (multidimensional). Limitació: només poden separar dades linealment separables. |
| Preactivació | Valor calculat en una neurona com a combinació lineal de les entrades i els pesos, abans d’aplicar-hi la funció d’activació. Representa la “entrada neta” que rep la neurona. Matemàticament, s’expressa com z=w⋅x+b, on w són els pesos, x les entrades i b el biaix. |
| Funcions d’activació | Funcions no lineals que s’apliquen a la preactivació de cada neurona. Transformen el valor z (la preactivació) en una sortida a, que es propaga cap a la següent capa. Permeten a la xarxa neuronal aprendre patrons complexos i no lineals. Exemples: ReLU (max(0,z)), sigmoide (11+e−z), tanh. |
Avaluació i generalització
| Concepte | Definició |
|---|---|
| Normalització de dades | Ajustar escales de variables. Min-max: [0,1]. Z-score: mitjana 0, desviació 1. Necessari: molts algoritmes són sensibles a l’escala. |
| Mètriques d’avaluació | Classificació: accuracy, precision, recall, F1-score. Regressió: MSE, MAE, RMSE, R². Matriu de confusió: visualitza errors de classificació. |
| MSE (Mean Squared Error) | Error quadràtic mitjà. Calcula la mitjana dels quadrats de les diferències entre prediccions i valors reals. Penalitza més els errors grans. |
| RMSE (Root Mean Squared Error) | Arrel quadrada del MSE. Té les mateixes unitats que la variable objectiu, facilitant la interpretació. Manté la propietat de penalitzar errors grans. |
| MAE (Mean Absolute Error) | Error absolut mitjà. Calcula la mitjana de les diferències absolutes entre prediccions i valors reals. Més robust a outliers que MSE. |
| Coeficient de determinació (R²) | Mètrica per a regressió que indica la proporció de variància de la variable dependent explicada pel model. Varia entre 0 (el model no explica millor que la mitjana) i 1 (ajust perfecte). Valors negatius indiquen que el model és pitjor que predir simplement la mitjana. |
| Corba ROC i AUC | Per a la classificació binària. ROC: gràfic que mostra la relació entre taxa de vertaders positius (recall) vs. falsos positius a diferents llindars. AUC: àrea sota la corba, mesura la capacitat discriminativa del model (0.5 = aleatori, 1.0 = perfecte). |
| Sobreajustament i regularització | Sobreajustament: model memoritza dades d’entrenament però generalitza malament. Regularització: tècniques per evitar-ho (L1/L2, dropout). Compromís biaix-variance. |
| Dimensionalitat | Maledicció de la dimensionalitat: en espais d’alta dimensió, les dades es tornen disperses. Reducció: PCA, t-SNE. Feature selection: triar variables rellevants. |
Abreviatures
| Abreviatura | Forma completa en català / anglès | Descripció breu |
|---|---|---|
| AE | Autoencoder | Xarxa neuronal que aprèn a codificar i reconstruir dades; útil per a anomalies. |
| AI | Intel·ligència Artificial (Artificial Intelligence) | Camp que busca crear sistemes que simulen la intel·ligència humana. |
| ALS | Alternating Least Squares | Mètode de factorització de matrius per a recomanacions col·laboratives. |
| ARIMA | AutoRegressive Integrated Moving Average | Model per a sèries temporals amb autoregressió, diferenciació i mitjana mòbil. |
| BERT | Bidirectional Encoder Representations from Transformers | Transformer preentrenat per a representació de text bidireccional. |
| CNN | Xarxa Neuronal Convolucional (Convolutional Neural Network) | Xarxa especialitzada en processar dades visuals. |
| DBSCAN | Density-Based Spatial Clustering of Applications with Noise | Clustering basat en densitat; detecta soroll sense definir nombre de clústers. |
| DL | Aprenentatge Profund (Deep Learning) | Subcamp de ML que usa xarxes neuronals profundes. |
| DQN | Deep Q-Network | Q-Learning amb xarxa neuronal per estimar la funció de valor. |
| DT | Arbre de decisió (Decision Tree) | Model que fa particions recursives basades en guany d’informació o gini. |
| GAN | Xarxa Generativa Adversarial (Generative Adversarial Network) | Arquitectura per generar dades noves mitjançant una competició entre models. |
| GBM | Gradient Boosting Machine | Seqüència d’arbres dèbils entrenats en residus per reduir l’error. |
| GMM | Gaussian Mixture Models | Model probabilístic que ajusta clústers amb combinacions de gaussianes. |
| GPU | Unitat de Processament Gràfic (Graphics Processing Unit) | Hardware utilitzat per accelerar càlculs paral·lels, especialment en DL. |
| GPT | Generative Pre-trained Transformer | Transformer autogeneratiu per a generació de text i tasques de seqüència. |
| GRU | Gated Recurrent Unit | Variante d’RNN amb portes d’actualització i reinicialització. |
| KNN | k-Nearest Neighbors | Predicció basada en els k veïns més propers segons una mètrica de distància. |
| LLM | Model Gran de Llenguatge (Large Language Model) | Models de llenguatge amb molts paràmetres, capaços de generar text natural. |
| LGBM | LightGBM | Biblioteca ràpida de gradient boosting basada en histogrammes. |
| LOF | Local Outlier Factor | Mesura la densitat local per identificar punts que difereixen del veïnat. |
| LSTM | Long Short-Term Memory | RNN amb cel·les de memòria que aprenen dependències a llarg termini. |
| ML | Aprenentatge Automàtic (Machine Learning) | Subcamp d’IA que fa que els sistemes aprenguin de dades. |
| MLP | Multilayer Perceptron | Xarxa neuronal feedforward bàsica per a tasques supervisades. |
| NB | Naive Bayes | Classificador probabilístic que assumeix independència condicional. |
| PCA | Principal Component Analysis | Reducció de dimensionalitat per projecció ortogonal de màxima variància. |
| PPO | Proximal Policy Optimization | Algoritme de Policy Gradient que controla la magnitud de l’actualització. |
| RNN | Xarxa Neuronal Recurrent (Recurrent Neural Network) | Xarxa especialitzada en dades seqüencials. |
| RF | Bosc aleatori (Random Forest) | Conjunt d’arbres de decisió entrenats sobre submostres aleatòries. |
| SARIMA | Seasonal ARIMA | Extensió d’ARIMA que inclou components estacionals. |
| SDG | Stochastic Gradient Descent | Algoritme d’optimització per ajustar pesos. |
| SVD | Singular Value Decomposition | Factorització de matrius per a reducció de dimensionalitat i recomanacions. |
| SVM | Màquina de Vectors de Suport (Support Vector Machine) | Algoritme supervisat per classificació i regressió. |
| t-SNE | t-Distributed Stochastic Neighbor Embedding | Mètode no lineal per a visualització de dades en 2D/3D preservant veïnats. |
| TPU | Unitat de Processament Tensorial (Tensor Processing Unit) | Processador específic per xarxes neuronals desenvolupat per Google. |
| UMAP | Uniform Manifold Approximation and Projection | Alternativa a t-SNE més ràpida i escalable per a reducció de dimensionalitat. |
| XGBoost | eXtreme Gradient Boosting | Implementació eficient de gradient boosting amb regularització. |