Keyboard shortcuts

Press or to navigate between chapters

Press S or / to search in the book

Press ? to show this help

Press Esc to hide this help

Diccionari d’Aprenentatge Automàtic

Conceptes Bàsics i Paradigmes d’Aprenentatge

Aprenentatge Supervisat (Supervised Learning):
Aprenentatge a partir d’exemples etiquetats on l’algoritme aprèn a mapar entrades amb sortides conegudes. Inclou classificació i regressió.

Aprenentatge No Supervisat (Unsupervised Learning):
Descoberta de patrons en dades sense etiquetes, com l’agrupament (clustering) i la reducció de dimensionalitat.

Aprenentatge per Reforç (Reinforcement Learning):
Agent que aprèn a prendre decisions interactuant amb un entorn, rebent recompenses o penalitzacions.

Aprenentatge Semi-supervisat i Auto (Semi-supervised Learning):
Combina una petita quantitat de dades etiquetades amb moltes dades no etiquetades per millorar el rendiment.

Aprenentatge Auto-supervisat (Self-supervised Learning):
Utilitza dades no etiquetades generant automàticament senyals d’entrenament (pseudo-etiquetes) per aprendre sense supervisió explícita.

Dades i variables

Conjunt de Dades (Dataset):
Col·lecció estructurada d’exemples utilitzada per entrenar, validar i avaluar models de machine learning. Pot dividir-se en conjunts d’entrenament, validació i test.

Exemple (Example/Instance):
Una única observació o mostra del conjunt de dades que conté les característiques d’entrada (x) i, en aprenentatge supervisat, la seva etiqueta o valor objectiu corresponent (y). Representa una unitat completa d’informació que el model utilitza per aprendre o fer prediccions.

Característica / atribut / x (feature):
Variables d’entrada que els models utilitzen per predir. Representen les propietats mesurables o observables dels exemples que ajuden el model a aprendre patrons i fer prediccions sobre la variable objectiu. En notació matemàtica es representa com “x”.

Objectiu / resposta / y (target): Valor correcte associat a cada exemple. En regressió, correspon a un valor numèric continu (ex. temperatura, preu). En classificació, s’anomena etiqueta o classe (label) i representa una categoria discreta (ex. “gat”, “gos”, “spam”). En notació matemàtica, s’acostuma a representar com (y), i es compara amb la predicció del model (ŷ) per calcular l’error.

Predicció / estimació / ŷ (prediction): Els valors que genera el model com a sortida després del processament de les dades d’entrada. Són les estimacions o prediccions que fa el model, que es comparen amb els valors reals per avaluar el rendiment. En notació matemàtica es representa com “ŷ” (y amb accent circumflex).

Dades Esbiaixades (Biased Data):
Quan el conjunt de dades no representa adequadament la diversitat real, portant a models discriminadors o poc generalitzables.

Dades Desbalancejades (Imbalanced Data):
Situació on algunes classes tenen molt menys exemples que altres, afectant el rendiment. Poden requerir tècniques específiques (com sobremostreig o penalització).

Conjunt d’Entrenament (Training Set):
Subconjunt de dades utilitzat per ajustar els paràmetres del model durant la fase d’entrenament. Aquestes dades són les que el model “veu” i aprèn a reproduir o predir.

Conjunt de Validació (Validation Set):
Subconjunt de dades (opcional) no utilitzat durant l’entrenament que serveix per avaluar la capacitat de generalització del model i per ajustar hiperparàmetres, evitant així sobreajustament.

Conjunt de Prova (Test Set):
Subconjunt de dades completament independent que s’utilitza per mesurar de manera objectiva el rendiment final del model després de l’entrenament i la validació. Representa la seva capacitat en dades noves i desconegudes.

Outliers (Valors Atípics):
Observacions que es desvien notablement de la majoria de les dades. Poden ser causats per errors de mesura, soroll o fenòmens inusuals, i poden afectar negativament el rendiment dels models.

Models i Algoritmes

Conceptes bàsics

Algoritme (Algorithm):
Conjunt d’instruccions ben definides que permeten resoldre un problema o executar una tasca. És un concepte general en informàtica. En aprenentatge automàtic, un algoritme especifica com aprendre patrons a partir de dades. No conté informació específica sobre cap conjunt de dades fins que s’entrena. En aplicar-lo a dades d’entrenament, es genera un model concret.

Model (Model):
Representació concreta obtinguda en aplicar un algoritme a dades d’entrenament. Conté els paràmetres apresos que defineixen com el model fa prediccions o classificacions sobre noves dades. És la instància que s’utilitza després de l’entrenament.

Arquitectura (del model): Estructura interna que defineix com s’organitzen i connecten els components d’un model, especialment en xarxes neuronals. Determina la forma i la complexitat del model, incloent el nombre de capes, el tipus d’unitats (neurones), com flueix la informació entre capes i quines funcions d’activació s’utilitzen. És un disseny reutilitzable amb diferents conjunts de dades i configuracions.

Paràmetres (Parameters):
Valors interns del model que s’ajusten durant l’entrenament per capturar la relació entre les característiques d’entrada i la variable objectiu. Exemples comuns són els pesos i el biaix. Són específics per cada model.

Pesos (Weights):
Paràmetres que modulen la influència de cada característica d’entrada sobre la predicció final. Normalment representen l’importància relativa de cada variable.

Biaix (Bias):
Paràmetre que permet ajustar la sortida del model independentment de les entrades, facilitant que el model pugui fer prediccions més flexibles i ajustades.

Tipus de models segons el comportament o objectiu

Model Determinista (Deterministic Model):
Un model que, donada una mateixa entrada, sempre genera la mateixa sortida exacta, sense incertesa ni variabilitat. Exemple: una funció matemàtica pura com la regressió lineal sense soroll addicional.

Model Estocàstic (Stochastic Model):
Model que incorpora components aleatoris en el seu funcionament o entrenament. Pot produir diferents resultats amb la mateixa entrada degut a l’atzar. No implica necessàriament càlculs explícits de probabilitat. A diferència dels models probabilístics, no sempre fan servir explícitament distribucions de probabilitat.

Model Probabilístic (Probabilistic Model):
Model que representa explícitament la incertesa mitjançant distribucions de probabilitat. Utilitza la teoria de la probabilitat per fer inferències i prediccions. És un cas particular de model estocàstic, on la incertesa es representa explícitament mitjançant distribucions de probabilitat.

Model Generatiu:
Aprèn la distribució conjunta de les dades d’entrada i les sortides. Pot generar noves dades similars a les d’entrenament.

Model Discriminatiu:
Aprèn la frontera de decisió entre classes o la relació entre entrada i sortida. S’utilitza per fer classificacions o prediccions directes.

Mètodes d’Ensemble (Ensemble Methods):
Combinació de diversos models per millorar rendiment (bagging, boosting, stacking).

Entrenament, Avaluació i Optimització

Cicle de vida d’un model

Entrenament (Training):
Fase en què l’algoritme ajusta els paràmetres interns del model per minimitzar l’error sobre les dades d’entrenament, mitjançant una funció de pèrdua. Aquest procés es duu a terme amb tècniques d’optimització com el descens de gradient.

Validació (Validation):
Fase on es comprova com generalitza el model a dades no vistes durant l’entrenament. Es fa servir per ajustar hiperparàmetres, detectar sobreajustament i seleccionar el millor model abans de la seva avaluació final.

Avaluació (Evaluation):
Fase final del desenvolupament del model en què es mesura el rendiment del model ja entrenat i validat, utilitzant un conjunt de proves (test set) independent. Permet estimar com es comportarà el model en un entorn real.

Inferència (Inference):
Fase en què s’utilitza el model ja entrenat i validat per fer prediccions sobre dades noves i desconegudes. És el moment en què el model s’aplica en situacions reals per resoldre la tasca per a la qual va ser dissenyat, sense fer cap ajust addicional als seus paràmetres.

Conceptes tècnics clau

Hiperparàmetres (Hyperparameters):
Són valors configurables que determinen el comportament del procés d’entrenament abans que comenci, i no s’aprenen automàticament a partir de les dades. Inclouen, per exemple, la taxa d’aprenentatge, el nombre de capes d’una xarxa neuronal, o la mida dels batch.

Funció de Pèrdua (Loss Function):
És una funció matemàtica que quantifica l’error entre la predicció del model i el valor real per a una mostra individual. Durant l’entrenament, el model calcula aquesta pèrdua per a cada exemple i l’objectiu és reduir-la al mínim.

Funció de Cost (Cost Function):
És la funció objectiu que avalua globalment l’error del model sobre el conjunt d’entrenament (o sobre un lot de mostres). Normalment és la mitjana de totes les pèrdues, però pot incloure termes addicionals com la regularització, per penalitzar models massa complexos. L’optimització del model consisteix a minimitzar aquesta funció.

Descens de Gradient (Gradient Descent):
Algoritme d’optimització iteratiu que ajusta els paràmetres del model en la direcció oposada al gradient de la funció de cost. L’objectiu és trobar els valors dels paràmetres que minimitzen l’error. És una tècnica fonamental per entrenar models en aprenentatge automàtic.

Propagació endavant (Forward Propagation):
Procés en una xarxa neuronal on les dades d’entrada passen capa per capa fins a la capa de sortida. Cada capa calcula una activació basada en els pesos i funcions d’activació, produint finalment la predicció o resultat del model.

Retropropagació (Backpropagation):
Algorisme fonamental en xarxes neuronals que permet ajustar els pesos del model aprenent dels errors. Primer, la xarxa fa una predicció (propagació endavant) i es calcula l’error comparant amb la resposta correcta. A continuació, aquest error es “propaga cap enrere” capa per capa, utilitzant la regla de la cadena per saber com afecta cada pes a l’error final.

Descens de Gradient Estocàstic (SGD):
Variant del descens de gradient que actualitza els paràmetres del model utilitzant mostres individuals o petits subconjunts (mini-batchs) del conjunt d’entrenament. Tot i introduir més soroll en les actualitzacions, sovint accelera l’entrenament i permet escapar de mínims locals.

Optimització (Optimization):
Procés matemàtic mitjançant el qual es troben els valors òptims dels paràmetres d’un model que minimitzen (o maximitzen) una funció objectiu, com la funció de cost. L’optimització és el nucli del procés d’aprenentatge en machine learning.

Validació Creuada (Cross-Validation):
Tècnica que divideix les dades en k parts (folds) i entrena el model k vegades, cada vegada deixant una part diferent per a validació i entrenant amb la resta. Això permet utilitzar tota la informació de les dades tant per entrenar com per validar, i ofereix una estimació més fiable del rendiment del model, especialment quan les dades són limitades.

Qualitats dels models

Sobreajustament (Overfitting):
Succeeix quan un model aprèn massa bé els detalls i el soroll del conjunt d’entrenament, fins al punt que perd la capacitat de generalitzar. Això es manifesta quan el rendiment en entrenament és alt, però el rendiment en validació o test és baix. S’acostuma a donar en models molt complexos o amb massa paràmetres entrenats amb poca quantitat de dades.

Subajustament (Underfitting):
Es dona quan el model és massa senzill o poc entrenat i no aconsegueix capturar els patrons rellevants de les dades, tant d’entrenament com de test. En aquest cas, el rendiment és baix a tots els conjunts de dades. Pot ser degut a un model massa simple, a un entrenament insuficient o a una selecció inadequada de característiques.

Compromís Biaix-Variància (Bias-Variance Tradeoff):
Principi fonamental que descriu l’equilibri entre dos tipus d’error:

  • Biaix alt: model massa simple, que no capta bé els patrons (subajustament).
  • Variància alta: model massa sensible a les dades d’entrenament (sobreajustament).

L’objectiu és trobar un model prou flexible per captar els patrons rellevants, però no tan complex que memoritzi el soroll.

Generalització (Generalization):
Capacitat d’un model d’oferir bones prediccions sobre dades que no ha vist durant l’entrenament. La generalització és la meta principal de l’aprenentatge automàtic i es mesura mitjançant el rendiment en conjunts de validació o test. Millorar-la implica trobar el model adequat, aplicar regularització i utilitzar dades representatives.

Explicabilitat (Explainability):
Capacitat de comprendre, justificar o interpretar el comportament d’un model: per què pren una decisió concreta o quines característiques hi tenen més pes. És especialment important en entorns regulats o sensibles (com salut o finances) i en models complexos com les xarxes neuronals, que poden actuar com a “caixes negres”.

Justícia (Fairness):
Propietat que busca assegurar que el model no discrimini ni tracti de forma desigual grups poblacionals segons característiques com gènere, raça, edat o origen. La justícia s’avalua mitjançant mètriques específiques i tècniques d’anàlisi d’equitat, i forma part de l’ètica en la intel·ligència artificial.

Robustesa (Robustness):
Habilitat del model per mantenir un comportament estable davant canvis inesperats o condicions adverses, com soroll a les dades, valors fora de rang o manipulacions intencionades (adversarial attacks). Un model robust no depèn de petits detalls irrelevants de l’entrada i respon de manera fiable en contextos diferents als d’entrenament.

Arquitectures de Xarxes

Xarxes Neuronals (Neural Networks):
Sistemes computacionals inspirats en el cervell humà formats per neurones artificials interconnectades. Cada neurona processa informació i la transmet a les següents. Són la base de molts sistemes d’intel·ligència artificial.

Aprenentatge Profund (Deep Learning):
Branca de l’aprenentatge automàtic basada en xarxes neuronals amb moltes capes (profundes). Aquestes capes permeten aprendre representacions jeràrquiques de les dades, des de característiques simples fins a conceptes complexos.

Xarxes Convolucionals (CNNs):
Un tipus de xarxa neuronal especialment dissenyada per processar dades visuals com imatges o vídeos. Fan servir filtres (convolucions) que detecten patrons visuals com vores, formes o textures.

Xarxes Recurrents (RNNs):
Xarxes dissenyades per tractar dades seqüencials, com textos, àudio o sèries temporals. Tenen una memòria interna que conserva informació de passos anteriors, la qual cosa els permet entendre el context dins d’una seqüència.

LSTM (Long Short-Term Memory):
Una variant de les RNN que utilitza una estructura interna amb “portes” per mantenir informació rellevant durant períodes més llargs. Resol problemes de dependències a llarg termini en dades seqüencials.

GRU (Gated Recurrent Unit):
Versió simplificada de les LSTM amb rendiment similar però menor complexitat computacional. També útil per processar dades seqüencials.

Codificadors automàtics (Autoencoders):
Xarxes neuronals que aprenen a codificar les dades d’entrada en una representació més compacta (codificació) i després reconstruir-les. Són útils per reduir la dimensionalitat, detectar anomalies o eliminar soroll.

Transformers:
Arquitectura basada en mecanismes d’atenció que permet tractar dades seqüencials sense recórrer a recurrència. Molt eficaç en tasques de llenguatge natural i visió artificial. Ha substituït en gran mesura les RNNs.

GANs (Generative Adversarial Networks):
Consten de dues xarxes que competeixen entre si: un generador que crea dades falses i un discriminador que intenta distingir-les de les reals. Són molt potents en la generació de continguts visuals realistes.

ResNet (Residual Networks):
Arquitectura que introdueix connexions residuals per facilitar l’entrenament de xarxes molt profundes. Ha estat clau en la millora del rendiment en classificació d’imatges.

ViT (Vision Transformers):
Adaptació dels Transformers al camp de la visió per ordinador. Tracten imatges com seqüències de fragments, eliminant la necessitat de convolucions.

Graph Neural Networks (GNNs):
Xarxes neuronals dissenyades per treballar amb dades representades com grafos, com xarxes socials, estructures químiques o sistemes de recomanació.

Mecanismes d’Aprenentatge

Tècniques de preprocessament

Tokenització (Tokenization):
Procés de divisió del text en unitats més petites i processables (tokens) com paraules, subparaules o caràcters, convertint-los en format numèric per al processament del model.

Enginyeria de Característiques (Feature Engineering):
Selecció, transformació i creació de característiques per millorar el model.

Normalització (Normalization):
Escalat de característiques dins un rang específic (típicament [0,1] o [-1,1]) per assegurar que totes les variables tinguin la mateixa escala. S’aplica principalment a les dades d’entrada abans de l’entrenament.

Augmentació de Dades (Data Augmentation):
Procés de generar noves dades d’entrenament a partir de dades existents aplicant-hi modificacions (com girs, rotacions, soroll…). És molt útil en visió per ordinador per millorar la generalització.

Sobremostreig (Oversampling):
Tècnica per tractar dades desbalancejades que consisteix a augmentar el nombre d’exemples de les classes minoritàries per equilibrar el conjunt de dades. Es pot fer duplicant exemples existents o generant-ne de nous sintèticament.

Submostreig (Undersampling):
Mètode complementari al sobremostreig que consisteix a reduir el nombre de mostres de les classes majoritàries per igualar la distribució de classes.

Imputació (Imputation):
Tècnica per gestionar valors absents en les dades, substituint-los per valors calculats (mitjana, mediana, valor més freqüent) o mitjançant models predictius.

Codificació de Variables Categòriques:
Transformació de variables no numèriques en representacions numèriques. Inclou tècniques com one-hot encoding (vector binari) i label encoding (assignació d’enters únics).

Reducció de Dimensionalitat (Dimensionality Reduction):
Tècnica per disminuir el nombre de variables o característiques en un conjunt de dades, mantenint al màxim la informació rellevant. Pot fer-se amb mètodes estadístics (com PCA) o xarxes com els autoencoders.

Tècniques de Regularització

Regularització:
Conjunt de tècniques per prevenir el sobreentrenament (overfitting), penalitzant la complexitat del model o restringint la magnitud dels pesos. Inclou mètodes com L1, L2, dropout i weight decay.

Dropout:
Mètode de regularització que consisteix a desactivar de manera aleatòria algunes neurones durant l’entrenament per evitar dependències excessives i millorar la generalització del model.

Aturada Anticipada (Early Stopping):
Tècnica per evitar el sobreentrenament aturant l’entrenament del model quan el rendiment en les dades de validació comença a empitjorar.

Tècniques d’Aprenentatge

Normalització per Batch (Batch Normalization):
Tècnica que normalitza les activacions de cada capa durant l’entrenament per estabilitzar i accelerar el procés. Ajuda a reduir el problema del vanishing gradient, permet utilitzar taxes d’aprenentatge més altes i té efectes de regularització secundaris.

Ponderació per Classes (Class Weighting):
Tècnica d’entrenament que assigna pesos diferents a les classes durant el càlcul de la funció de pèrdua per compensar dades desbalancejades. Les classes minoritàries reben pesos més alts, fent que els seus errors tinguin més impacte en l’optimització del model sense modificar el conjunt de dades original.

Transfer Learning (Aprenentatge Transferit):
Consisteix a reutilitzar un model ja entrenat per resoldre un nou problema amb poques dades. S’aprofita el coneixement adquirit per una tasca similar (per exemple, amb xarxes com ResNet o BERT).

Ajust Fi (Fine-Tuning):
Variant del transfer learning on es reentrenen algunes parts del model preentrenat (normalment les últimes capes) perquè s’adaptin millor a la nova tasca.

Atenció (Attention):
Mecanisme que permet al model enfocar-se en parts específiques de l’entrada més rellevants per a la tasca. S’utilitza sovint per comparar dues seqüències i establir correspondències (per exemple, en traducció automàtica).

Atenció Auto-regressiva (Self-Attention):
Tipus d’atenció aplicat dins d’una mateixa seqüència, on cada element pot considerar els altres per captar dependències internes a llarg abast. És fonamental en arquitectures com els Transformers.

Intel·ligència Artificial Generativa i Models de Llenguatge

IA Generativa (Generative AI):
Sistemes d’intel·ligència artificial capaços de crear contingut original i realista (text, imatges, àudio, vídeo, codi) a partir de patrons apresos de grans volums de dades d’entrenament.

Models Generatius (Generative Models):
Tipus de models que aprenen la distribució de probabilitat de les dades d’entrenament per generar mostres noves i similars. Inclouen arquitectures com GANs, VAEs i models de difusió.

Models de Llenguatge (Language Models):
Models estadístics que aprenen la probabilitat de seqüències de paraules per predir el següent token i generar text coherent i contextualitzat.

Models de Llenguatge Grans (LLMs):
Models de llenguatge massius amb bilions de paràmetres, entrenats amb enormes corpus de text. Són capaços de realitzar múltiples tasques de NLP utilitzant arquitectures Transformer.

Tokenització (Tokenization):
Procés de divisió del text en unitats més petites i processables (tokens) com paraules, subparaules o caràcters, convertint-los en format numèric per al processament del model.

Embeddings:
Representacions vectorials denses que codifiquen paraules, frases o conceptes en un espai matemàtic multidimensional, capturant relacions semàntiques i sintàctiques.

Espai Vectorial (Vector Space):
Espai matemàtic multidimensional on es representen els embeddings, permetent calcular distàncies i similituds entre conceptes mitjançant operacions vectorials.

Similaritat Cosinus (Cosine Similarity):
Mètrica que mesura la similitud semàntica entre dos vectors calculant el cosinus de l’angle que formen, independent de la seva magnitud.

Prompting:
Tècnica d’interacció amb models generatius mitjançant instruccions, preguntes o exemples específics per guiar la generació cap al resultat desitjat. Una tècnica concreta és Chain-of-Thought.

Emmascarament (Masking):
Tècnica d’entrenament que consisteix a ocultar parts del text d’entrada perquè el model aprengui a predir les paraules emmascarades basant-se en el context.

Transferència Zero-shot i Few-shot:
Capacitat dels LLMs per realitzar tasques noves sense entrenament específic (zero-shot) o amb només uns pocs exemples (few-shot), aprofitant el coneixement adquirit durant l’entrenament.

Generació Multimodal (Multimodal Generation):
Capacitat de crear o combinar diferents tipus de contingut (text, imatges, àudio, vídeo) de manera coherent, permetent interaccions més riques entre modalitats diverses.

Generació Augmentada amb Recuperació (Retrieval-Augmented Generation – RAG):
Tècnica que combina un model de llenguatge amb un sistema de recuperació d’informació externa. Durant la inferència, el model consulta documents rellevants i utilitza aquest contingut per generar respostes més precises i actualitzades.

Àrees Aplicades i Tipus de Problemes

Classificació (Classification):
Assignació d’exemples a categories o classes predefinides mitjançant aprenentatge supervisat. Pot ser binària (dues classes) o multiclasse, i s’utilitza per organitzar i categoritzar dades de forma automàtica.

🟢 Exemple: Classificar clients com a “prospectes interessats” o “no interessats” en un producte per optimitzar campanyes de vendes.

Regressió (Regression):
Predicció de valors numèrics continus a partir de característiques d’entrada. Serveix per estimar quantitats com preus, temperatures o probabilitats.

🟢 Exemple: Estimar les vendes mensuals d’un producte basant-se en variables com pressupost de màrqueting, temporada i tendències passades.

Agrupament (Clustering):
Organització d’exemples similars en grups (clusters) sense etiquetes prèvies, mitjançant aprenentatge no supervisat. Permet descobrir patrons ocults dins les dades.

🟢 Exemple: Segmentar clients segons els seus hàbits de compra per dissenyar campanyes de màrqueting personalitzades.

Detecció d’Anomalies (Anomaly Detection):
Identificació de patrons, esdeveniments o observacions que es desvien del comportament normal per detectar fraus, errors o situacions inusuals.

🟢 Exemple: Detectar transaccions financeres inusuals que podrien indicar frau o errors en la comptabilitat.

Recomanació (Recommendation):
Suggeriment d’elements rellevants (productes, continguts, serveis, persones) basat en preferències, comportaments passats o similituds amb altres usuaris.

🟢 Exemple: Recomanar productes complementaris a un client en una botiga en línia per augmentar la facturació.

Anàlisi de Sèries Temporals (Time Series Analysis):
Estudi de dades ordenades cronològicament per identificar tendències, estacionalitats i patrons temporals, i per fer prediccions sobre el comportament futur.

🟢 Exemple: Preveure la demanda de productes estacional per ajustar l’inventari i optimitzar la cadena de subministrament.

Recuperació d’Informació (Information Retrieval):
Recerca i obtenció de documents o continguts rellevants d’una col·lecció gran a partir de consultes específiques d’usuari.

🟢 Exemple: Cercar contractes o documents legals rellevants dins d’una base de dades interna d’una empresa.

Generació de Contingut (Content Generation):
Creació automàtica de contingut original i coherent (text, imatges, àudio, vídeo, codi, etc.) mitjançant models generatius, amb aplicacions creatives i productives.

🟢 Exemple: Generar automàticament descripcions de productes per a un catàleg en línia que faciliti la venda i redueixi el temps de redacció.

Anàlisi de Sentiment:
Determinació automàtica de l’actitud, opinió o emoció expressada en textos, útil per comprendre la percepció pública sobre temes, productes o serveis.

🟢 Exemple: Analitzar opinions de clients sobre un producte en xarxes socials per detectar possibles millores o punts febles.

Traducció Automàtica:
Conversió automàtica de text d’un idioma a un altre per facilitar la comunicació multilingüe i l’accés global a la informació.

🟢 Exemple: Traduir automàticament informes comercials per a clients internacionals.

Reconeixement d’Imatges:
Identificació i classificació automàtica del contingut present en una imatge, amb aplicacions en catalogació, seguretat, diagnòstic mèdic, entre d’altres.

🟢 Exemple: Identificar productes en imatges per automatitzar processos de control d’estoc en magatzems.

Aprenentatge per Reforç (Reinforcement Learning):
Enfocament d’aprenentatge automàtic en què un agent aprèn a prendre decisions seqüencials mitjançant interacció amb un entorn. L’agent rep recompenses o penalitzacions segons les seves accions i aprèn estratègies òptimes per maximitzar la recompensa acumulada a llarg termini.

🟢 Exemple: Optimitzar la logística d’una empresa per reduir costos de transport aprenent la millor ruta i distribució de recursos.

Llista d’algoritmes

Algorismes Essencials

Mètode / AlgoritmeTipus de problemaDescripció breu
Regressió linealRegressióAjusta un model lineal y=β0+β1x.
Regressió logísticaClassificació (binària/multiclasse)Estima la probabilitat d’una classe mitjançant la funció sigmoide (o multinomial en multiclasse).
Ridge / LassoRegressióRegressió lineal amb penalització L2 (Ridge) o L1 (Lasso) per controlar l’overfitting.
Polynomial Features + RegressióRegressióGenera termes d’ordre superior com a part de l’enginyeria de característiques.
Arbre de decisióClassificació / RegressióSplits basats en guany d’informació o reducció d’error per generar regles d’arbre.
Random ForestClassificació / RegressióConjunt d’arbres de decisió entrenats sobre submostres de dades i característiques.
Gradient BoostingClassificació / RegressióSeqüència d’arbres dèbils (XGBoost, LightGBM) que aprenen a corregir errors iterativament.
MLP (Multilayer Perceptron)Classificació / RegressióXarxa neuronal feedforward bàsica per a tasques supervisades.
k-Nearest Neighbors (k-NN)Classificació / RegressióPredicció basada en els k veïns més propers segons una mètrica de distància.
Support Vector Machine (SVM)Classificació / Regressió (SVR)Hiperplà que maximitza el marge entre classes (o SVR per regressió).
Naive BayesClassificacióModel probabilístic que assumeix independència condicional entre característiques.
K-meansClusteringPartitiona el dataset en k grups minimitzants la suma de distàncies quadràtiques.
PCAReducció de dimensionalitatProjecció ortogonal per retenir la màxima variància amb menys components.
ARIMA / SARIMASèries temporalsModels paramètrics per a sèries estacionàries i amb estacionalitat.

Algorismes Avançats

Mètode / AlgoritmeTipus de problemaDescripció breu
t-SNEReducció de dimensionalitat / VisualitzacióVisualització no lineal en 2D/3D; costós per a conjunts grans.
UMAPReducció de dimensionalitat / VisualitzacióAlternativa més ràpida i escalable a t-SNE.
Gaussian Mixture Models (GMM)ClusteringAgrupa mitjançant una combinació de distribucions gaussianes; ofereix probabilitats de pertinença.
DBSCANClusteringAgrupa regions d’alta densitat i detecta soroll sense definir k.
Hierarchical ClusteringClusteringConstrucció aglomerativa o divisiva d’un dendrograma de clústers.
Isolation ForestDetecció d’anomaliesAïlla punts en arbres aleatoris; bo per a dades d’alta dimensionalitat.
Local Outlier Factor (LOF)Detecció d’anomaliesMesura la densitat local al voltant de cada punt per identificar outliers.
Elliptic EnvelopeDetecció d’anomaliesPressuposa una distribució el·líptica per detectar outliers.
AutoencoderReducció de dimensionalitat / Detecció d’anomaliesXarxa neuronal que aprèn a comprimir i reconstruir; útil per a detecció d’outliers.
Collaborative FilteringRecomanacióSuggeriments basats en similituds de comportament entre usuaris o ítems.
Matrix Factorization (ALS, SVD)RecomanacióAprenentatge de factors latents que representen usuaris i ítems en un espai de baixa dimensió.
ProphetSèries temporalsBiblioteca de Meta per a forecasts amb tendència i estacionalitat automàtiques.
RNN / LSTM / GRUSeqüències (NLP, sèries temporals)Xarxes neuronals recurrents per modelar dependències seqüencials.
Transformer (BERT, GPT)Seqüència (NLP, generació de contingut)Arquitectura basada en atenció; excel·lent en traducció, classificació i generació de text.
Ensembles: Stacking / BlendingClassificació / RegressióCombina models heterogenis (p. ex. regressió + arbres) per millorar el rendiment.
Q-Learning / DQNReinforcement LearningAlgoritmes de valor per aprendre polítiques en entorns seqüencials.
Policy Gradients (REINFORCE, PPO)Reinforcement LearningAprenentatge directe de polítiques sovint amb xarxes neuronals profundes.

Conceptes matemàtics

Fonaments

ConcepteDefinició
Mitjana i medianaMitjana: suma de tots els valors dividit pel nombre de valors. Mediana: valor central quan ordenem les dades. Ús en ML: entendre la distribució de les dades, detectar outliers.
Escalars, vectors, matrius i tensorsUn escalar és un número sol (ex: temperatura = 25°C). Un vector és una llista ordenada de números (ex: coordenades [x, y]). Una matriu és una taula bidimensional de números (ex: imatge en escala de grisos). Un tensor és una generalització en més dimensions (ex: imatge RGB: ample × alt × 3 canals de color).
Funcions i derivadesFunció: mapeja entrades a sortides f(x) → y. Derivada: indica si una funció puja o baixa, i com de ràpid (com la pendent d’un turó). Derivades parcials: canvi respecte una variable mantenint les altres constants.
Logaritmeslog_b(x) respon “a quina potència he d’elevar b per obtenir x?”. Propietats útils: log(ab) = log(a) + log(b). Ús en ML: funcions de pèrdua (cross-entropy), softmax, evitar overflow numèric.

Àlgebra lineal

ConcepteDefinició
Producte escalar (dot product)Operació que combina dos vectors de la mateixa mida i retorna un escalar. Geomètricament parlant, és alt si apunten en la mateixa direcció, zero si són perpendiculars. Ús en ML: combinar pesos amb característiques en xarxes neuronals.
Norma (norm)Mesura la “longitud” o magnitud d’un vector. L1 norm: suma dels valors absoluts. L2 norm: arrel quadrada de la suma dels quadrats. Ús en ML: normalització de dades i regularització.
Multiplicació matriusOperació que combina dues matrius m×n i n×p resultant m×p. Cada element del resultat és el producte escalar (dot product) d’una fila de la primera matriu amb una columna de la segona. Ús en ML: transforma dades d’entrada aplicant pesos per calcular prediccions en xarxes neuronals.
DistànciesEuclidiana: distància recta entre punts (L2). Manhattan: suma de diferències absolutes (L1). Cosinus: mesura l’angle entre vectors, ignora la magnitud. Ús en ML: k-NN, clustering, mesura de similaritat.

Probabilitat i estadística

ConcepteDefinició
ProbabilitatMesura de la incertesa: P(A) indica la probabilitat que passi A, entre 0 i 1. Ús en ML: classificació probabilística, incertesa de prediccions.
Probabilitat condicionalProbabilitat que passi A sabent que ha passat B: P(A|B). Ús en ML: classificadors bayesians, arbres de decisió.
Teorema de BayesEl Teorema de Bayes actualitza la probabilitat d’un fet A donada l’evidència B: P(A|B)=P(B|A)·P(A)/P(B), combinant prior, versemblança i evidència total.
Esperança i variànciaEsperança o mitjana (μ): valor mitjà esperat d’una variable aleatòria. Variància (σ²): mesura la dispersió respecte la mitjana. Ús en ML: normalització, inicialització de pesos.
CorrelacióMesura de dependència lineal entre dues variables. Coeficient de Pearson: varia entre -1 (correlació negativa perfecta) i +1 (correlació positiva perfecta), 0 indica independència lineal. Ús en ML: selecció de característiques, detecció de multicol·linearitat.
Distribucions de probabilitatModelen com es distribueixen els valors. Normal/Gaussiana: forma de campana, molt comuna. Bernoulli: èxit/fracàs. Categòrica: múltiples classes. Ús en ML: modelatge de dades, inicialització.

Optimització i entrenament

ConcepteDefinició
GradientVector que indica la direcció de màxim creixement d’una funció. En ML, apunta cap on incrementar els pesos per augmentar l’error, per això anem en direcció oposada.
Descens pel gradientAlgorisme que minimitza una funció seguint el gradient negatiu. Actualitza pesos iterativament: pes_nou = pes_antic - taxa_aprenentatge * gradient. Base de l’entrenament de models.
Funcions de pèrdua (loss)Mesuren l’error del model. MSE: per regressió. Cross-entropy: per classificació. Objectiu: minimitzar aquesta funció durant l’entrenament.

Models i arquitectures

ConcepteDefinició
Funcions linealsEquacions de la forma y=mx+b (2D) o y=wx+wx++b (multidimensional). Limitació: només poden separar dades linealment separables.
PreactivacióValor calculat en una neurona com a combinació lineal de les entrades i els pesos, abans d’aplicar-hi la funció d’activació. Representa la “entrada neta” que rep la neurona. Matemàticament, s’expressa com z=wx+b, on w són els pesos, x les entrades i b el biaix.
Funcions d’activacióFuncions no lineals que s’apliquen a la preactivació de cada neurona. Transformen el valor z (la preactivació) en una sortida a, que es propaga cap a la següent capa. Permeten a la xarxa neuronal aprendre patrons complexos i no lineals. Exemples: ReLU (max(0,z)), sigmoide (11+ez), tanh.

Avaluació i generalització

ConcepteDefinició
Normalització de dadesAjustar escales de variables. Min-max: [0,1]. Z-score: mitjana 0, desviació 1. Necessari: molts algoritmes són sensibles a l’escala.
Mètriques d’avaluacióClassificació: accuracy, precision, recall, F1-score. Regressió: MSE, MAE, RMSE, R². Matriu de confusió: visualitza errors de classificació.
MSE (Mean Squared Error)Error quadràtic mitjà. Calcula la mitjana dels quadrats de les diferències entre prediccions i valors reals. Penalitza més els errors grans.
RMSE (Root Mean Squared Error)Arrel quadrada del MSE. Té les mateixes unitats que la variable objectiu, facilitant la interpretació. Manté la propietat de penalitzar errors grans.
MAE (Mean Absolute Error)Error absolut mitjà. Calcula la mitjana de les diferències absolutes entre prediccions i valors reals. Més robust a outliers que MSE.
Coeficient de determinació (R²)Mètrica per a regressió que indica la proporció de variància de la variable dependent explicada pel model. Varia entre 0 (el model no explica millor que la mitjana) i 1 (ajust perfecte). Valors negatius indiquen que el model és pitjor que predir simplement la mitjana.
Corba ROC i AUCPer a la classificació binària. ROC: gràfic que mostra la relació entre taxa de vertaders positius (recall) vs. falsos positius a diferents llindars. AUC: àrea sota la corba, mesura la capacitat discriminativa del model (0.5 = aleatori, 1.0 = perfecte).
Sobreajustament i regularitzacióSobreajustament: model memoritza dades d’entrenament però generalitza malament. Regularització: tècniques per evitar-ho (L1/L2, dropout). Compromís biaix-variance.
DimensionalitatMaledicció de la dimensionalitat: en espais d’alta dimensió, les dades es tornen disperses. Reducció: PCA, t-SNE. Feature selection: triar variables rellevants.

Abreviatures

AbreviaturaForma completa en català / anglèsDescripció breu
AEAutoencoderXarxa neuronal que aprèn a codificar i reconstruir dades; útil per a anomalies.
AIIntel·ligència Artificial (Artificial Intelligence)Camp que busca crear sistemes que simulen la intel·ligència humana.
ALSAlternating Least SquaresMètode de factorització de matrius per a recomanacions col·laboratives.
ARIMAAutoRegressive Integrated Moving AverageModel per a sèries temporals amb autoregressió, diferenciació i mitjana mòbil.
BERTBidirectional Encoder Representations from TransformersTransformer preentrenat per a representació de text bidireccional.
CNNXarxa Neuronal Convolucional (Convolutional Neural Network)Xarxa especialitzada en processar dades visuals.
DBSCANDensity-Based Spatial Clustering of Applications with NoiseClustering basat en densitat; detecta soroll sense definir nombre de clústers.
DLAprenentatge Profund (Deep Learning)Subcamp de ML que usa xarxes neuronals profundes.
DQNDeep Q-NetworkQ-Learning amb xarxa neuronal per estimar la funció de valor.
DTArbre de decisió (Decision Tree)Model que fa particions recursives basades en guany d’informació o gini.
GANXarxa Generativa Adversarial (Generative Adversarial Network)Arquitectura per generar dades noves mitjançant una competició entre models.
GBMGradient Boosting MachineSeqüència d’arbres dèbils entrenats en residus per reduir l’error.
GMMGaussian Mixture ModelsModel probabilístic que ajusta clústers amb combinacions de gaussianes.
GPUUnitat de Processament Gràfic (Graphics Processing Unit)Hardware utilitzat per accelerar càlculs paral·lels, especialment en DL.
GPTGenerative Pre-trained TransformerTransformer autogeneratiu per a generació de text i tasques de seqüència.
GRUGated Recurrent UnitVariante d’RNN amb portes d’actualització i reinicialització.
KNNk-Nearest NeighborsPredicció basada en els k veïns més propers segons una mètrica de distància.
LLMModel Gran de Llenguatge (Large Language Model)Models de llenguatge amb molts paràmetres, capaços de generar text natural.
LGBMLightGBMBiblioteca ràpida de gradient boosting basada en histogrammes.
LOFLocal Outlier FactorMesura la densitat local per identificar punts que difereixen del veïnat.
LSTMLong Short-Term MemoryRNN amb cel·les de memòria que aprenen dependències a llarg termini.
MLAprenentatge Automàtic (Machine Learning)Subcamp d’IA que fa que els sistemes aprenguin de dades.
MLPMultilayer PerceptronXarxa neuronal feedforward bàsica per a tasques supervisades.
NBNaive BayesClassificador probabilístic que assumeix independència condicional.
PCAPrincipal Component AnalysisReducció de dimensionalitat per projecció ortogonal de màxima variància.
PPOProximal Policy OptimizationAlgoritme de Policy Gradient que controla la magnitud de l’actualització.
RNNXarxa Neuronal Recurrent (Recurrent Neural Network)Xarxa especialitzada en dades seqüencials.
RFBosc aleatori (Random Forest)Conjunt d’arbres de decisió entrenats sobre submostres aleatòries.
SARIMASeasonal ARIMAExtensió d’ARIMA que inclou components estacionals.
SDGStochastic Gradient DescentAlgoritme d’optimització per ajustar pesos.
SVDSingular Value DecompositionFactorització de matrius per a reducció de dimensionalitat i recomanacions.
SVMMàquina de Vectors de Suport (Support Vector Machine)Algoritme supervisat per classificació i regressió.
t-SNEt-Distributed Stochastic Neighbor EmbeddingMètode no lineal per a visualització de dades en 2D/3D preservant veïnats.
TPUUnitat de Processament Tensorial (Tensor Processing Unit)Processador específic per xarxes neuronals desenvolupat per Google.
UMAPUniform Manifold Approximation and ProjectionAlternativa a t-SNE més ràpida i escalable per a reducció de dimensionalitat.
XGBoosteXtreme Gradient BoostingImplementació eficient de gradient boosting amb regularització.