Overfitting: che cos'è e perché rappresenta un problema per l'intelligenza artificiale

Descrizione del post sul blog.

6/20/20242 min read

a spiral notebook with the word ai on it
a spiral notebook with the word ai on it

Cosa è l'Overfitting?

L'overfitting è un problema comune nel machine learning. Questo fenomeno emerge quando un modello di Intelligenza Artificiale apprende i dati di addestramento in modo troppo efficace, includendo nel processo "rumori" e outlier. Affrontare l'overfitting è cruciale poiché l'obiettivo primario di un modello di Intelligenza Artificiale è quello di fare previsioni accurate su nuovi dati, non solo replicare quelli di addestramento. L'overfitting si verifica quando un modello diventa troppo adattato ai dati di addestramento, catturando anche le loro fluttuazioni casuali. Per semplificare questo concetto prova ad immagina di insegnare a un bambino come riconoscere gli uccelli, ma invece di insegnargli quali sono le caratteristiche generali degli uccelli, gli mostri solo dei piccioni. Nel caso vedesse un'aquila, potrebbero comunque pensare che sia un piccione dato che ha le ali, le zampe, un becco e vola.

Quali sono le cause dell'overfitting?

Le cause dell'overfitting possono essere numerose:

  • Modelli complessi: utilizzare un modello eccessivamente complesso per un compito semplice può portare all'overfitting. Ad esempio, usare una regressione polinomiale di alto grado per dati che sono di natura lineare.

  • Dati insufficienti: se non ci sono abbastanza dati, il modello potrebbe trovare pattern che non esistono realmente.

  • Dati rumorosi: se i dati di addestramento contengono errori o fluttuazioni casuali, un modello sovra-adattato tratterà questi come pattern.

L'impatto dell'overfitting è significativo. Mentre un modello sovra-adattato avrà un'alta accuratezza sui suoi dati di addestramento, performerà male su nuovi dati non visti perché non è abbastanza generalizzato. Rilevare l'overfitting è un passo cruciale nel processo di machine learning.

Overfitting e Underfitting: quali sono le differenze?

Mentre l'overfitting è un'eccessiva adattazione del modello ai dati di addestramento, l'underfitting è l'opposto. Un modello sottosviluppato non riesce a catturare nemmeno i pattern di base nei dati di addestramento. In sintesi:

  • Overfitting: alta accuratezza sui dati di addestramento, bassa accuratezza sui nuovi dati. Immagina un GPS che funziona perfettamente nella tua città natale ma si perde ovunque altro.

  • Underfitting: bassa accuratezza sia sui dati di addestramento che sui nuovi dati. È come un GPS che non riesce nemmeno a navigare nella tua città natale.

Entrambi i fenomeni portano a previsioni di bassa qualità su nuovi dati, ma per ragioni diverse. Mentre l'overfitting è spesso dovuto a un modello eccessivamente complesso o dati "rumorosi", l'underfitting può derivare da un modello troppo semplice o da un numero insufficiente di caratteristiche. Tuttavia, l'overfitting è uno dei maggiori rischi che accompagna la ricerca di alta accuratezza. Per evitare questo problema vengono utilizzate delle tecniche come la cross-validation, la regolarizzazione, l'augmentation dei dati e l'ensambling per garantire che i modelli generalizzino bene.

Dott.Igor Graziato

Psicologo del lavoro e delle organizzazioni

Specialista in Psicoterapia

Virtual Reality Therapist

Master in Cognitive Behavioural Hypnotherapy

Membro dell'American Psychological Association

Past Vice President Ordine degli Psicologi del Piemonte