Transformers

trasformatori, un'architettura di rete neurale che ha rivoluzionato l'elaborazione del linguaggio naturale (NLP) e altre applicazioni.

Meccanismo di autoattenzione

  • I trasformatori utilizzano un meccanismo di autoattenzione per elaborare i dati testuali, che include la generazione di vettori di query, chiave e valore (Q, K, V).

  • I punteggi di attenzione vengono calcolati confrontando i vettori di query e chiave, permettendo al modello di pesare l'importanza di diverse parti della sequenza di input.

Meccanismo di attenzione incrociata

  • Per la generazione di immagini a partire da testo, i trasformatori impiegano un meccanismo di attenzione incrociata, dove le informazioni testuali influenzano la generazione di dati visivi.

  • Questo approccio consente di creare immagini originali basate su descrizioni testuali, come un "casa a due piani con un tetto rosso".

Vantaggi e limitazioni dei trasformatori

  • I trasformatori possono elaborare i dati in parallelo, accelerando notevolmente il processo di addestramento rispetto alle reti neurali ricorrenti (RNN).

  • Tuttavia, richiedono grandi quantità di dati per l'addestramento e possono ereditare i bias presenti nei dati di addestramento, rappresentando una delle loro principali limitazioni.


Laboratorio: Transformer con Keras

Last updated