Jusqu'à présent, il était difficile de traiter de telles longues séquences de texte de manière efficace tout en conservant la capacité du modèle à comprendre et à générer des résultats significatifs. Les méthodes existantes, bien qu'efficaces, ont leurs limites. Elles peinent soit avec la quantité astronomique de calculs nécessaires pour traiter de telles longues séquences de texte, soit avec la capacité du modèle à comprendre et à générer des résultats significatifs lorsqu'il est confronté à de telles longues séquences.
LongNet introduit une nouvelle technique appelée "attention dilatée". En termes simples, cela signifie que lorsque la distance entre les différentes parties de la séquence de texte s'accroît, l'attention que le modèle porte à ces parties s'étend de manière exponentielle. Cela permet à LongNet de traiter des séquences de texte extrêmement longues sans sacrifier ses performances sur des séquences plus courtes.
Les principaux avantages de LongNet sont :
L'équipe de recherche de Microsoft a testé LongNet et a constaté qu'il fonctionne bien à la fois sur des tâches impliquant de longues séquences de texte et sur des tâches de langage général. Cela ouvre un monde de possibilités pour le traitement et la compréhension de séquences de texte extrêmement longues comme une collection entière de livres ou encore des millions d'articles.