Een Transformer is een type neuraal netwerk architectuur die in 2017 werd geïntroduceerd en revolutionair is gebleken voor natuurlijke taalverwerking (NLP) en andere AI-toepassingen.
Transformers vormen de basis voor veel moderne AI-modellen, waaronder:
De Transformer-architectuur heeft een revolutie teweeggebracht in AI door betere prestaties en efficiëntie mogelijk te maken. Het vormt de basis voor veel moderne AI-doorbraken en wordt gezien als een van de belangrijkste innovaties in machine learning van het afgelopen decennium.
De Transformer werd ontwikkeld door onderzoekers bij Google Brain en Google Research. Het team publiceerde hun baanbrekende paper "Attention Is All You Need" (Bibliotheek: ‣) in 2017.
De belangrijkste motivaties voor de ontwikkeling waren: