Wat is een Transformer?

Een Transformer is een type neuraal netwerk architectuur die in 2017 werd geïntroduceerd en revolutionair is gebleken voor natuurlijke taalverwerking (NLP) en andere AI-toepassingen.

Kernkenmerken

Toepassingen

Transformers vormen de basis voor veel moderne AI-modellen, waaronder:

Belang

De Transformer-architectuur heeft een revolutie teweeggebracht in AI door betere prestaties en efficiëntie mogelijk te maken. Het vormt de basis voor veel moderne AI-doorbraken en wordt gezien als een van de belangrijkste innovaties in machine learning van het afgelopen decennium.

Ontwikkelingsgeschiedenis

De Transformer werd ontwikkeld door onderzoekers bij Google Brain en Google Research. Het team publiceerde hun baanbrekende paper "Attention Is All You Need" (Bibliotheek: ‣) in 2017.

De belangrijkste motivaties voor de ontwikkeling waren: