BERT (Bidirectional Encoder Representations from Transformers) is een taalmodel ontwikkeld door Google AI in 2018. Het model heeft een revolutie teweeggebracht in natuurlijke taalverwerking door zijn vermogen om context in beide richtingen te begrijpen.
BERT is ontwikkeld om een fundamenteel probleem in taalverwerking op te lossen: het beter begrijpen van de context en betekenis van woorden in hun volledige context. Specifieke doelen waren:
Krachten:
Zwaktes:
BERT wordt beschouwd als een baanbrekend model dat de basis heeft gelegd voor moderne NLP. Het model heeft brede erkenning gekregen in zowel academische als industriële kringen.
Positieve aspecten: