BERT je model za obdelavo naravnega jezika (angl. Natural language processing – NLP), ki ga je razvil Google in se uči dvosmerne predstavitve besedila, da bi znatno izboljšal kontekstualno razumevanje neoznačenega besedila pri številnih različnih nalogah.
BERT (Bidirectional Encoder Representations from Transformers) od leta 2018 razvija Google in gre za jezikovni model (angl. language model). Prispevek opiše razlikovanje tega jezikovnega modela od drugih modelov, zakaj ga uporabljati in na katerih področjih se uporablja.