Com ajustar BERT a la tasca de classificació de text?

Bloc

Com ajustar BERT a la tasca de classificació de text?

BERT (Bidirectional Encoder Representations from Transformers) és una arquitectura basada en transformadors publicada al diari L’atenció és tot el que necessiteu ** _ l'any 2016 per Google. El model BERT es va publicar l'any 2019 al diari: BERT: formació prèvia de transformadors bidireccionals profunds per a la comprensió del llenguatge . _ ** Quan es va publicar, mostrava els resultats de l'estat de l'art Referència de cola .



Majoritàriament, modificarem i utilitzarem dos scripts per a la nostra tasca de classificació de text. Un és ** _ glue.py, _ ** i l'altre serà ** _ run_glue.py. _**L'arxiu glue.py path is _transformers / data / processors / _i el fitxer run_glue.py es pot trobar a la ubicació exemples / classificació de text /.

# aprenentatge profund # aprenentatge automàtic # classificació de text #bert #nlp #aprenentatge profund



medium.com

Com ajustar BERT a la tasca de classificació de text?

BERT (Bidirectional Encoder Representations from Transformers) és una arquitectura basada en transformadors publicada al document Atenció és tot el que necessiteu l'any 2016 per Google.