https://www.youtube.com/watch?v=OOfCI8R0jr8
1. 참고 강의 (위쪽)
-> 2020년 1월 버전이라 라이브러리 변경사항 많아서 저기 강의 나온 코드 버전 안 맞음.
작성해주신 코멘트 참조하여 허깅스페이스 버전 찾아서 실행할 것 (2022/01/20 - 확인완료)
2. 올린 사람 깃허브
https://github.com/kimwoonggon/publicservant_AI
GitHub - kimwoonggon/publicservant_AI
Contribute to kimwoonggon/publicservant_AI development by creating an account on GitHub.
github.com
3. 실행해보면서 에러 또는 잘 안 된 부분 정리
3-1. sentencepiece 모듈 에러
-> 코드상에는 없는데 !pip install sentencepiece 명령으로 라이브러리 설치해야 함
https://dacon.io/competitions/official/235670/codeshare/1791
3-2. AttributeError: module transformers.models.big_bird has no attribute BigBirdTokenizer
위 에러 발생, 아래 참조 블로그처럼 transformers 모듈 여러번 import 했을 때 발생하는 것으로 보임
https://taepseon.tistory.com/162?category=829477
AttributeError: module transformers.models.big_bird has no attribute BigBirdTokenizer
import torch !pip install transformers==3.3.0 from transformers import BertTokenizer from transformers import BertForSequenceClassification, AdamW, BertConfig from transformers import get_linear_sch..
taepseon.tistory.com
4. 기타 관련하여 유용해 보이는 사이트
버트 깃허브
https://github.com/google-research/bert
GitHub - google-research/bert: TensorFlow code and pre-trained models for BERT
TensorFlow code and pre-trained models for BERT. Contribute to google-research/bert development by creating an account on GitHub.
github.com
허깅스페이스-transformers 공식 doc로 보임
https://huggingface.co/docs/transformers/v4.15.0/en/index
🤗 Transformers
huggingface.co
01) 코랩(Colab)에서 TPU 사용하기
01) 코랩(Colab)에서 TPU 사용하기
지금까지는 GPU 사용만으로도 모델을 학습하는데 큰 무리가 없었지만, BERT의 경우 지금까지 사용한 모델보다 무거운 편입니다. 다시 말해 학습 속도가 상대적으로 느린 편입 ...
wikidocs.net
댓글