We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
발표 나누기 3.1 ~ 3.3 @0hee0 3.4 ~ @emphasis10
@mori8 님 QA 관련 부분 자료 업데이트 반영 부탁드립니다 ㅎㅎ @shyram 님 #7 발행했습니다 ㅎㅎ
3.4 Downstream Task를 위한 BERT Fine-tuning 방법에 관련하여,
에 대한 추가적인 내용을 다룰 예정입니다.
The text was updated successfully, but these errors were encountered:
[오탈자] p.128 첫번째 줄.
tokens = [ [CLS], I, love, Paris, [SEP] ] -> tokens = [ '[CLS]', 'I', 'love', 'Paris', '[SEP]' ]
p.137
segment_ids = [0] * len(question_tokens) segment_ids += [1] * len(paragraph_tokens) # 문맥상 +=으로 변경 필요
Sorry, something went wrong.
p.117
model = BertModel.from_pretrained('bert-base-uncased') model(token_ids, attention_mask = attention_mask)
model이 반환하는 pooler_output이 활성화함수로 왜 tanh를 사용하는 건지 궁금합니다.
model
pooler_output
tanh
emphasis10
shyram
mori8
hee-suh
No branches or pull requests
발표 나누기
3.1 ~ 3.3 @0hee0
3.4 ~ @emphasis10
@mori8 님 QA 관련 부분 자료 업데이트 반영 부탁드립니다 ㅎㅎ
@shyram 님 #7 발행했습니다 ㅎㅎ
3.4 Downstream Task를 위한 BERT Fine-tuning 방법에 관련하여,
에 대한 추가적인 내용을 다룰 예정입니다.
The text was updated successfully, but these errors were encountered: