Latest

부스트캠프 AI Tech 2기 6주차 학습정리

6주차 학습정리 강의 복습 내용 NLP (1~9번 포스팅) https://velog.io/@naem1023/series/NLP 과제 수행 과정 / 결과물 정리 bucketing ![](/assets/images/부스트캠프 AI Tech 2기 6주차 학습정리/89d8a5d1-3a51-4a52-8c89-fd8cfa8a7fcb-image.png) 데이터의 길이에 따라서 batch를 재구성하는 기법이다. 과제 4에서 나왔는데 기법 자체에 대한 이해는 쉬웠지만, 코드에 대한 이해가 매우 어려웠다.
Sungho Park

BLEU

일반적인 precision이나 recall을 계산하면 Seq2Seq에서는 모든 지표가 0에 가까울 것이다. 왜냐하면 step별로 비교하면 대부분 일치하지 않을 확률이 매우 높기 때문이다. 즉, 아래처럼 굉장히 유사한 문장의 지표가 0에 가깝게 나올 수도 있다. 그래서 이러한 맥락을 지표에 반영할 필요가 있다. Precision, Recall ** Precision(정밀도) ** * 예측한 결과에 대해서 corrected words가 몇개인지 나타낸다. * 예측한
Sungho Park

Beam search

Greedy decoding 이전 포스팅의 attention이나 LSTM들은 특정 step에서 다음 단어를 예측할 때, 가장 확률이 높은 하나의 단어를 선택한다. 이러한 방법을 greedy decoding이라고 한다. 전체적인 맥락에서 예측하는 것이 아니라 근시안적으로 가장 좋은 방법을 택하기 때문이다. 예를 들면 아래와 같다. input: {어려운 프랑스어}, answer: he hit me with a pie 이러한 상황에서
Sungho Park