Latest

Word Embedding

Word Embedding 문장의 단어들을 벡터 공간 상의 점으로 표현하기 위해, 단어들을 벡터로 변환하는 방법. Word Embedding 자체가 딥러닝, 머신러닝 기술이다. 학습 데이터, 사전에 정의한 벡터 공간의 차원 수를 통해 학습을 진행한다. 학습이 완료되면 학습 데이터, 즉 특정 단어에 대한 최적의 벡터를 출력해준다. Word Embedding의 기본 아이디어 비슷한 의미를 가지는 단어들이
Sungho Park

첫번째 Ai Competition 마무리

2주간의 짧은 시간이었지만, 계속 밤을 샜던지라 4주와도 같았던 시간이었다. 그 동안 시도했던 내용들, 다른 사람들이 사용했던 방법들을 정리해봤다. 최종 결과물 실험을 위해 구현했던 개인 코드: https://github.com/naem1023/boostcamp-pstage-image 내가 만든 모델을 통해 5위를 한 것도 너무 좋았고 그 과정에서 팀원들과 밤새면서 함께 코딩하고 실험했던 경험들이 소중했다. 교외에서 한번도
Sungho Park

Bag-of-Words

Bag-of-Words 딥러닝 이전에 단어를 숫자로 나타내는 기법. Bag-of-Words Representation 1. Constructing the vocabulary conatining unique words. 여러 문장에 걸쳐 중복되게 사용된 단어라도 Vocabulary에서는 한번만 표현된다. 2. Encoding unique words to one-hot vectors. Vocabulary에 존재하는 단어들을 일종의 categorical data로 볼 수 있어서 one-hot vecotr로 표기해보는 것. 가령, Vocabulary에 8개의 단어가 있다면
Sungho Park

강화학습 공부 자료

멘토님께서 찾아봐주신 강화학습 자료들이다. 정말 감사합니다.. 김성훈 교수 모두를 위한 머신러닝/딥러닝 - 강화학습 : https://hunkim.github.io/ml/ Stanford대 Richard sutton 교수의 Reinforcement Learning - Stanford University pdf (국내 번역본도 있음) [책] 강화학습 첫걸음 : http://www.yes24.com/Product/Goods/57617908?OzSrank=12 [책] 파이썬과 케라스로 배우는 강화학습 http:
Sungho Park