본문 바로가기

논문으로 현업 씹어먹기13

딥러닝을 대하는 우리의 자세 - (A Recipe for Training Neural Networks / Andrej Karpathy) 오늘 정말 너무너무 공감되서 가슴이 뜨거워질 정도였던 블로그 글을 읽게 되었다. 무려 만 32살에 Tesla AI Team 팀장을 맡게된 Andrej Karpathy의 기술 블로그를 보던중 과거의 글 중에 이런 글이 있었다. karpathy.github.io/2019/04/25/recipe/ A Recipe for Training Neural Networks Some few weeks ago I posted a tweet on “the most common neural net mistakes”, listing a few common gotchas related to training neural nets. The tweet got quite a bit more engagement than I anticip.. 2021. 4. 22.
LSTM Attention 이해하기 - 어텐션 기초 Attention 예제 소스가 있는 git github.com/YooSungHyun/attention-time-forecast.git YooSungHyun/attention-time-forecast attention으로 시계열 예측은 할 수 없을까. Contribute to YooSungHyun/attention-time-forecast development by creating an account on GitHub. github.com 실무 데이터 적용을 목적으로 했던 소스여서, 중요한 부분은 다 날리고, 딱 중요한 model architecture 부분만 살려두었다. 주석도 세세하게 다 달아놨으니, 이해할겸 보면 정말 도움 많이 되리라 생각된다. 최초로 attention을 이해하기위해 봤던 레퍼런스 .. 2021. 4. 19.
LSTM Attention 이해하기 - 서론 BERT 서론 회사에서 TA관련한 프로젝트를 할 일이 생겼다. 내가 나중에 시간이 되면 올리겠지만, 이전 회사에서 TA 관련된 프로젝트를 2개 해본것이 있었는데, 1. 회사 상품 평판 분석 2. Encoder-Decoder LSTM을 이용한 한글 문장 요약 이런 경험들이 프로젝트를 맡게된 이유가 아닐까 생각된다. 필자는 시간이 있다면, 공개된 알고리즘은 논문부터 소스까지 톺아보는 성격인지라, 모델을 까보게 됐는데, 사실 이전까지는 별로 Attention에 대한 이해도가 높진 않았고, 사용할 수 있는 정도였다. (Encoder-Decoder 구성에서, 어떤 Dimension이 들어왔을때, 어떤 차원을 기준으로 Attention을 때리면, 뭐에대한 Score가 나온다 정도...?) BERT를 심도있게 까보던.. 2021. 4. 19.
Dual-Stage Attention-Based RNN for Time Series Prediction 서론 최근의 일이다. BERT를 파보고 있었다. (Goolgle git에서 다운받아서.) Attention을 알고는 있었는데, 자연어 처리 업무를 최근까지 할 일이 거의 없었고(맨~~~이미지만 그냥.,...), 대부분의 작업을 KR-WordRank를 이용한 추출요약에 관련된 업무로 처리를 하고있다가, (혹은 Seq2Seq로 처리했었다... 뭐 결국 이도 추출요약이지만.) BERT를 까보면서 Cosine 유사도, 내적 유사도, 벡터의 내적에 대해 눈을 뜨게 되었고, --- 나의 가설 혹시 그렇다면, 내가 진행하던 업무의 일종인, Time Series Forecasting도 특징간의 내적으로, 유의미한 Feature를 추출해내고, 그 부분을 이용하여 집중 학습시켜, 더 나은 예측 결과값을 얻어낼 수 있지 않.. 2021. 4. 15.
728x90