본문 바로가기

분류 전체보기56

LSTM Attention 이해하기 - 어텐션 기초 Attention 예제 소스가 있는 git github.com/YooSungHyun/attention-time-forecast.git YooSungHyun/attention-time-forecast attention으로 시계열 예측은 할 수 없을까. Contribute to YooSungHyun/attention-time-forecast development by creating an account on GitHub. github.com 실무 데이터 적용을 목적으로 했던 소스여서, 중요한 부분은 다 날리고, 딱 중요한 model architecture 부분만 살려두었다. 주석도 세세하게 다 달아놨으니, 이해할겸 보면 정말 도움 많이 되리라 생각된다. 최초로 attention을 이해하기위해 봤던 레퍼런스 .. 2021. 4. 19.
LSTM Attention 이해하기 - 서론 BERT 서론 회사에서 TA관련한 프로젝트를 할 일이 생겼다. 내가 나중에 시간이 되면 올리겠지만, 이전 회사에서 TA 관련된 프로젝트를 2개 해본것이 있었는데, 1. 회사 상품 평판 분석 2. Encoder-Decoder LSTM을 이용한 한글 문장 요약 이런 경험들이 프로젝트를 맡게된 이유가 아닐까 생각된다. 필자는 시간이 있다면, 공개된 알고리즘은 논문부터 소스까지 톺아보는 성격인지라, 모델을 까보게 됐는데, 사실 이전까지는 별로 Attention에 대한 이해도가 높진 않았고, 사용할 수 있는 정도였다. (Encoder-Decoder 구성에서, 어떤 Dimension이 들어왔을때, 어떤 차원을 기준으로 Attention을 때리면, 뭐에대한 Score가 나온다 정도...?) BERT를 심도있게 까보던.. 2021. 4. 19.
Dual-Stage Attention-Based RNN for Time Series Prediction 서론 최근의 일이다. BERT를 파보고 있었다. (Goolgle git에서 다운받아서.) Attention을 알고는 있었는데, 자연어 처리 업무를 최근까지 할 일이 거의 없었고(맨~~~이미지만 그냥.,...), 대부분의 작업을 KR-WordRank를 이용한 추출요약에 관련된 업무로 처리를 하고있다가, (혹은 Seq2Seq로 처리했었다... 뭐 결국 이도 추출요약이지만.) BERT를 까보면서 Cosine 유사도, 내적 유사도, 벡터의 내적에 대해 눈을 뜨게 되었고, --- 나의 가설 혹시 그렇다면, 내가 진행하던 업무의 일종인, Time Series Forecasting도 특징간의 내적으로, 유의미한 Feature를 추출해내고, 그 부분을 이용하여 집중 학습시켜, 더 나은 예측 결과값을 얻어낼 수 있지 않.. 2021. 4. 15.
LSTM으로 수요 예측하기 - 6장 (Reconstruction LSTM Auto-Encoder) 1. 시간별로 데이터 전처리 / Not Scaled 2. 일반 lstm 3레이어 정도(?) 3. 이후 data도 중요하다고 생각듬 4. BI-LSTM 사용 5. 데이터가 너무 없어 K-Fold 적용 6. Layer만 주구장창 쌓다가 AutoEncoder 활용 7. 데이터 Scaled 적용 8. Loss Function Custom 9. 1차 마무리 - 여기 사이에는 BERT가 포함되어있다. (Google Source를 다 까봤는데, 이건 언제 또 정리할까...) - 10. Attention 적용 => Dual-Stage Attention RNN (DA-RNN) => Luong Attention (Dot-Product Attention) => Bahdanau Attention 11. Seq2Seq 활용 =.. 2021. 4. 15.
막간 - 정리한거 찾다가 발견한 눈물의 대똥꼬쇼 LSTM으로 수요예측을 하는 것은, 거의 혼자 힘으로 개발했다...ㅋㅋ 선임이 한분 계셨는데, 작업 할 때 다른 업무로 바쁘셔서 잘 못도와주시다가, 나는 당장 모델부터 뽑아서 뭔가 보여줘야했어서, 대신 EDA를 도맡아서 해서 공유해주셨고, 추후에 모델 검증에서 많은 도움을 주셨다. 그러다보니, 여러가지 아키텍쳐 적인 가설과, 데이터 구성에 대한 생각, loss펑션의 합리성, 등등 단계별로 시도해봐야 할 시나리오 케이스가 상당히 많아서 나 스스로도 정리가 안됐었는데, 찾아보니 이런게 있었다. ㅋㅋ 하나하나 경험적으로 해봤던 것들을 전부 CASE 별로 정리하고, 어떤게 더 나았었는지 체크해놓은 엑셀이 있었다. (그때는 머리 뜯어가며 고통이었는데, 지금보니 추억이네.) 이 시절에 저 해당 시나리오별로 하나씩 .. 2021. 4. 12.
LSTM으로 수요 예측하기 - 5장 (K-Fold 사용) 1. 시간별로 데이터 전처리 / Not Scaled 2. 일반 lstm 3레이어 정도(?) 3. 이후 data도 중요하다고 생각듬 4. BI-LSTM 사용 5. 데이터가 너무 없어 K-Fold 적용 6. Layer만 주구장창 쌓다가 AutoEncoder 활용 7. 데이터 Scaled 적용 8. Loss Function Custom 9. 1차 마무리 - 여기 사이에는 BERT가 포함되어있다. (Google Source를 다 까봤는데, 이건 언제 또 정리할까...) - 10. Attention 적용 => Dual-Stage Attention RNN (DA-RNN) => Luong Attention (Dot-Product Attention) => Bahdanau Attention => Attention은 Ti.. 2021. 4. 12.
LSTM으로 수요 예측하기 - 4장 (BI-LSTM 사용) 항상 업무에 시달리느냐고, 블로그를 쓸때 몰아쓰는 경향이 있는 것 같다...ㅋㅋ 지금도 바다나우 어텐션 안되서 이것저것 바꿔돌려가면서, 기다리는 동안에 블로그를 써본다. 1. 시간별로 데이터 전처리 / Not Scaled 2. 일반 lstm 3레이어 정도(?) 3. 이후 data도 중요하다고 생각듬 4. BI-LSTM 사용 5. 데이터가 너무 없어 K-Fold 적용 6. Layer만 주구장창 쌓다가 AutoEncoder 활용 7. 데이터 Scaled 적용 8. Loss Function Custom 9. 1차 마무리 - 여기 사이에는 BERT가 포함되어있다. (Google Source를 다 까봤는데, 이건 언제 또 정리할까...) - 10. Attention 적용 => Dual-Stage Attention.. 2021. 4. 7.
LSTM으로 수요 예측하기 - 3장 (폐기된 모델...) 내 생각대로 구현하고, 실 데이터로 증명할뿐. 만약 그 증명이 틀린게 있다면 거침없이 댓글을 달아주기 바란다. 1. 시간별로 데이터 전처리 / Not Scaled 2. 일반 lstm 3레이어 정도(?) 3. 이전 hidden data도 중요하다고 생각듬 4. BI-LSTM 사용 5. 데이터가 너무 없어 K-Fold 적용 6. Layer만 주구장창 쌓다가 AutoEncoder 활용 7. 데이터 Scaled 적용 8. Loss Function Custom 9. 1차 마무리 - 여기 사이에는 BERT가 포함되어있다. (Google Source를 다 까봤는데, 이건 언제 또 정리할까...) - 10. Attention 적용 => Dual-Stage Attention RNN (DA-RNN) => Luong Att.. 2021. 4. 7.
LSTM으로 수요 예측하기 - 2장 (데이터 전처리) 내 생각대로 구현하고, 실 데이터로 증명할뿐. 만약 그 증명이 틀린게 있다면 거침없이 댓글을 달아주기 바란다. 모델을 짜면서 전부 형상관리를 했으면 좋았으련만, 앞에서 말했다시피, 전회사에서 퇴사하기 전에 이미 현재 회사 일을 하고있을정도로 사안이 급박해서, 폐기되는 모델은 조금만 저장해놨다가 다 없애버리는바람에 최초 모델들은 남아있지 않다는게 너무 아쉽다. 작업 순서상으로 보면, (목차가 되겠다) 1. 시간별로 데이터 전처리 / Not Scaled 2. 일반 lstm 3레이어 정도(?) 3. 이전 hidden data도 중요하다고 생각듬 4. BI-LSTM 사용 5. 데이터가 너무 없어 K-Fold 적용 6. Layer만 주구장창 쌓다가 AutoEncoder 활용 7. 데이터 Scaled 적용 8. L.. 2021. 3. 22.
728x90