๐ง๐ป๐ซ Ideas(13)
-
[Paper Review] Less Is More - Fast Multivariate Time Series Forecasting with Light Sampling-oriented MLP Structures (2022)
Introduction ๋ค๋ณ๋ ์๊ณ์ด์ ์ฌ๋ฌ ์์ธ, ๋ณ์(variable)์ ๋ณ๋์ ํฌํจํ๋ ์๊ณ์ด์ ์๋ฏธํ๋ค. ์ด๋ฌํ ๋ค๋ณ๋ ์๊ณ์ด์ ์ค์ํ์ ์ฌ๋ฌ ๋๋ฉ์ธ(์์ฉ๋ถ์ผ)์ ์๊ณ์ด ๋ถ์์ ์ ์ฉํ๋ ๋ฐ ์์ด์ ๋งค์ฐ ํต์ฌ์ ์ธ task๊ฐ ๋์ด์๋ค. ๋ค๋ณ๋ ์๊ณ์ด์ ํต์ฌ์ ์๊ณ์ด ๋ณ๋์ด ๊ณผ๊ฑฐ ๊ฐ์ ์ํฅ์ ๋ฐ๋ ๊ฒ๋ฟ๋ง ์๋๋ผ ๋ณ์๋ค ์ฌ์ด์ ์ํธ์์ฉ์๋ ์์กด(dependent)ํ๋ค๋ ๊ฒ์ด๋ค. ๋ฐ๋ผ์ ์ด๋ฅผ ๋ชจ๋ธ๋งํ๋ ๊ฒ์ ๊ทธ๋ฌํ ๋ ์ํฅ์ ๋ฐํ๋ ๊ฒ์ด ์ค์ํ๋ฐ, ๊ตฌ์ฒด์ ์ผ๋ก 1) ํ๋์ ์๊ณ์ด์ด ๊ฐ์ง๋ localํ ํจํด๊ณผ globalํ ๋ณ๋์ ํฌ์ฐฉํ๋ ๊ฒ๊ณผ, 2) ์ฌ๋ฌ ๋ณ์ ์ฌ์ด์ ์ฐ๊ด๊ด๊ณ(inter-dependency)๋ฅผ ํฌ์ฐฉํ๋ ๊ฒ์ด ํต์ฌ์ด๋ค. ํํธ Deepํ neural network๋ฅผ ๊ฐ์ง ๋ฅ๋ฌ๋ ๋ชจ๋ธ์ ๋งค์ฐ ๋ณต์ก..
2023.04.28 -
RNN, LSTM(Long Short-Term Memory)
1. RNN(Recurrent Neural Network) RNN(Recurrent Neural Network)์ ์์๋ฅผ ๊ฐ์ง ๋ฐ์ดํฐ๋ฅผ ์ฒ๋ฆฌํ๋ ๋ฐ ์ฐ์ด๋ ๋ฅ๋ฌ๋ ๋ชจ๋ธ์ด๋ค. ์ด ๋ชจ๋ธ์ ์ํคํ ์ฒ๋ ์ด๋ฆ์์ ์ ์ ์๋ฏ์ด recurrentํ(์ฌํํ๋) ๋ฐฉ์์ผ๋ก ์ธํ์ ์ฒ๋ฆฌํ๋๋ก ๋์์ธ๋์๋ค. ์ ๊ทธ๋ฆผ์์์ฒ๋ผ ์ด ๋ชจ๋ธ์ ์ธํ์ ์์๋๋ก ๋ฐ์ ์ฒ๋ฆฌํ๋๋ฐ, ๊ทธ ๊ณผ์ ์์ ์๋์ธต์ธ h์ ๊ฐ์ค์น๋ฅผ ๋ถ์ฌํ์ฌ ๋ค์ ์์๋ก ๋๊ฒจ์ค๋ค๋ ๊ฒ์ด ํน์ง์ด๋ค. ์ฆ, ๊ฒฐ๊ณผ๋ฅผ ์ฐ์ถํ๋ ๋ฐ ์์ด์ ์ธํ์ ์ฐ์ฐ์ ๋ณด๋ฅผ ๊ณ์ํด์ ์ ๋ฌํ๋ฉฐ ์ ๋ฐ์ดํธ๋ฅผ ํด ๋๊ฐ๋ ๊ฒ์ด๋ค. ์ด๋ฌํ ํน์ง์ ์์์ ๋ฐ๋ผ ์๋ฏธ๋ฅผ ๊ฐ์ง๋ ์์ฐ์ด๋ ์๊ณ์ด ๋ฐ์ดํฐ์ ์ฒ๋ฆฌ์ ์ ํฉํ๊ธฐ ๋๋ฌธ์ RNN์ ๊ทธ ์์ ๋ค์ ์ฒ๋ฆฌํ๋ ๋ฅ๋ฌ๋ ๋ชจ๋ธ๋ก ๋๋ฆฌ ์ด์ฉ๋์๋ค. 1-1) RNN์ ์น๋ช ์ ์ธ ..
2023.04.06 -
[Paper Review] Are Transformers Effective for Time Series Forecasting?(2022)
*์์ํ๊ธฐ์ ์์, ๊ธฐ๋ณธ ํธ๋์คํฌ๋จธ์ ๊ตฌ์กฐ์ ๊ทธ ๋ณํ๋ค์ ๋ํ ๋ฐฐ๊ฒฝ์ง์์ด ์๋ ๋ถ๋ค์ ์ด ๋ ผ๋ฌธ์ ์คํ๋ง ์ดํด๋ณด์ ๋ ๋ฌด๋ฐฉํฉ๋๋ค. 1. Introduction ์๊ณ์ด ์์ธก(Time Series Forecasting)์ ์ค์ํ์ ๋ค์ํ ๋๋ฉ์ธ์์ ๋๋ฆฌ ์์ฉ๋๊ณ ์๋ค. ์ง๋ ์ธ์๋์ ์ด๋ฌํ TSF์ ์์ด์ ARIMA์ ๊ฐ์ ์ ํต์ ์ธ ํต๊ณ ๋ชจํ, GBRT์ ๊ฐ์ ๋จธ์ ๋ฌ๋, RNN ๊ธฐ๋ฐ/CNN ๊ธฐ๋ฐ ์๊ณ ๋ฆฌ์ฆ๊ณผ ๊ฐ์ ๋ฅ๋ฌ๋ ์๊ณ ๋ฆฌ์ฆ์ด ์ ์ฉ๋์ด ์๋ค. ๊ทธ๋ฐ๋ฐ ๋น๊ต์ ์ต๊ทผ์ ๋ฑ์ฅํ ๋ฅ๋ฌ๋ ๋ชจ๋ธ์ธ "ํธ๋์คํฌ๋จธ"๋ sequential task์์ ๋งค์ฐ ํ๋ฅญํ ์ฑ๋ฅ์ ๋ฐํ์ผ๋ก NLP, CV ๋ถ์ผ์์ ๋ค๋ฅธ ์๊ณ ๋ฆฌ์ฆ๋ค์ ์๋ํ๊ณ ์๋๋ฐ, ์ด์ ๋ฐ๋ผ ๊ฐ์ sequential task์ธ ์๊ณ์ด ๋ถ์ ๋ถ์ผ์๋ ์ด๋ฌํ ํธ๋์คํฌ๋จธ๋ฅผ ์ ์ฉ..
2023.04.02 -
[Paper Review] Autoformer: Decomposition Transformers with Auto-Correlation for Long-Term Series Forecasting (2021)
1. Introduction ์๊ณ์ด ๋ถ์, ํนํ ์์ธก ๋ฌธ์ (Forecasting)๋ ์ ๋์ง ์๋น, ํธ๋ํฝ, ๊ฒฝ์ ์งํ, ๋ ์จ, ์ง๋ณ ๋ฑ ๋ค์ํ ๋๋ฉ์ธ์์ ํ์ฉ๋๊ณ ์๋ค. ์ค์ํ์ ์ฌ๋ฌ ์์ฉ๋ถ์ผ์ ์์ด์ ๋๋ก๋ ์๊ณ์ด ์์ธก์ ๋ฒ์๋ฅผ ๋ ํฌ๊ฒ, ๋ฉ๋ฆฌ ํ๋ํ ํ์์ฑ์ด ์๋๋ฐ, ์ด๋ ๊ฒฐ๊ตญ ์ฅ๊ธฐ ์๊ณ์ด์ ๋ค๋ฃจ๋ ๋ฌธ์ ์ ์ง๊ฒฐ๋ ์ ๋ฐ์ ์๋ค. ์ด๋ฌํ ์ํฉ์์ "ํธ๋์คํฌ๋จธ"๋ long-range dependence"๋ฌธ์ , ์ฆ, ์ฅ๊ธฐ ์์กด์ฑ ๋ฌธ์ ๋ฅผ self-attention ๋งค์ปค๋์ฆ์ ํตํด ํด๊ฒฐํ์ฌ ์ด๋ฌํ ์๊ตฌ๋ฅผ ์ถฉ์กฑํ์๊ณ , ์ค์ ๋ก ๋ง์ ํธ๋์คํฌ๋จธ ๊ธฐ๋ฐ ๋ชจ๋ธ๋ค์ด ์ฌ๋ฌ ์ฐ๊ตฌ์์ ํฐ ์ง์ ์ ์ด๋ฃจ์ด๋๋ค. ๊ทธ๋ฐ๋ฐ, ๊ทธ๋ฌํ ์ฐ๊ตฌ์ฑ๊ณผ์๋ ๋ถ๊ตฌํ๊ณ long-term ๊ธฐ๋ฐ์ ์์ธก ๋ฌธ์ ๋ ์ฌ์ ํ ๋งค์ฐ ์ด๋ ค์ด ์ผ๋ก ๋จ์์๋ค. ๋ณธ ๋ ผ๋ฌธ์์..
2023.03.27 -
[Paper Review] Transformers in Time Series: A Survey (2022)
์ด ๋ ผ๋ฌธ์ ์๊ณ์ด ๋ถ์์ ํธ๋์คํฌ๋จธ๋ฅผ ์ ์ฉํด์จ ์ฐ๊ตฌ๋ค์ ์ ๋ฆฌํ ๋ ผ๋ฌธ์ด๋ค. ์๊ณ์ด ๋ถ์์ NLP์ ํจ๊ป sequential task์ ๋ํ์ ์ธ ๋ถ์ผ ์ค ํ๋๋ก, ๊ธ์ต, ์ ์กฐ์ , ๋ง์ผํ ๋ฑ ๋ค์ํ ๋น์ฆ๋์ค ๋๋ฉ์ธ์ ์์ฉ๋๊ณ ์๋ ๋ถ์ ๋ฐฉ๋ฒ๋ก ์ด๋ค. 2017๋ ํธ๋์คํฌ๋จธ์ ๋ฑ์ฅ ์ดํ, NLP ๋ถ์ผ์์ ํธ๋์คํฌ๋จธ ์๊ณ ๋ฆฌ์ฆ์ด ํฐ ์ฑ๊ณต์ ์ด๋ค๋๊ฐ๋ฉด์ ๊ฐ์ sequential task์ธ ์๊ณ์ด ๋ถ์์์๋ ์ด๋ฅผ ์ ์ฉํ๋ ค๋ ์์ง์์ด ์ผ์ด๋ฌ๋ค. ํนํ ํธ๋์คํฌ๋จธ๋ ์ฅ๊ธฐ ์ข ์์ฑ(long dependece)๋ฌธ์ ๋ฅผ ํด๊ฒฐํ์ฌ ๊ธด sequence์์ ์ข์ ์ฑ๋ฅ์ ๋ณด์ธ๋ค๋ ๊ฒ์ด ์ ์ฆ๋์๊ธฐ ๋๋ฌธ์, ์๊ณ์ด ๋ถ์์์๋ ์ฅ๊ธฐ ์๊ณ์ด์ ํจ๊ณผ์ ์ผ๋ก ํ์ตํ ์ ์๋ ๋์์ผ๋ก ์ฃผ๋ชฉ์ ๋ฐ์๋ค. ๊ทธ๋ฌ๋ ๊ธฐ๋ณธ์ ์ธ ํธ๋์คํฌ๋จธ ์ญ์ ์ฌ๋ฌ๊ฐ์ง ํ๊ณ์ ์ด ์กด์ฌํ..
2023.03.20 -
[Paper Review] Attention Is All You Need(2017) #Transformer
"Attention is all you need", ์ด ๋ ผ๋ฌธ์ ๊ธฐ์กด seq to seq ๋ชจ๋ธ์ ํ๊ณ์ ์ ๋ณด์ํ๊ณ ์ฑ๋ฅ์ ํฌ๊ฒ ๊ฐ์ ํ Transformer ๋ชจ๋ธ์ ๋ฑ์ฅ์ ์๋ฆฐ ๊ธฐ๋ ๋น์ ์ธ ๋ ผ๋ฌธ์ด๋ค. ํ์ฌ NLP์ ๊ฐ์ด seq to seq ํํ์ ๋ฐ์ดํฐ๋ฅผ ์ฒ๋ฆฌํ๋ ํ์คํฌ์์๋ ํธ๋์คํฌ๋จธ๊ฐ ์ฃผ๋ฅ๋ฅผ ์ฐจ์งํ๊ณ ์์ผ๋ฉฐ, ์๊ณ์ด ๋ถ์์์๋ ๊ทธ ํ์ฉ์ฑ์ ๋์ด๋ ค๋ ์ฐ๊ตฌ๊ฐ ํ๋ฐํ๊ฒ ์งํ๋๊ณ ์๋ค. ์ฆ, ์๋ก์ด ๋ ผ๋ฌธ์์ ์ ์๋๋ "State of the art"(sota)๋ชจ๋ธ๋ค์ ๋๋ถ๋ถ์ด ์ด ํธ๋์คํฌ๋จธ์ ๋ฐํ์ ๋๊ณ ์๋ ๊ฒ์ด๋ค. ๋๋ฌธ์ ๊ฒฐ๊ตญ ์ด ๋ ผ๋ฌธ์์ ์ ์ํ Attention ์๊ณ ๋ฆฌ์ฆ๊ณผ ํธ๋์คํฌ๋จธ ๋ชจ๋ธ์ ์ ๋๋ก ์ดํดํ๋ ๊ฒ์ ์ต์ ํธ๋ ๋๋ฅผ ์ดํดํ๊ณ ๋ ๋์๊ฐ ์๋ก์ด ์ฐ๊ตฌ ๊ธฐํ๋ฅผ ํฌ์ฐฉํ๋ ๋ฐ ์์ด์ ๋งค์ฐ ์ค์ํ ์ฒซ ๊ฑธ์์ผ ..
2023.03.14