Catastrophic Forgetting
- English ๐บ๐ธ
- ํ๊ตญ์ด ๐ฐ๐ท
Catastrophic forgetting, also known as catastrophic interference, is a phenomenon that occurs in machine learning when a model forgets previously learned information as it learns new information. It can also be described as a failure of stability, in which new experience overwrites previous experience.
Catastrophic forgetting can occur when:
- A neural network or machine learning model "forgets" or dramatically reduces its performance on previously learned tasks after learning a new task
- An artificial neural network abruptly and drastically forgets previously learned information upon learning new information
- A network decides to work with data that's too far removed from its basic training
- A model concentrates only on task B and takes steps in the direction of its gradient
- The ability to discriminate between data from different tasks worsens
Current approaches that deal with forgetting ignore the problem of catastrophic remembering.
์น๋ช ์ ๊ฐ์ญ์ด๋ผ๊ณ ๋ ํ๋ ์น๋ช ์ ๋ง๊ฐ์ ๋จธ์ ๋ฌ๋์์ ๋ชจ๋ธ์ด ์๋ก์ด ์ ๋ณด๋ฅผ ํ์ตํ ๋ ์ด์ ์ ํ์ตํ ์ ๋ณด๋ฅผ ์์ด๋ฒ๋ฆฌ๋ ํ์์ด๋ค. ์๋ก์ด ๊ฒฝํ์ด ์ด์ ๊ฒฝํ์ ๋ฎ์ด์ฐ๋ ์์ ์ฑ ์คํจ๋ผ๊ณ ๋ ํ ์ ์๋ค.
์น๋ช ์ ์ธ ๋ง๊ฐ์ ๋ค์๊ณผ ๊ฐ์ ๊ฒฝ์ฐ์ ๋ฐ์ํ ์ ์๋ค:
- ์ ๊ฒฝ๋ง ๋๋ ๋จธ์ ๋ฌ๋ ๋ชจ๋ธ์ด ์๋ก์ด ์์ ์ ํ์ตํ ํ ์ด์ ์ ํ์ตํ ์์ ์ ๋ํ ์ฑ๋ฅ์ '์์ด๋ฒ๋ฆฌ๊ฑฐ๋' ๊ธ๊ฒฉํ ๊ฐ์ํ๋ ๊ฒฝ์ฐ
- ์ธ๊ณต ์ ๊ฒฝ๋ง์ด ์๋ก์ด ์ ๋ณด๋ฅผ ํ์ตํ ๋ ์ด์ ์ ํ์ตํ ์ ๋ณด๋ฅผ ๊ฐ์์ค๋ฝ๊ณ ๊ธ๊ฒฉํ๊ฒ ์์ด๋ฒ๋ฆฌ๋ ๊ฒฝ์ฐ
- ๋คํธ์ํฌ๊ฐ ๊ธฐ๋ณธ ํ์ต์์ ๋๋ฌด ๋ฉ๋ฆฌ ๋จ์ด์ง ๋ฐ์ดํฐ๋ก ์์ ํ๊ธฐ๋ก ๊ฒฐ์ ํ๋ ๊ฒฝ์ฐ
- ๋ชจ๋ธ์ด ์์ B์๋ง ์ง์คํ๊ณ ๊ทธ ๊ธฐ์ธ๊ธฐ ๋ฐฉํฅ์ผ๋ก ๋จ๊ณ๋ฅผ ๋ฐ๋ ๊ฒฝ์ฐ
- ๋ค๋ฅธ ์์ ์ ๋ฐ์ดํฐ๋ฅผ ๊ตฌ๋ณํ๋ ๋ฅ๋ ฅ์ด ์ ํ๋๋ ๊ฒฝ์ฐ
๋ง๊ฐ์ ๋์ฒํ๋ ํ์ฌ์ ์ ๊ทผ ๋ฐฉ์์ ์น๋ช ์ ๊ธฐ์ต ๋ฌธ์ ๋ฅผ ๋ฌด์ํ๋ค.