본문 바로가기

Project 🖥

project 07/19

데이터 불균형

- Class-balanced Loss Based on Effective Number of Samples : re-weighting 목적함수에 가중치를 다르게 두는 방법

effective number 제안 : 단순히 데이터의 개수가 아니라 데이터들로 부터 얻을 수 있는 정보의 총량을 의미함.데이터 1개가 추가되어도 어떤 데이터이냐를 파악해야함. 기존에 가지고 있는 데이터들과 유사한 데이터 1개가 추가된다면 큰 의미가 없지만, 가지고 있는 데이터들과 전혀 다른 데이터가 추가되면 꽤 정보를 가지고 있는 데이터가 추가되는 것임.

 

- M2m: Imbalanced Classification via Major-to-minor Translation : generation 기반의 re-sampling기법이다.majority 클래스의 데이터에서 minority 클래스로 translation 시키는 것임. adversarial attack이라는 개념을 알아야함.a라는 데이터에 노이즈를 추가해서 b라는 데이터를 만드는 데, a와 b는 사람이 보기에는 동일한 데이터이다. 이 노이즈는 설계된 노이즈로 랜덤한 값을 주는 것이 아니라 우리가 원하는 클래스로 인식할 수 있도록 조정된 값이다.네트워크가 인식하는 것을 방해하는 행위라하여 adversarial attack이라고 한다.

 

- Decoupling Representation and Classifier for Long-Tailed Recognition : classifier re-trainingfeature extractor와 classifier가 분리되어 있다면 처음에는 end-to-end로 학습시키고 두번째에 feature extractor를 고정시키고 classifier만 재학습 시키는 것이다. 이것은 classifier에 의해서 decision boundary가 달라지기 때문에 효과적인 역할을 했다고 보고 있다.

 

https://blog.mathpresso.com/%EB%8D%B0%EC%9D%B4%ED%84%B0-%EB%B6%88%EA%B7%A0%ED%98%95%EC%97%90-%EB%8C%80%EC%9D%91%ED%95%98%EA%B8%B0-2-83173db9d45a

 

데이터 불균형에 대응하기 — 2

데이터 불균형에 관한 세 가지 연구

blog.mathpresso.com

 

'Project 🖥' 카테고리의 다른 글

Naver AI rush 2022 회고  (0) 2022.08.23
project 07/14  (0) 2022.07.14