본문 바로가기

Paper Review3

Adapting and Evaluating Influence-Estimation Methods for Gradient-Boosted Decision Trees 리뷰 TracIn 방법론의 Boosting tree 버전 train data의 sample들 중 중요도(influence)를 각각 판별하는 방법 증강한 데이터의 각 샘플 중 주요 영향력을 미치는 샘플들을 선별하여 train data에 포함 시킨다. 1. Related Works 1-1. Influence Function 특정 training example을 drop하고 retraining (drop 하기 전과 후의 loss 값을 비교하여 판단하는 기법) 1-2. representer theorem ( = representer point method) training point의 influence 계산법 추후 작성 예정 1-3. TracIn Track Stochastic Gradient Descent 방법론. .. 2024. 4. 18.
(~ing) [NIPS 2022] Vision GNN: An Image is Worth Graph of Nodes 리뷰 Vision GNN: An Image is Worth Graph of Nodes (https://openreview.net/pdf?id=htM1WJZVB2I) 기존 ViT의 성능을 높이기 위한 실험 논문에 필요한 사전지식 정리: https://cheche-til.tistory.com/8 더보기 ※ 참고 https://do-my-best.tistory.com/entry/Graph-Neural-Network%EC%99%80-Vision-%EA%B4%80%EC%A0%90%EC%97%90%EC%84%9C%EC%9D%98-GNN Graph Neural Network와 Vision 관점에서의 GNN Why Graph? 관계, 상호작용 등 추상적인 개념을 시각화 하고 다루는데 적합하다 복잡한 문제를 간단한 표현으로 .. 2023. 1. 9.
Fully Convolutional Networks for Semantic Segmentation 리뷰 Semantic Segmentation의 시초라 불리는 논문 (2015 CVPR) Semantic Segmentation에 CNN model을 사용하여 성능을 높이는 방법 제시 논문 리뷰를 위한 간단한 사전 지식 : https://cheche-til.tistory.com/3 FCL(Fully Connected Layer)를 Conv. Later로 대체한 네트워크 구조 0. 왜 이러한 구조를 제시했을까? (↔ FC layer의 한계점) Conv. Layer는 위치 정보가 유지되지만, FC Layer는 위치정보가 사라진다. Segmenation은 각 픽셀에 대한 layer를 판단하기 때문에(classification), 이미지 내의 객체와 배경을 분할하기 위해서는 위치 정보가 중요하기 때문 FC Layer는.. 2023. 1. 3.