논문 리뷰/Computer Vision6 3D-CVF 요약 3D-CVF3D-CVF: Generating Joint Camera and LiDAR Features Using Cross-View Spatial Feature Fusion for 3D Object DetectionECCV20노란형광펜1. Introduction라이다 데이터는 멀어질수록 sparse해진다는 단점이 있어 이를 이미지 데이터로 보완 해 줄 수 있다.그러나 카메라 이미지에서 얻은 feature와 lidar에서 얻은 feature는 서로 다른 시점(camera-view vs 3d world view)를 가지고 있으므로, 둘의 feature를 fusion하는것은 쉽지않다.본 논문은 두 feature를 적절하게 fuse하는 방법을 소개한다.2. Contributions이미지를 lidar bev 차원.. 논문 리뷰/Computer Vision 2022. 2. 25. PointPillars 요약 PointPillars: Fast Encoders for Object Detection from Point Clouds CVPR 19 keyword: LiDAR-only, pillars-based, one-stage, 0. comment 굉장히 빠름. 1. Intro VoxelNet은 3d conv를 사용하기때문에 inference time이 좋지 않았다. 이를 sparse로 해결한 SECOND가 있지만 3D conv는 여전히 bottleneck이 된다. PointPillars는 오직 2D conv만 사용하여서 이를 해결 하고자 한다. Pillars의 feature를 훈련하는 encoder를 통해 3d detection을 수행한다. 이것의 장점으로 다음이 있다. fixed encoder가 아닌 learn.. 논문 리뷰/Computer Vision 2022. 2. 22. SASA 요약 SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object Detectio AAAI2022 keyword: LiDAR-only, point based 0. Comment rgb 이미지에서 가져온 정보를 고려해서 sampling하는 방법? sampling 이후에는 Set Abstraction 적용. 1. Introduction 기존 point based 3d detection에서 많이 사용된 Set Abstraction(SA)의 문제점을 지적하였음. 현재 SA에서 key point를 smapling하는 방법은 FPS로, 전체 scene을 잘 표현하도록 서로 거리가 먼 point들을 골랐음. 하지만, 이렇게 되면 object detection에 .. 논문 리뷰/Computer Vision 2022. 2. 22. SECOND 요약 SECOND: Sparsely Embedded Convolutional Detection keword: Voxel-based, Lidar only, one-stage 1. Introduction VoxelNet의 Convolutional layer는 sparse한 tensor에서 이루어지므로, 속도가 느리다는 단점이 있다. SECOND에서는 이를 sparse conv를 통해 해결한다. 2. Contribution i. sparse conv를 lidar-based 객체 탐지에 적용 ii. sparse conv를 구현하는 효율적인 방법 제시 iii. novel angle loss regression iiii. novel data augmentation 3. SECOND architecture VFE까지는 V.. 논문 리뷰/Computer Vision 2022. 2. 20. VoxelNet 요약 VoxelNet: End-to-End Learning for Point Cloud Based 3D Object Detection CVPR 2018 keyword: LiDAR only, Voxel-based, machine-learned feature, 2-stage, end-to-end. 1. Introduction 이전 연구에서 hand-crafted feature를 사용하여 encode하는 시도들이 많았다. 하지만 hand-crafted feature는 엔지니어의 고도한 effort가 들어가고, 3D 정보를 잘 활용하지 못하므로 information bottleneck이 된다. 2D image data에서 machine learned feature가 이루어낸 성과를 생각해 보라! (3D에서도 mach.. 논문 리뷰/Computer Vision 2022. 2. 19. 3D-CVF: Generating Joint Camera and LiDAR Features Using Cross-View Spatial FeatureFusion for 3D Object Detection 3D-CVF: Generating Joint Camera and LiDAR Features Using Cross-View Spatial FeatureFusion for 3D Object Detection - ECCV2020 https://arxiv.org/abs/2004.12636 0. 요약 Lidar pipeline 라이다 데이터를 voxelization 한다. 이를 VoxelNet을 통해 encode, 6개의 sparse conv layer을 통해 최종적으로 BEV domain에서 128 channel의 feature를 얻음. Camera pipeline 라이다 파이프라인과 병렬로 작동. 사전에 훈련된 ResNet-18과 FPN을 통해 256 channel의 feature를 얻음. Cross-View.. 논문 리뷰/Computer Vision 2022. 1. 22. 이전 1 다음