본문 바로가기
728x90
반응형
SMALL

Visual Intelligence/Object Detection13

[Object Detection] 안드로이드 TensorFlow Lite를 사용하여 커스텀 객체 탐지 모델 빌드 및 배포 (3) 탐지 프로그램에 피드 이미지 다음 코드를 fun runObjectDetection(bitmap:Bitmap)에 추가한다. 이렇게 하면 이미지가 탐지 프로그램에 전달된다. // Step 3: feed given image to the model and print the detection result val results = detector.detect(image) 완료되면 탐지기는 Detection 목록을 반환하며, 각 목록에는 모델이 이미지에서 발견한 객체에 대한 정보가 포함된다. 각 객체에 대한 설명은 다음과 같다. boundingBox : 이미지 내에서 객체의 존재와 위치를 선언하는 직사각형 categories : 객체의 종류 및 탐지 결과에 대한 모델의 신뢰도이다. 이 모델은 여러 카테고리를 반환하.. 2023. 6. 16.
[Object Detection] 안드로이드 TensorFlow Lite를 사용하여 커스텀 객체 탐지 모델 빌드 및 배포 (2) 사전 학습된 TFLite 객체 탐지 모델 TensorFlow Hub에는 사용할 수 있는 몇 가지 객체 탐지 모델 있다. COCO 2017 데이터 세트에서 학습되고 TFLite에 최적화되고 모바일 CPU, GPU의 성능에 맞게 설계된 EfficientDet-Lite 객체 탐지 모델을 다운로드한다. TFLite 작업 라이브러리를 사용하여 선행 학습된 TFLite 모델을 시작 앱에 통합한다. TFLite 작업 라이브러리를 사용하면 모바일에 최적화된 머신러닝 모델을 모바일 앱에 쉽게 통합할 수 있다. 객체 감지, 이미지 분류, 텍스트 분류를 비롯하여 널리 사용되는 머신러닝 사용 사례를 많이 지원합니다. 코드 몇 줄로 TFLite 모델을 로드하고 실행할 수 있다. 모델 추가 안드로이드 프로젝트에서 assets 폴.. 2023. 6. 16.
[Object Detection] 안드로이드 TensorFlow Lite를 사용하여 커스텀 객체 탐지 모델 빌드 및 배포 (1) TensorFlow Lite TensorFlow는 자동차, 오렌지와 같은 일반적인 객체를 감지할 수 있는 선행 학습된 모바일 최적화 모델을 제공한다. 단 몇 줄의 코드로 모바일 앱에 선행 학습된 모델을 통합할 수 있다. 하지만 더 뚜렷하고 이례적인 카테고리의 객체를 감지해야 하거나 필요할 수 있다. 자체 학습 이미지를 수집한 다음 자체 객체 감지 모델을 학습시키고 배포해야 한다. TensorFlow Lite는 Android 및 iOS 휴대기기를 비롯한 에지 기기에서 머신러닝 모델을 실행하도록 최적화된 크로스 플랫폼 머신러닝 라이브러리이다. TensorFlow Lite는 ML Kit에서 머신러닝 모델을 실행하는 데 사용되는 핵심 엔진이다. TensorFlow Lite 생태계에는 휴대기기에서 머신러닝 모델을.. 2023. 6. 16.
[Object Detection] YOLOv8 커스텀 데이터 학습 Detection Models YOLOv8는 YOLO 실시간 물체 감지 시리즈의 최신 버전으로 정확도와 속도 측면에서 최첨단 성능을 제공한다. 이전 YOLO 버전의 발전을 기반으로 구축된 YOLOv8은 다양한 어플리케이션에서 다양한 객체 감지 작업에 이상적인 선택이 되도록 새로운 기능과 최적화를 도입했다. Model size (pixels) mAPval 50-95 Speed CPU ONNX (ms) Speed A100 TensorRT (ms) params (M) FLOPs (B) YOLOv8n 640 37.3 80.4 0.99 3.2 8.7 YOLOv8s 640 44.9 128.4 1.20 11.2 28.6 YOLOv8m 640 50.2 234.7 1.83 25.9 78.9 YOLOv8l 640 52.9.. 2023. 6. 15.
[Object Detection] YOLOv5 성능 높이기 YOLOv5 성능 높이기 Background image 넣기 : 배경 이미지는 탐지할 객체가 없는 데이터들을 의미한다. 배경 이미지를 넣어주면 False Positives (FP)가 줄어드는 효과를 볼 수 있다. 전체 학습 데이터 셋에서 배경 이미지의 비율을 0 ~ 10% 정도를 추천한다. COCO 데이터 셋은 1000개의 배경 이미지를 가지고 있다 (학습 데이터 셋의 1%) Pretrained weights 사용 : 작거나 중간 정도 사이즈의 데이터셋에 추천한다 (train.py시 --weights 인자값 넣기). Epoch : epoch는 300부터 시작해서 overfit이 발생하면 줄이고 발생하지 않으면 600 또는 1200으로 점점 증가시킨다. 이미지 사이즈를 640으로 설정하기 : COCO 데이.. 2023. 6. 15.
[Object Detection] YOLOv5 커스텀 데이터 학습 YOLOv5 커스텀 데이터 학습 yolov5에서 git clone하거나 zip 파일로 다운한다. 데이터셋 구조 데이터는 아래와 같이 이미지 파일이 있는 이미지와 바운딩 박스 정보가 있는 txt 라벨 폴더로 구성하고 각 폴더에 부여하고자 하는 정답 폴더로 구분한다. dataset/ ├── images/ │ ├── class1/ │ │ ├── img1.jpg │ │ ├── img2.jpg │ │ ├── ... │ ├── class2/ │ │ ├── img1.jpg │ │ ├── img2.jpg │ │ ├── ... │ ├── class3/ │ │ ├── img1.jpg │ │ ├── img2.jpg │ │ ├── ... ├── labels/ │ ├── class1/ │ │ ├── img1.txt │ │ ├─.. 2023. 6. 5.
[Object Detection] YOLOv8 YOLOv8 실시간 객체 감지 및 이미지 세분화 모델의 최신 버전인 Ultralytics YOLOv8은 딥러닝 및 컴퓨터 비전의 최첨단 발전을 기반으로 구축되어 속도와 정확성 측면에서 비교할 수 없는 성능을 제공한다. 간소화된 디자인 덕분에 다양한 애플리케이션에 적합하고 에지 장치에서 클라우드 API에 이르기까지 다양한 하드웨어 플랫폼에 쉽게 적응할 수 있다. Ultralytics YOLOv8은 이전 YOLO 버전의 성공을 기반으로 하고 성능과 유연성을 더욱 향상시키기 위해 새로운 기능과 개선 사항을 도입한 최첨단 SOTA (state-of-the-art) 모델이다. YOLOv8은 빠르고 정확하며 사용하기 쉽도록 설계되어 광범위한 객체 감지 및 추적, 인스턴스 세분화, 이미지 분류 및 포즈 추정 작업에 .. 2023. 6. 4.
[Object Detection] CVAT (COMPUTER VISION ANNOTATION TOOL) CVAT (COMPUTER VISION ANNOTATION TOOL) CVAT는 캘리포니아 어바인 툴의 Video Annotation Tool 버전을 완전히 재설계하고 재구현한 버전이다. 컴퓨터 비전을 위한 무료 온라인 대화형 비디오 및 이미지 주석 도구이다. 속성이 다른 수백만 개의 객체에 주석을 달기 위해 사용하고 있다. 많은 UI 및 UX 의사 결정은 전문 데이터 주석 팀의 피드백을 기반으로 한다. https://www.cvat.ai/ CVAT Powerfull and efficient open source data annotation platform for computer vision datasets www.cvat.ai 2023. 6. 4.
[Object Detection] YOLOv5 YOLOv5 YOLO는 'You only look once'의 약자로 이미지를 그리드 시스템으로 분할하는 객체 감지 알고리즘이다. 그리드의 각 셀은 자체 내에서 개체를 감지하는 역할을 한다. YOLO는 속도와 정확성으로 인해 가장 유명한 객체 감지 알고리즘 중 하나이다. YOLOv5🚀COCO 데이터 세트에서 사전 훈련된 객체 감지 아키텍처 및 모델이며, 수천 시간의 연구 및 개발을 통해 학습한 교훈과 모범 사례를 통합하여 미래 비전 AI 방법에 대한 Ultralytics 오픈 소스 연구가 있다. YOLOv4 출시 직후 Glenn Jocher는 Pytorch 프레임워크를 사용하여 YOLOv5를 도입했다. 오픈 소스 코드는 GitHub 에서 사용할 수 있다. YOLOv5 설치 구글 코랩에서 진행한다. %cd.. 2022. 9. 4.
[Object Detection] YOLO Inference YOLO Inference 입력 이미지를 7 x 7 그리드 셀로 나누며, 각각의 그리드 셀에 들어있는 2개의 bounding box 정보와 물체의 클래스 정보가 들어있는 7x7x (5+5+20) 데이터가 YOLO 예측 결과이다. 1st bounding box of a grid cell 2nd bounding box of a grid cell Class score class-specific confidence score 계산 YOLO에서는 동일한 객체에 대하여 많은 bounding box가 잡힐 수 있다. 98개 bbox 각각이 가지고 있는 class specific confidence score에 대해서 각 20개의 클래스에 대해 신뢰도가 가장 높은 bbox만 남기고 나머지 bbox를 없애는 NMS (n.. 2022. 9. 3.
728x90
반응형
LIST