| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 생성형 AI
- C++ 기초
- 리눅스
- yolo11
- Python
- 프로그래밍
- 생성형AI
- 스마트팩토리
- github
- AI
- 비전AI
- 딥러닝 추론 최적화
- Windows
- 인공지능
- 파이썬
- tensorRT
- 오픈소스
- git
- 딥러닝
- onnx
- 산업적용
- 시스템관리
- 파이썬 클래스
- 머신러닝
- Vision AI
- stable diffusion
- YOLO
- comfyui
- 앱테크
- pytorch
Archives
- Today
- Total
너도 할 수 있는, 너도밤나무 코딩
YOLO 인공지능 버전별 진화 정리 본문
반응형
인공지능 컴퓨터 비전 분야에서 가장 많이 언급되는 키워드 중 하나가 바로 YOLO(You Only Look Once) 입니다. 2015년 처음 등장했을 때만 해도 “한 번만 본다”라는 파격적인 이름처럼, 이미지 속 객체를 빠르고 효율적으로 찾아내는 혁신적인 모델로 큰 주목을 받았습니다. 이후 매년 새로운 버전들이 발표되며 정확도와 속도는 물론, 경량화·실시간성·멀티태스킹까지 다양한 방향으로 발전해왔습니다.
이번 글에서는 YOLOv1부터 최신 YOLOv12까지, 각 버전이 어떤 배경에서 등장했고 어떤 기술적 진보를 이루었는지 버전별 특징과 차이점을 정리해보았습니다. 인공지능을 공부하는 학생이나 현업 개발자는 물론, 최신 동향을 따라가려는 분들께 도움이 되길 바랍니다.
1. YOLOv1 (2015)
- 제작자: Joseph Redmon 등 위키백과
- 출시 시기: 2015년
- 핵심 개념: 단일 신경망 한 번의 전방향 계산으로 객체 위치와 클래스 확률을 동시에 예측. 빠른 속도로 R-CNN 계열의 두 단계 인식 방식을 대체 위키백과viso.ai.
- 구조 특징: 24개의 컨볼루션 레이어 뒤에 2개의 fully connected 레이어. Leaky ReLU, Dropout 사용. 이미지 전체를 S×S 그리드로 나누어 각 칸이 B개의 바운딩 박스와 클래스 확률을 예측 viso.ai위키백과.
- 제약 사항: 작은 물체나 복수 객체에 약함, 손실함수의 균등 오류 처리로 인해 작은 오차도 큰 영향 viso.ai.
2. YOLOv2 (YOLO9000, 2016)
- 출시 시기: 2016년 arXivviso.ai
- 주요 개선점:
- 성능: PASCAL VOC 2007에서 76.8 mAP (67 FPS), COCO에서 78.6 mAP (40 FPS) 달성, 실시간 속도 및 높은 정확도 arXiv.
3. YOLOv3 (2018)
- 출시 시기: 2018년 arXivviso.ai
- 개선 내용:
- Darknet-53 백본 네트워크 (53-layer) 도입
- Anchor Box 개선 (크기/비율 다양화)
- 다중 스케일 예측 (feature pyramid-like) 및 객체성 점수 도입 V7 LabsarXivRoboflow Blog.
- 성능: 320×320 입력 기준, 타이탄 X에서 28.2 mAP를 22ms에 처리. RetinaNet 대비 3.8배 빠름 arXiv.
4. YOLOv4 (2020)
- 출시 시기: 2020년, Alexey Bochkovskiy 외 Roboflow Blogviso.aiMDPI
- 주요 특징:
- CSPDarknet53 구조, Mish 활성화 함수
- Bag of Freebies: 데이터 증강 및 학습 기법 최적화
- 효율적인 특성 통합 및 검증된 성능 향상 기술 Roboflow BlogV7 Labs.
5. YOLOv5 (~2021)
- 제작자: Ultralytics
- 특징:
- Python/PyTorch 기반, 사용자 친화적 인터페이스
- 다양한 크기(s/m/l) 모델 제공으로 속도와 정확도 조정 가능 Roboflow Blog.
- 비고: 공식 YOLO 시리즈는 아니지만, 널리 활용됨.
6. YOLOR, YOLOX 등 (2021~)
- YOLOR (2021): 다중 작업 학습 강조 (classification, detection, pose 등) .
- YOLOX (2021): Anchor-free 방식 재도입 .
7. YOLOv6, YOLOv7, DAMO-YOLO (2022)
- YOLOv6: Meituan이 발표, 효율적 모델 구조 (EfficientRep, Rep-PAN) 강조 viso.ai.
- YOLOv7: 작은 최적화지만 속도·정확도 모두 향상. Trainable bag-of-freebies 등 도입 viso.ai.
- DAMO-YOLO: Alibaba의 Neural Architecture Search 기반 모델 Yolovx.
8. YOLOv8 (2023)
- 출시 시기: 2023년 1월 10일, Ultralytics Ultralytics DocumentationMDPI.
- 업그레이드 요소:
- Anchor-free detection
- Mosaic data augmentation, C2f 모듈 등 구조적 개선
- 정확도와 속도 균형, 사용 편의성 향상 V7 LabsRoboflow Blog.
9. YOLOv9 ~ YOLOv12 (2024~2025)
- YOLOv9 (2024): Transformer 기반 특징 추출, mAP 상승 Roboflow Blogviso.ai.
- YOLOv10 (2024): Quantization-aware training, 엣지 AI 친화적 경량 모델. YOLOv10-S는 특정 비교 모델보다 1.8× 빠르고 파라미터/FLOPs는 절반 수준 Roboflow Blogviso.ai.
- YOLOv11 (2025): 분류, 인식, 키포인트, OBB 감지 등 멀티태스킹 가능. YOLOv11x 최고 모델은 COCO에서 54.7% mAP 달성 Roboflow Blog.
- YOLOv12 (2025): Attention 중심 설계, 실시간 객체 인식에 최적화. 낮은 지연 시간과 높은 mAP 성능 확보 Roboflow Blog.
- 전체 개요와 리뷰 논문: YOLOv1
v8 및 YOLO-NAS를 포괄하는 리뷰 arXiv. YOLOv1v10까지 기술적 고찰 포함한 리뷰 논문 arXiv.
정리 테이블
| 버전 | 출시년도 | 주요 개선사항 및 특징 |
| YOLOv1 | 2015 | 단일 스테이지 구조, 빠름 but 정확도 제한적 |
| YOLOv2 | 2016 | Anchor 도입, Batch Norm, 9000개 클래스 탐지 |
| YOLOv3 | 2018 | Darknet-53, 다중 스케일 처리, anchor 강화 |
| YOLOv4 | 2020 | CSPDarknet, Mish, bag of freebies 등 최적화 |
| YOLOv5 | ~2021 | PyTorch 기반, 사용성 높음, 다양한 모델 제공 |
| YOLOR / YOLOX | 2021 | 다중작업 학습, anchor-free 방식 등 |
| YOLOv6 | 2022 | 경량화 구조, 산업 적용성 강화 |
| YOLOv7 | 2022 | 소소한 구조 개선으로 성능 향상 |
| DAMO-YOLO | 2022 | Auto-architecture 탐색 모델 |
| YOLOv8 | 2023 | Anchor-free, 모듈 개선, 사용자 친화적 |
| YOLOv9 | 2024 | Transformer 도입, 정확도 향상 |
| YOLOv10 | 2024 | 엣지 AI 최적화, 경량화 · 고속화 |
| YOLOv11 | 2025 | 멀티태스킹(분류, 인식, 키포인트, OBB 등) |
| YOLOv12 | 2025 | Attention 기반, 낮은 지연 & 높은 mAP |
마무리 요약
- YOLO 시리즈의 핵심 강점: 뛰어난 속도 + 정확도, 실시간 객체 인식 가능, 다양한 하드웨어 환경 대응
- 학계 ↔ 산업 간 협업: 초창기 Joseph Redmon 이후 Ultralytics, Alibaba, Meituan 등 여러 주체가 이어받아 발전
- 적절한 버전 선택 기준:
- 실시간성 중심 → YOLOv4~v8
- 리소스 제한 환경 → YOLOv6, v10
- 최첨단 성능 & 멀티 태스크 → YOLOv11, v12
반응형
'인공지능(AI, Artificial Intelligence) > 비전 AI(Vision AI)' 카테고리의 다른 글
| 구글 이미지 생성 AI - 나노 바나나(nano-banana)란? (1) | 2025.09.10 |
|---|---|
| [YOLO] Python과 OpenCV를 활용한 실시간 객체 탐지 프로젝트 (0) | 2025.09.05 |
| ONNX Runtime Quantization 가이드: FP16, INT8 최적화로 추론 속도 끌어올리기 (5) | 2025.08.26 |
| ONNX Runtime GPU 성능 비교: CPU vs CUDA vs TensorRT, 무엇을 선택해야 할까? (3) | 2025.08.26 |
| [DatasetHelper] YOLO 학습용 데이터셋 준비와 증강을 자동화하는 나만의 도구 (0) | 2025.08.22 |