摘要YOLO(You Only Look Once)作为目标检测领域最具影响力的算法之一,凭借其端到端的单阶段检测架构,在实时性和精度之间取得了卓越平衡。本文面向具备基本深度学习知识但缺乏YOLO实战经验的开发者,从算法演进脉络、核心原理出发,逐步构建完整的训练、评估、推理与部署流程。文章提供可直接运行的完整代码,涵盖数据集准备、模型训练、性能评估、模型导出与ONNX部署全链路,并针对常见问题给出系统性解决方案。全文约4500字,所有代码经严格测试,确保零错误可复现。核心原理1. 单阶段检测范式YOLO将目标检测视为回归问题,直接预测边界框坐标与类别概率。相比Faster R-CNN等两阶段方法,YOLO省去了区域提议网络(RPN),实现端到端一次推理。输入图像被划分为S×S网格,每个网格负责预测B个边界框及C个类别概率。2. 锚框机制YOLOv8采用自适应锚框,通过K-means聚类训练数据中的真实框尺寸,生成预设锚点。每个网格预测的边界框参数为(tx, ty, tw, th),通过sigmoid和指数函数映射为相对于锚框的偏移量。3. 损失函数演进YOLOv8使用CIoU损失替代传统IoU损失,同时考虑重叠面积、中心点距离和宽高比三个几何因素。分类损失采用BCE Loss,目标置信度损失结合Focal Loss思想,解决正负样本不平衡问题。4. 特征金字塔网络通过P