昨天深夜调试一个图像分类模型,明明在测试集上准确率97%,部署到树莓派上却连猫狗都分不清。盯着屏幕上荒谬的预测结果,我突然意识到——这才是大多数开发者第一次接触AI的真实场景。今天我们不谈高大上的理论,就聊聊怎么把一个想法变成能实际跑起来的AI应用。从“能跑”到“能用”的鸿沟很多教程教你在Jupyter里训练模型,输出个准确率就结束了。但真正的工程问题这时候才开始:你的模型要加载多久?内存占用多少?推理速度能不能实时?我见过太多项目卡在“实验室到产线”的过渡阶段。选型阶段最容易踩坑。别一上来就追求最先进的模型,YOLOv8固然好,但在树莓派Zero上跑起来要12秒一帧,这能叫实时检测吗?先明确你的硬件边界:嵌入式设备看内存和算力,移动端考虑功耗,服务端关注吞吐量。有个简单原则:模型大小不要超过可用内存的1/3。实战:一个极简表情识别应用假设我们要做个通过摄像头判断用户情绪的桌面应用。别急着写代码,先拆解需求:输入:摄像头实时视频流输出:当前表情标签(高兴/平静/惊讶)约束:普通CPU上要跑30FPS# 模型选择 —— 这里踩过大坑# 最初用VGG16,准确率不错但推理要300ms# 换成MobileNetV2后只剩15ms,准确率只降2