曾经那套埋头写RTL、依赖仿真、等EDA工具跑结果的工作节奏在AI编码工具大规模普及的今天开始显得有些吃力。现在每隔几个月就有新模型出来。但大多数芯片工程师的实际用法还停留在帮我写段简单的testbench这个层面。这用法当然没错但远远没有发挥出AI真正的价值。真正值得投入时间去做的事是摸清这些模型的能力边界。不是看评测分数而是亲自去测试它能不能理解一个带状态机的模块能不能在多个文件之间保持上下文一致性复杂的时序约束它会怎么处理这种边界感只有用出来才知道。每个人的项目背景不同模型在不同场景下的表现差异很大别人的经验最多是参考得靠自己跑出来的结论。这些细节没有一个通用答案。更重要的是找到适合自己工作流的那一个然后把它用透。另外一个容易被忽视的概念是上下文工程Context Engineering。你在和AI对话的时候到底给它提供了什么信息只是一个模糊的需求描述还是有完整的模块接口定义、时序图、已有代码的上下文AI生成的代码质量在很大程度上取决于输入进去的上下文质量。工程规则怎么写、系统提示怎么组织、历史对话怎么管理——这些其实是可以被刻意设计和优化的。很多人把AI表现差归结为模型能力不够但实际上有相当一部分原因是上下文给得太烂了。还有一点想特别提一下设计和验证的打通。传统的芯片研发分工里前端设计和验证往往是两个相对独立的角色。但当AI工具介入之后这个边界开始变得模糊。一个能写RTL的工程师如果能同时用AI辅助写testbench、生成覆盖率场景、理解验证逻辑实际上就形成了一种新的全栈能力。这不是要求每个人都变成全才而是说借助AI降低了跨域成本以前需要两个人配合的事现在一个人完全可以驱动起来。说到底以高质量需求落地为核心目标这句话听起来很普通但真正做到的人并不多。对AI能力的深度理解、合理的工具选型、有意识地设计上下文。这三件事做好了速度自然就上来了质量也不会因为引入AI而下降。芯片工程师职业成长第五期