一、评审团组成
| 角色 | 来源 | 人数 | 定位 |
|---|---|---|---|
| 学术评委 | 上海交大机器人所/AI 学院教授 | 2-3 人 | 技术深度与创新性把关 |
| 产业评委 | 祥承科技(CTO/技术总监) | 2 人 | 产品化与商业化视角 |
| 行业专家 | 联发科/AI 行业代表 | 1-2 人 | 行业落地与生态适配 |
| 投资人评委 | VC/天使投资人 | 1 人 | 商业潜力与市场价值判断 |
技术导师(祥承工程师)默认不担任评委。如个别导师兼任评委,需设置回避机制。
二、评审维度与权重
维度排序:创新性 > 商业价值 > 完成度 > 技术深度 > AI Box 适配度
| 维度 | 权重 | 评审关注点 |
|---|---|---|
| 创新性 | 25% | Agent 方案原创性、差异化亮点、技术路线新颖度、方法突破 |
| 商业价值与影响 | 25% | 真实痛点与目标用户清晰;价值可量化;落地/推广/商业化路径清楚 |
| 完成度与可用性 | 20% | Demo 端到端可用与稳定;交互清晰;答辩能讲清「为何有效/如何实现」 |
| 技术深度 | 15% | 工程结构合理、依赖清晰、可复现、离线兜底、合规披露齐全 |
| AI Box 适配度 | 15% | 体现端侧优势(隐私/低延迟/离线/端云协同/外设)与赛道契合 |
对学生团队不要求写完整商业计划书。回答四个问题即可:给谁用、解决什么、带来什么提升、怎么部署/推广。
三、Rubric 评分锚点
| 维度 | 1 分(不足) | 3 分(达标) | 5 分(优秀) |
|---|---|---|---|
| 创新性 | 套壳/轻微改动 | 有明确亮点 | 有明显突破且可解释 |
| 商业价值 | 痛点泛泛,用户不清 | 场景具体、价值可量化 | 有验证迹象或可复制路径 |
| 完成度 | 只能「演」,不稳定 | 端到端可跑通 | 体验顺滑且答辩可解释 |
| 技术深度 | 不可复现/依赖混乱 | 按 README 可复现 | 低成本复现+离线兜底 |
| AI Box 适配 | 未体现端侧优势 | Box 环境可跑通 | 端侧优势显著并有优化证据 |
四、硬门槛(不满足即淘汰)
- 能在 AI Box 或官方模拟环境跑通,并提供清晰复现步骤
- 不触碰敏感数据;不得提交密钥/账号
- 提交物齐全(README/视频/PPT/仓库),且版本已锁定
五、院士/专家颁奖嘉宾(待落实)
最终在决赛前 2-4 周确认。
| 角色 | 候选人方向 | 备注 |
|---|---|---|
| 颁奖嘉宾(学术) | 交大 AI/机器人领域院士或资深教授 | 冠军颁奖 |
| 颁奖嘉宾(行业) | 联发科高层 / AI 行业知名人物 | 亚军或专项奖 |
| 颁奖嘉宾(政府) | 海安经开区/地方政府代表 | 季军或特别奖 |
| 颁奖嘉宾(投资) | 合作 VC / 人工智能协会代表 | 最具商业潜力奖 |