🚀 我们如何在 Meilisearch 中实现 AI 工作的成功
在贵公司难以让 AI 真正发挥价值?了解我们如何在 Meilisearch 中将零散的 AI 使用转化为系统性成功,并提供一个您可以立即实施的实用框架。

当我们发现团队中 70% 的人每天都在使用 AI 工具,但效果却千差万别时,我们知道需要一种系统的方法。不是另一个模糊的“AI 转型”倡议,而是一个实用的框架,用于将 AI 炒作与实际价值区分开来。
以下是我们为在全公司范围内评估和实施 AI 工具而开发的具体系统,以及我们迄今为止所学到的东西。
我们发现的惊人现实
当我们开始 Meilisearch 的 AI 之旅时,我们期望发现一些采用 AI 的部门。相反,我们发现了一些更有趣的事情:**普遍的实验,但不一致的价值**。
采用悖论
我们公司范围的评估显示,每个团队成员都曾尝试过 AI 工具,其中有惊人的 70% 将其融入日常工作流程。
但这些数字只说明了一半的故事
尽管采用率很高,但团队对 AI 价值的看法却出人意料地各不相同。许多人正在使用这些工具,但质疑它们是否真正有益,或者只是创造了一种新的无用功。
使用量与感知价值之间的这种差距成为我们第一个关键的洞察。
改变我们方法的四个关键洞察
此前分享的洞察
- 🧠 随着专业知识的增长,AI 是否变得不那么有价值? AI 与你专业知识水平的关系如何变化。
- 🔍 解锁我们的 AI 知识共享蓝图: 了解人们想知道什么才能开始。
- 🤝 在 AI 增强的工作场所中保持人际联系: 引入 AI 会不会让我们失去团队的特色?
通过对所有部门的深入访谈,我们发现了简单的使用统计数据无法揭示的模式
- 🌿 环境影响: 我们的团队对 AI 的环境影响提出了深思熟虑的担忧。
- 🤔 专业知识悖论: 随着团队成员领域专业知识的增加,他们对 AI 价值的感知通常遵循 U 形曲线。初学者发现 AI 对学习很有帮助,专家将其用作强大的加速器,但处于中间的人有时会发现它弊大于利。
- 🎯 信任困境: AI 的“不一致的卓越”造成了基本的信任问题——有时是变革性的,有时又令人困惑地偏离目标——这使得团队不愿将其整合到任务关键型流程中。
- ✨ 创意加速: 尽管存在疑虑,但几乎每个人都报告说创意过程有了显著改进——从消除写作障碍到改变编辑工作流程。
- 🔭 提示复杂性差距: 大多数团队成员仍然使用基本的提示技术,不知道使用更高级的方法可以极大地改善他们的结果。
这项调查显示,我们面临的不是采用问题,而是**价值提取挑战**。人们正在使用 AI 工具,但并未持续获得有意义的结果。我们需要一个框架来帮助团队识别 AI 实际可以创造价值的地方——以及它只是增加复杂性的地方。
⚖️ 我们的解决方案:AI 价值评分矩阵
基于这些洞察,我们开发了一个系统框架来突破 AI 炒作周期。我们没有追逐最新的工具或模型,而是创建了一种数据驱动的方法来识别 AI 在我们特定背景下可以创造真正价值的地方。
价值评分矩阵: 每个潜在的 AI 用例都根据与我们组织优先级一致的多个加权维度进行评估。这使“我们应该在哪里使用 AI?”的抽象问题转换为一组具体的、可比较的分数。
我们的六个关键维度
维度 | 权重 | 我们评估什么 | 为什么它很重要 |
---|---|---|---|
可行性 | 20% | 使用现有技能/资源实施的难度 | 防止我们追求技术上令人印象深刻但不切实际的应用 |
收入影响 | 25% | 增加营收增长的潜力 | 确保 AI 计划有助于业务成功 |
数据准备度 | 15% | 所需数据的可用性和质量 | 许多 AI 项目因数据问题而非技术限制而失败 |
价值实现时间 | 15% | 获得切实成果的速度 | 通过快速获胜建立势头 |
风险 | 10% | 潜在挑战或负面影响 | 防止意外后果 |
内部影响 | 15% | 受益人员/团队数量 | 优先考虑广泛改进而非狭窄优化 |
以下是我们如何应用此框架评估潜在的 AI 计划
这种系统方法消除了关于采用哪些 AI 工具的主观争论,取而代之的是与我们战略优先级一致的循证决策。
早期成果:超越 AI 炒作周期
我们的评分矩阵已经改变了我们在 Meilisearch 中处理 AI 的方式
1. 从无限选项到战略重点
我们的团队不再淹没在源源不断的新 AI 产品中,而是拥有一个清晰的过滤器:“这个工具是否能解决我们的高分用例之一?”这大大减少了干扰和 FOMO,同时增加了有意义的采用。
2. 平衡投资:“法拉利”和“货轮”
我们正在战略性地平衡我们的实施
- **“法拉利”项目:** 带来兴奋和动力的快速胜利(例如,自动化内部文档更新)
- **“货轮”计划:** 具有变革潜力的重大努力(例如,借助 AI 协助重塑我们的客户支持工作流程)
3. 创建专门的实验空间
一个重要的教训是:AI 采用需要受保护的时间。我们已将专门的“AI 探索块”整合到我们的工作日程和即将到来的异地活动中,特别关注我们的最高分用例。
4. 解决真正的问题
评分矩阵通过风险维度自然地包含了伦理考量。我们通过以下方式将其付诸实践:
- 尽可能偏爱更小、更高效的模型
- 优先选择允许我们在本地运行模型的开源选项
- 预留时间对 AI 生成的内容进行人工审查
框架实践:案例研究
在将我们的评分矩阵应用于通过内部讨论确定的用例后,我们迅速发现了高影响力的机会。一个突出的例子是改进我们的代码审查流程——具体来说,减少拉取请求(PR)的首次审查时间。
此用例在多个维度上得分很高
- 使用现有工具的可行性高
- 直接影响开发速度
- 清晰的价值实现时间指标
- 对工程团队的广泛内部影响
我们实施了 CodeRabbit,一个 AI 驱动的代码审查助手,可提供即时 PR 反馈。在保持我们基本的人工审查流程的同时,该工具识别常见问题并提供自动化的 PR 描述。经过两周的试用期,我们测量了定量指标并收集了团队反馈。
结果验证了我们评分框架的预测
- 平均首次审查时间缩短
- PR 文档质量提升
- 积极的团队采用和参与
- 整个工程组织的累计时间节省
下一步:轮到你了
我们分享这个框架是因为我们相信它可以帮助其他组织摆脱 AI 炒作,专注于价值创造。
成功采用 AI 的关键不在于拥有最花哨的工具,而在于拥有最清晰的框架,以识别 AI 在您特定情境中真正增加价值的地方。