Skip to content

你的 AI 连目标都没有,怎么给你干活?

我做了一个工具帮项目定 OKR,然后让它用自己的 OKR 管理自己。结果它每天凌晨给我发"绩效评估",还 PUA 我。

cover

资源 地址
GitHub github.com/chainreactors/okr-creator
自举 Issue(每日更新) Issue #1
自举 OKR 文件 .claude/skills/okr/SKILL.md
Workflow 运行记录 Actions

OKR Creator — 一个 AI Agent Skill,分析任何项目后自动生成定制化 OKR,部署 GitHub Action 每日追踪。支持 Claude Code / OpenAI Codex CLI / CodeBuddy。不限于代码项目——写作、研究、运营、产品、设计等任何项目都适用。


一个真实的问题

你有没有这样的经历——

打开 Claude Code / Codex / Cursor,对着 repo 说"帮我优化一下"。AI 很努力,改了一堆文件,跑了一堆命令。然后你看着 diff,问自己:这些改动有价值吗?跟项目的方向一致吗?

答不上来。因为你的项目根本没有定义过"方向"。

这不是 AI 的问题,是你的问题。

你的状态 表现
无目标 想到什么做什么,做完不知道有没有价值
目标模糊 "提升质量"、"优化性能"——没有数字,没有验收标准
定了不追 OKR 写完放进抽屉,下个季度才想起来
AI 没方向 AI 在 repo 里工作,但不知道项目的优先级是什么

AI 再强,也只是工具。工具不知道往哪使劲,就是在做布朗运动。


OKR Creator:给你的项目装一个方向盘

OKR Creator 是一个 AI Agent Skill,做三件事:

第一,全面体检

读你的 README、配置文件、目录结构、git log、TODO/FIXME,然后从**六个维度**给项目打分:

六维诊断

  愿景   ████████░░  4/5
  质量   ████░░░░░░  2/5
  债务   ████████░░  4/5
  架构   ██████░░░░  3/5
  文档   ██████░░░░  3/5
  自动化 ██████░░░░  3/5

不是拍脑袋打分——是基于实际文件内容的数据驱动诊断。

第二,逼你想清楚

诊断完了不是直接出 OKR,而是先把结果摆在你面前,然后**用大厂 PUA 话术逼你回答**:

"这个项目你到底想做成什么样?"

"我诊断出来这些问题,你告诉我先解决哪个。什么都想要 = 什么都做不好。"

"你的底线在哪?不是'最好能做到',是'做不到就算失败'的那种。"

第三,输出 OKR + 每天追着你验收

每个 KR 都有 baseline(当前值)、target(目标值)、harness(验收方法)。

OKR 写入项目文件,同时部署 GitHub Action——每天凌晨自动评估每个 KR 的完成进度,结果追加到 Issue 评论里。

不是写完就完了。是写完之后,每天有个 AI 对着你的 OKR 逐条检查,做到了标绿,没做到标红,还附带 PUA 点评。


它长什么样?

在任何项目里输入 /okr,全部自动完成:

         /okr 触发
            |
    +------------------+
    |  读项目文件        | README、配置、git log、TODO
    |  六维诊断         | 愿景/质量/债务/架构/文档/自动化
    +--------+---------+
             |
    +--------v---------+
    |  拷问意图         | "你到底想做成什么样?"
    +--------+---------+
             |
    +--------v---------+
    |  制定 OKR         | 3-5 个 O,每个 2-4 个 KR
    |  部署 Action      | 每日自动评估 + Issue 追踪
    +--------+---------+
             |
    +--------v---------+
    |  每日闭环         | Claude 逐条验收
    |  对话续接         | @claude 直接讨论
    +------------------+

自举:它用自己管理自己

最硬核的部分来了。

OKR Creator 自己也在用 OKR Creator 生成的 OKR 来管理自身的迭代。

我们对 okr-creator 这个项目运行了 /okr,它给自己做了六维诊断:

维度 评分 关键发现
项目愿景 愿景清晰但无 roadmap
交付质量 零自动化测试
历史债务 代码库干净
结构架构 SKILL.md 700 行巨石文件
文档完善 缺 CONTRIBUTING.md
自动化 核心交付物无质量门禁

然后它给自己定了 5 个 Objective、14 个 KR

O1: 完成自举闭环 — OKR Creator 自己有 OKR、Action 能跑通、Issue 有评估

O2: 建立质量门禁 — SKILL.md 改了不会悄悄坏

O3: E2E 自动化 — 不靠人肉验证

O4: 架构可维护 — 拆掉 700 行巨石

O5: 生态就绪 — 让别人能参与进来

部署完成后,每天凌晨 Claude 自动对着 14 个 KR 逐条检查:

每日评估 Issue

▲ Issue #1:每日 OKR 评估,Claude 逐条验收每个 KR

第一天的 **PUA 点评**是这样的:

你做了一个"帮别人制定 OKR"的工具,自己的 OKR 倒是写出来了——就是 KR1.1 的那个 SKILL.md 文件,格式合规,挺漂亮的。然后呢?E2E 是 0%,模板还是 700 行的巨石,连 CONTRIBUTING.md 都没有——你是想让别人贡献还是想让别人知难而退?

对话续接

Maintainer 可以直接在 Issue 里 @claude 讨论,Claude 会读取上下文和 repo 现状回复:

Maintainer: @claude KR1.2 和 KR1.3 实际上已经完成了——你正在运行的这次评估本身就是证明。

Claude: O1 整体: 100% — P0 底线 #1 完成。之前评估把"需要 gh run list 授权才能确认"误判为不确定性。实际上自证型证据(你看到的输出就是运行结果)更可靠。

一个帮别人定目标的工具,自己连目标都没有——这说不过去。所以我们让它完成了自举。


不只是代码项目

OKR Creator 不限于代码项目。任何有目录结构、有交付物的项目都适用:

类型 可量化指标
技术研究 论文进度、实验覆盖率、文档完成度
内容写作 发布频率、完成比例、质量指标
产品规划 功能完成度、用户反馈、Bug 数量
运营策略 指标达成率、自动化覆盖率

只要你的项目有 README 和目录结构,/okr 就能分析出来该往哪走。


内置大厂 PUA 风味包

根据不同场景,OKR Creator 会自动切换话术风格:

风味 触发场景 话术示例
阿里味 KR 不对齐战略 "你这个 OKR 的**底层逻辑**是什么?**抓手**在哪?"
字节味 KR 不够量化 "数据说话。'做好一点'不是 KR,'从 X 到 Y'才是"
华为味 执行力不足 "OKR 不是许愿清单,是**军令状**"
腾讯味 目标太保守 "你确定 target 够高?还是在**管理预期**?"
美团味 写得好落地差 "每个 KR 旁边写:第一步做什么?今天做什么?"

支持三大平台

平台 安装方式
Claude Code claude plugin install okr-creator@okr-creator
OpenAI Codex CLI 下载 SKILL.md 到 ~/.codex/skills/
CodeBuddy codebuddy plugin install okr-creator@okr-creator

三条铁律

这个工具的设计原则,也是项目管理的三条铁律:

铁律一:先分析后输出

没有深度分析项目之前,禁止凭空编造 OKR。拍脑袋写的 OKR 等于没写。

铁律二:OKR 必须可衡量

"提升质量"不是 KR,"测试覆盖率从 43% 提升到 80%"才是。每个 KR 必须有当前值和目标值。

铁律三:生成即可用

输出的文件必须能直接加载运行。格式不合规 = 交付物不合格 = 返工。


你的项目有方向了吗?试试 /okr