当我正在使用GitHub Copilot进行Vibe coding时,竟成了AI的养料!

张开发
2026/4/12 17:26:39 15 分钟阅读

分享文章

当我正在使用GitHub Copilot进行Vibe coding时,竟成了AI的养料!
近期GitHub 正式发布重磅政策调整引发全球开发者社区强烈争议。自 4 月 24 日起Copilot Free、Pro、Pro 个人用户与工具的交互数据将默认用于 AI 模型训练用户需手动操作才能退出而企业版用户不受影响。这一 “默认纳入、主动退出” 的模式直接触碰了开发者的数据隐私底线让大量用户感到被冒犯。GitHub 此次调整范围明确仅针对个人免费与付费用户Copilot Business、Enterprise 用户以及免费获取 Pro 权限的师生群体均被排除在外。官方给出的理由是Copilot 用户规模已达 2600 万需要更多真实世界交互数据覆盖更多编程场景提升模型实用性。GitHub 还提及此前用微软、自身员工数据训练已取得效果因此扩大数据来源。可用于训练的数据范围十分广泛涵盖用户输入代码、修改后的输出、代码上下文、注释文档、文件结构、交互行为等全部信息。即便私有仓库静态内容不被直接使用用户使用 Copilot 时产生的实时交互数据仍会被纳入训练除非主动退出。数据仅在微软、GitHub 内部及合规服务商间使用不会售卖或提供给第三方模型厂商。GitHub 还强调会通过技术手段过滤密钥、密码等敏感信息回应数据泄露担忧。但开发者对这套解释并不买账核心矛盾集中在退出机制极不友好。官方指引的退出路径模糊设置入口隐藏在页面底部文字描述与实际操作不符用户吐槽 GitHub 故意设置障碍赌多数人找不到退出选项。同时协作者数据归属、组织账号模糊判定等问题也让用户陷入困惑担心自己的代码因他人未退出而被滥用。更让开发者不满的是GitHub 采用 “默认同意” 的行业惯例却违背了隐私保护的基本逻辑。用户普遍认为数据使用应默认关闭自愿开启才合理这种把用户数据当作产品资源的做法彻底消耗了社区信任。不少开发者直言已完成退出操作甚至考虑注销账号、转向其他 Git 平台这场政策调整成为用户流失的催化剂。GitHub 还试图用 “微软、Anthropic、JetBrains 均有类似做法” 来平息争议强调自身并非特例同时否认竞争优势依赖用户数据称是为了适配多样化开发需求。但这套说辞未能缓解舆论压力反而让开发者更反感企业以行业惯例为由侵犯个人数据权益。有用户直言首先它一上来就给出了具有误导性的“退出”操作说明。 如果我进入账户设置再点 Copilot实际上什么都不会发生只是那个列表项展开而已。我根本没法像邮件里写的那样在那里“选择是否允许将你的数据用于 AI 模型训练”。其次真正可以退出的设置项文字表述和邮件里的说明也对不上。 所以他们就是在故意把人绕晕赌很多用户根本找不到这个设置。更离谱的是它还被放在设置页面最底部。第三我也不清楚如果我的仓库里加了协作者而他们没有选择退出那我的代码会不会也被拿去用 总之这次政策调整烂透了。也许是时候看看别的 Git 平台了。我对 GitHub 也算有些经验确实该试试别家了。这件事反而成了一个催化剂。贪婪是没有尽头的。而且这种事情本来就不该默认开启。 账户应该默认是退出状态只有在你自己愿意的情况下才主动打开。Policy news: https://github.blog/news-insights/company-news/updates-to-github-copilot-interaction-data-usage-policy/

更多文章