- 2026年4月24日から、Copilot Free・Pro・Pro+ユーザーのデータがAIモデルの学習および改善に活用され、ユーザーはオプトアウト設定によってこれを拒否できる
- Business および Enterprise ユーザーは今回の変更の影響を受けず、以前に拒否設定をしていた場合は既存の選択が維持される
- 学習データには、入力コード、出力結果、カーソル周辺のコンテキスト、フィードバック評価など、実際の開発インタラクション情報が含まれる
- 企業リポジトリ、非公開コンテンツ、オプトアウトしたユーザーのデータは学習に使用されず、データはMicrosoft など GitHub 関連会社とのみ共有される
- GitHub は、実際の開発者インタラクションデータが精度・安全性・バグ検出能力の向上に不可欠だとし、開発者の自発的な参加を強調している
GitHub Copilot インタラクションデータ利用ポリシーの更新
- 2026年4月24日から、Copilot Free、Pro、Pro+ ユーザーのインタラクションデータ(入力、出力、コードスニペット、関連コンテキスト)がAIモデルの学習および改善に使用される
- ただし、ユーザーが**オプトアウト(opt-out)**した場合、データは学習に使用されない
- Copilot Business および Enterprise ユーザーは今回の変更の影響を受けない
- 以前にデータ収集の拒否設定を行ったユーザーは既存の選択が維持され、明示的に同意しない限りデータは学習に含まれない
- GitHub は、今回の変更が業界標準の慣行に合致しており、モデルの精度・安全性・バグ検出能力の向上に寄与すると説明している
- ユーザーは設定ページのPrivacy 項目から、いつでも参加可否を変更できる
実データに基づく学習の必要性
- 初期の Copilot モデルは公開データと手作業のコードサンプルを基に構築された
- その後、Microsoft 社員のインタラクションデータも含めて学習を進め、複数のプログラミング言語で受諾率(acceptance rate)の向上など有意な改善が確認された
- GitHub はこれらの結果を踏まえ、多様な実際のユースケースを反映するため、実際の開発者インタラクションデータを学習に含めることにした
収集・活用されるデータ項目
- モデル学習に使用されうるデータは次のとおり
- ユーザーが受け入れた、または修正した出力結果
- Copilot に入力されたコードスニペットおよび要求内容
-
カーソル周辺のコードコンテキスト
-
ファイル名、リポジトリ構造、ナビゲーションパターン
- Copilot 機能とのインタラクション(チャット、インライン提案など)
- 提案に対するフィードバック(高評価/低評価)
学習に含まれないデータ
- 次のデータはモデル学習に使用されない
- Copilot Business、Enterprise、企業所有リポジトリのインタラクションデータ
- オプトアウトしたユーザーのデータ
- Issue、ディスカッション、非公開(private at rest)リポジトリのコンテンツ
- ただし、Copilot 使用中は非公開リポジトリのコードがサービス実行のために処理されることがあり、オプトアウトしていない場合は学習に含まれる可能性がある
データ共有とセキュリティの範囲
- 収集されたデータは**GitHub 関連会社(例: Microsoft)**と共有される場合がある
- ただし、第三者の AI モデル提供者や外部サービス事業者とは共有されない
- GitHub は、AI支援開発の発展は実際の開発者インタラクションデータにかかっていると強調しており、
Microsoft および GitHub 社員のデータをすでにモデル学習に活用している
ユーザーの選択と影響
- ユーザーがデータ提供に同意すると、モデルは開発ワークフローの理解向上、より正確で安全なコード提案、バグの事前検出能力の強化などの改善を得られる
- 参加しなくても Copilot の既存の AI 機能はそのまま利用可能
- GitHub は開発者コミュニティ全体の品質向上のため、自発的な参加を歓迎しており、
関連する問い合わせは FAQ とコミュニティディスカッションページで確認できる
1件のコメント
Hacker Newsの意見
GitHubの設定にある 「Allow GitHub to use my data for AI model training」 の項目を見ると、オンにもオフにもできる
でも、これをまるで「機能へのアクセス権」のように見せかけているのが滑稽
データを無料で渡すことを特典のように語るのは少し皮肉
GCSバケット作成時の「public access prevention」チェックボックスほど混乱はしない
個人アカウントではわざと使っていないのに、なぜ記録が残っているのかわからない
実際には自分のデータを渡すことなのに、まるで何かを失うように聞こえるよう作られている
4月24日からGitHub CopilotのインタラクションデータがAI学習に使われると告知された
既定値が 有効 なので、自分でオフにしなければならない
設定ページへのリンク
ビジネスアカウントでもデフォルトでオンなのか気になる。もしそうならかなり 怪しいポリシー だ
ブログ記事にも無効化リンクを載せていないのは不親切
自分でオフにするには この経路 → Privacy → 「Allow GitHub to use my data for AI model training」→ Disabled に設定する必要がある
企業顧客は契約上データが学習に使われず、個人ユーザーだけが制御可能とのこと
顧客コードが学習に使われないようにする内部ポリシーがある
Copilotには APIキーやパスワードのような機微なファイルを無視する方法がない
IDEを開いた瞬間、こうした情報がMicrosoftに送信される可能性がある
関連議論へのリンク
しかし例外設定が2つもあるのに、どちらも動作しない
PRを出しても ボットだけが反応 して、人は見ない
しかもGemini 3はオープンソースコードをリファクタリングする際、元の開発者の意図に反すると判断するとコード生成を拒否する
有料ユーザーであれば、デフォルトは opt-out ではなく opt-in であるべきだと思う
GitHubのMario Rodriguez(@mariorod)がこうした決定を下したのが理解できない
GitHubとAI時代以降、自分のコードはすべて 自前サーバー上のprivate git repo に移した
オープンソースライセンスを悩む理由もなくなった
自分のコードを商用AI学習に使わせるつもりはない
本気でオープンソースをやりたいなら Codeberg に移る時だ
既存のオープンソースプロジェクトは保守だけ続け、新しいプロジェクトはSaaSかバイナリ形式でのみ配布している
その代わり、言語・OSプロジェクトに貢献しながら、モデル再学習の必要性を感じている
EUではこのようなポリシーの 法的根拠 が気になる
収集データに個人識別情報(PII)が含まれる可能性があり、GDPR基準では
「自発的で明確な同意」が必要だ
コードの1行に自分の電話番号をテスト用で入れていて、それがCopilotに送信されたら法的措置を取るかもしれない
「このアプローチは業界標準と一致している」という言い方は、結局 「他もやっているから大丈夫」 という理屈だ
結局GitHubは全ユーザーの コードベース全体を保存 しようとしているように見える
Copilotが使用するデータがMicrosoftグループ全体と共有される可能性があるという文言がある
Copilotサブスクリプションをキャンセルするオプションが見当たらない
モバイル決済設定リンクを見てもない
公式ドキュメントによると、
学生・教員・オープンソースメンテナーとして無料アクセス権を得た場合は キャンセルできない とある
それでもGitHubがこの変更を隠そうとしていたわけではなく、opt-out手順を公開して案内 していた
典型的な ダークパターン のように感じる
Androidアプリでは設定ページを見つけにくく、ページもまともに動作しない