6 ポイント 投稿者 GN⁺ 2026-03-28 | 3件のコメント | WhatsAppで共有
  • GitHubが個人リポジトリのコードとデータをAIモデルの学習に活用する計画
  • ユーザーは**4月24日以前に明示的に拒否(opt-out)**しないと、データ利用を止められない
  • 拒否しない場合、非公開プロジェクトの情報が学習データに含まれる可能性がある
  • この方針はGitHub CopilotなどのAI機能改善のためのデータ収集に関連している
  • 開発者はプライバシー保護とコードの安全性のために設定確認が必要

GitHubのAI学習データ方針の変更

  • GitHubがAIモデル改善の目的で、個人リポジトリのデータを学習に含められるよう方針を変更
    • ユーザーが別途拒否しなければ、自動的にデータが利用される
    • 拒否はGitHubの設定ページから直接実行できる
  • 学習データには非公開コード、プロジェクトのメタデータ、コミット履歴などが含まれる可能性がある
  • この措置はCopilotおよびその他のAI機能の品質向上のためだと説明されている

開発者への影響

  • 個人リポジトリが学習に使われる場合、機密性の高いコードや内部ロジックが露出するリスクがある
  • 企業および個人の開発者はセキュリティポリシーの見直しとopt-out手続きの実施が必要
  • 今回のGitHubの変更は、AI学習データの透明性とユーザーのコントロール権をめぐる議論につながる可能性がある

3件のコメント

 
runableapp 2026-03-30

数日前からGitHubにずっと表示されていました。

Important update
On April 24 we'll start using GitHub Copilot interaction data for AI model training unless you opt out. Review this update and manage your preferences in your GitHub account settings.

opt out はしましたが、以前からすでにAIに活用していたのではないかという気がします。

 
github88 2026-03-29

あまりにも図々しいフェイクニュースじゃないか

 
GN⁺ 2026-03-28
Hacker Newsの反応
  • 2023年からずっと言われていること。データベースに保存された情報が企業が自由にアクセスできる形になっているなら、結局その企業はAI学習用データとして使えるように利用規約を変更するはず。インセンティブが強すぎて避けられないと思う

    • その通り。どれだけ倫理的な会社でも、買収されれば状況は変わりうる。自分はSP500企業で働いているが、今は本番環境へのアクセスは厳格に統制されている。でも Larry や Zuck、Bezos のような人物が会社を買ってしまったらどうなるかわからない
    • 「まずやって、後で謝る」が一般原則になりそう。ToSを変えなくても、実際にはそうできてしまう。Amazon はすでに巨大な社内学習データセットを持っている
    • MS が自分のノートPCで書いたコードをAI学習に使っているのではと心配になる。以前は陰謀論のように聞こえたLinuxユーザーの不信感が、だんだん理解できるようになってきた
    • まったくその通り。人々がそれをあまりに当然のこととして受け止められないのがもどかしい。Stallman はいつも正しかった
    • 鍵を自分で所有していない限り、それはエンドツーエンド暗号化ではない。たわごとはやめるべきだ
  • 「そうではない」と主張し、GitHub公式ブログ へのリンクを共有。Free、Pro、Pro+ Copilot ユーザーは opt-out しない限り利用データがモデル学習に使われる。Business や Pro サブスクライバーは学習対象にならない。Copilot を使っていなければ影響はない。今のうちに opt-out しておけば、後で設定は維持される

    • ブログによると収集されるデータは、入力、出力、コードコンテキスト、コメント、ファイル構造、フィードバックなど。ただし「参加したいなら」ではなく「参加しないなら」という形になっている。つまり、自分で参加拒否しなければならない仕組みなのが不満。自分のプライバシーを守るために自分が手間をかけなければならないのは不当だ
    • 表現の細部があまりに曖昧に切り分けられている。Copilot が入力と出力、コードコンテキストを学習に使うなら、結局はprivate repo のコードの一部が学習データとして使われるということだ
    • タイトルも返答もどちらも広すぎる。4月24日から、Business/Pro ではないユーザーの private repo がデフォルトで学習対象に含まれる。すべての repo が該当するわけではないが、言葉選びは慎重であるべきだ。「No we won’t」より「完全に正確ではない」のほうが適切だった
    • それでもなお深刻な問題だ。コードが LLM 学習に入った時点で、もはや private ではない。「private repo」と書いておきながら、利用規約の小さな文字で「公開される可能性があります」と書くのは嘘だ
    • EU法 では opt-out 方式は有効な同意として認められない。これをどう処理するつもりなのか気になる
  • このニュースのタイトルには誤解を招くところがある。GitHub が private repo そのものを学習するのではなく、Copilot 利用中に発生するインタラクションデータを学習する。Copilot を使っていなければ影響はない。それでも無効にしておいたほうがいい

    • では、自分のコントリビューターの1人が Copilot を使っていた場合はどうなるのだろう
    • 自分もそう理解していたが、入力を学習するならコードそのものを学習していないとは保証できない。法廷では「入力だけを学習した」と主張するかもしれない
    • こういう細かな区別は結局無意味だ。今はそうでも、後でひっそり変えられるかもしれない。開発者はシステムを理解したと思い込むが、結局また騙され続ける
  • 正確に言うと、opt-out はCopilot学習用の設定。これまでは public repo のみが opt-in だったが、4月24日からは private repo もデフォルトで含まれる。private repo で Copilot を使っているなら、github.com/settings/copilot で opt-out したほうがいい。30秒で済む

    • 30秒ではなく0秒であるべき。自分の時間は自分のものだし、プライバシーを守るために時間を使わなければならない理由はない
    • 「30秒で済む」というのは現実をわかっていない。こうした情報を知るために毎日 HN を漁らなければならない。結局、スイッチがあると知るまでに240時間使うことになる
    • 以前は opt-in ではなかった。その頃は利用データを学習していなかった。内部的な学習だけを行っていて、そのおかげで性能向上があったという。関連情報は このブログ記事 にある
    • 設定がすべてのユーザーに表示されるわけではない。組織単位で Copilot を管理していると、そのオプションは消える。組織を離れると自動的に再び opt-in される可能性もある
  • チームで1人でも opt-out していなければ、Copilot がrepo 全体にアクセスできるのか気になる。チームメンバーの設定状態を確認する方法があるのかも知りたい

    • チームメンバーがコードをコピーしてプロンプトに貼り付けるのを防げないのと同じで、この設定も制御不能だ。MS にとってはデフォルト opt-in のほうがはるかに都合がいい
  • 現在の設定はユーザー単位でしかできない。組織全体で一括無効化する方法があるのか気になる。1人でも設定を有効にしたら、組織のコードが学習データと見なされるのではないかと心配だ

  • GitHub がバナー告知を継続的に出していたことは認める。でも自分も今回の HN 投稿を見るまではそれを読んでいなかった

    • ただし、CLI でしか git を使わない人はそのバナーを見ることができない
    • バナーやメールを読んでも、正確にどの設定を変えれば opt-out になるのか明記されていない。結局ユーザーが自分で探さなければならず、後になってようやく正しく設定できたか分かる
    • 自分はそのバナーを見たことがない。どこに表示されるのだろう
    • アプリが設定をリセットしたり失ったりするケースを見るのは初めてだ
  • 自分の private repo はぐちゃぐちゃなコードなので心配する必要はない。むしろ LLM が自分のコードで学習したら損をするはずだ

    • 自分も参加する。自分のクソコードで M$ の AI を壊してやる
    • LLM を汚染することは、一種の抵抗手段として興味深い
  • GitHub を長年有料で使ってきた人のうち、告知を見ていない人たちは気の毒だ

    • 自分も opt-out 方式は嫌いだが、今は GitHub の全ページにバナー告知が出ていて、メールも送られている