GhosttyのAI利用ポリシー
(github.com/ghostty-org)- Ghosttyプロジェクトは外部コントリビューターに厳格なAI利用ルールを適用し、あらゆるAI活用は必ず公開しなければならない
- AIが生成したPull Requestは承認済みのIssueにのみ提出可能で、未承認のIssueや非公開のAI利用が疑われる場合は却下される
- AIが書いたコードは必ず人間が直接検証・テストしなければならず、アクセスできない環境向けの自動生成コードは禁止される
- IssueやDiscussionでのAI補助は許可されるが、すべての内容は人間がレビュー・編集しなければならず、AI生成メディアコンテンツは全面禁止される
- GhosttyはAI自体を歓迎する一方で、問題はツールではなく利用者の力量不足にあると明記し、メンテナー保護のためにこのポリシーを維持している
AI利用ルール
- あらゆる形のAI利用には公開義務がある
- 使用したツール名(例: Claude Code, Cursor, Amp)と、AIがどの程度貢献したかを明記しなければならない
- AI生成Pull Requestは承認済みのIssueにのみ提出可能
- 承認されていないIssueに対するPRはクローズされる
- AI利用が明記されていなくても、メンテナーが疑わしいと判断した場合はPRは却下される
- 未承認Issueに関するコードはDiscussionで共有可能
- AI生成コードは人間による検証が必須
- テストされていない仮説的なコードの提出は禁止
- 自分でアクセスしてテストできないプラットフォーム向けコードの作成は禁止
- IssueおよびDiscussionでのAI補助は許可、ただし人間が必ずレビューと編集を行わなければならない
- AIが生成した冗長または不要な内容は人間が整理しなければならない
- AI生成メディア(画像、動画、音声など)は禁止、テキストとコードのみ許可
- **不適切なAI利用者(
bad AI drivers)**は公開の場で制裁される可能性がある- 初心者開発者にはAIではなく自力で学ぶことが推奨される
このルールは外部コントリビューターにのみ適用され、メンテナーは信頼に基づいて例外扱いとされる
人間中心の運営原則
- GhosttyはすべてのDiscussion、Issue、PRを人間が直接レビューする
- 人間と人間が相互作用する境界面であり、検証されていない低品質な作業は無礼な行為と見なされる
- AIが完璧な結果を出す世界はまだ到来しておらず、現時点ではAI利用者(
driver)の力量によって品質が左右される - したがってメンテナーを守るために厳格なルールが必要である
AI歓迎の立場
- GhosttyはAIツールを積極的に活用しており、メンテナーたちも生産性向上のためにAIを使っている
- ポリシーの目的は反AIではなく、未熟な利用者による乱用の防止にある
- プロジェクトはAI利用について透明性を維持し、AIを歓迎する姿勢を明確にしている
2件のコメント
"""私たちが厳格なAIポリシーを施行する理由は、AI自体に反対しているからではなく、AIを使う資格のない人があまりにも多いからです。問題はツールではなく、人です。"""
Hacker Newsの意見
最近、オープンソースに低品質な貢献スパムがあまりにも多くて驚く
自分はいくつかの小さなプロジェクトにしか貢献していないが、そのコードは自分が書いた中でも最も徹底的にテストされ、レビューされたものだった
他人の時間を無駄にしたくなかったので、いつも慎重に取り組んでいた
なのに、こうした恥ずかしさそのものがない人たちがいるようで当惑する
今はAIでパンドラの箱が開いて、彼らは「第二のチャンス」を得たと感じているようだ
彼らは恥を知らないのではなく、その感情を抱くための視点そのものを持っていない
私たちは何年もかけて技術を磨き、学びの深さを理解してきたが、彼らは一日も現場で働いたことがないので、その違いがわからない
公開グループでもGPTのコピペ回答をする人をよく見かける
結局のところ、人は自己重要感を借りてきたいだけなのだ
だから私は、時間を無駄にした人を公然と嘲笑するcode of conductを支持する
「Ghosttyに貢献した」という一行を書くためであって、本当に役立ちたいわけではない
今は恥のない世界で、それを理解しなければ混乱し、傷つくことになる
恥を失う必要はないが、その感情を理解する方法は学ぶべきだ
だが実際にはそうではない
GitHubの社会的構造こそが低品質PR問題の根本原因だと思う
「多くのプロジェクトに貢献した = 良い開発者」という認識が生まれ、人々はそれをゲームのように悪用し始めた
AIはここに油を注いだようなもので、長期的にはこうしたインセンティブをなくすべきだ
皮肉なことに、AIのおかげでこれがもはや実力のシグナルではないと明確になるかもしれない
昔から「履歴書用のゴミPR」はあって、今はただコストが安くなっただけだ
本当に関心のある人だけがgit send-emailでパッチを送る程度の参入障壁がある
ただし、新規コントリビューターが減る副作用はある
GhosttyのAI利用ポリシーはかなりバランスの取れたアプローチに見える
AIが人間の思考、テスト、リファクタリングを代替できないという点が核心だ
Codexで機能を作ると、結局かなりの部分を書き直す必要があった。不要な抽象化の乱用が特に問題だった
コードをどう書くかは個人の自由であり、結果に対する責任だけ負えばいい
使うツールやOSの開示を求めないのと同じで、AI使用の有無も強制する理由はない
外注開発者のひどいコードのせいでプロジェクトの進行が遅くなっているので必要だ
貢献ガイドや行動規範のように基本提案として含まれていれば便利そうだ
Sam Altmanの文章を見ると、AIが人間より賢くなる未来を前提にしている
結局どこまで人間が必要なのか、その境界が曖昧になっている
「悪いAIドライバー(bad AI drivers)」という表現が気に入った
AIはただの道具なのに、無分別なPRは道路上の危険運転者のようなものだ
こういう人たちは結局、プログラミング界のdashcam subredditに載ることになるだろう
AIが道を間違えたときにだけ修正するようなものだ
Mitchell HashimotoのX投稿を見ると、
彼は完全なAIセッション記録(transcript) を見たいと言っている
私もClaudeセッションをGitHubノートに貼り付けるgit-prompt-storyというサイドプロジェクトをやっている
自分の思考のもつれた過程をそのまま見せるのは負担だし、かえってまた「整理」しなければならないかもしれない
わざわざやる理由があるのか悩む
それが本当のsource of truthになり得る
「AI生成メディア(画像、音声など)は禁止、テキスト/コードのみ許可」という規定が興味深い
まるでテキストとコードは論争と無縁だと見ているようだ
だが、AI企業が芸術データを無断収集したように、コードとテキストも例外ではない
今ではほとんどの開発者がLLMを使っているため沈静化したが、Ghosttyの立場では
テキスト/コードまで禁じるとコントリビューターの大半を締め出すことになるので現実的な選択なのだろう
私はオープンソースコードでAI学習に大いに貢献してきたし、その結果生じる自動化の被害も直接受けている
だからコードに対するAI利用の議論には道徳的な発言権があると思う
一方で芸術分野は被害者が自分ではないため、同じ立場は取りにくい
今後は、AIなしで書かれたコードは特殊な領域にしか残らないだろう
「AI使用の有無の開示」は結局形式的な手続きになる可能性が高い
以前は「動く + 複雑なコード」なら熟練開発者の成果だと信じられていたが、
今ではその社会的シグナルが消えつつある
今後は個人の評判とブランドがより重要になり、「コードが語る」という実力主義の神話は揺らぐだろう
Zulipプロジェクトでも最近AI生成のゴミ(PR) が急増している
しかもAIが作った偽のスクリーンショットまで添付された事例もあった
私たちは繰り返し違反する人に警告またはブロックを行っている
本当に学ぼうとしている人を助けたいのであって、LLMコピペ投稿者と格闘したいわけではない
そこでGhosttyに似ているが、より具体的な AIポリシー を作った
AIをうまく活用する方法まで案内していて、参考にする価値が大きい