7 ポイント 投稿者 GN⁺ 2026-03-29 | 1件のコメント | WhatsAppで共有
  • クラウド予約機能により反復作業を自動化でき、コンピューターの電源が切れていてもバックグラウンドで実行可能
  • 予約方式は CloudDesktop/loop の3種類で、実行場所と周期設定の単位が異なる
  • Web、デスクトップアプリ、CLI で タスク名・リポジトリ・環境・周期・コネクタ を指定してスケジュールを作成可能
  • タイムゾーン自動変換カスタム周期設定MCP コネクタ連携により Slack・Linear・Google Drive と統合可能
  • 開発者はこれにより、コードレビュー、CI 分析、ドキュメント同期などの 継続的な自動化ワークフロー を構築可能

Webでタスクをスケジュール実行

  • クラウドベースの予約タスク によって反復作業を自動化できる
    • Anthropic が管理するインフラ上で実行されるため、ユーザーのコンピューターの電源が切れていても動作し続ける
    • 例として、毎朝の Pull Request レビュー、夜間の CI 失敗分析、ドキュメント同期、週次の依存関係監査などがある
    • Claude Code on the web のすべてのユーザー(Pro、Max、Team、Enterprise)に提供

予約オプションの比較

  • Claude Code は CloudDesktop/loop の3つのスケジュール実行方式をサポート
    • Cloud は Anthropic クラウド上で実行され、コンピューターの電源が切れていても動作
    • Desktop と /loop はローカルマシンで実行され、セッション維持の有無やファイルアクセス権限が異なる
  • Cloud タスクは 最小間隔が1時間単位、Desktop と /loop1分単位の間隔 を設定可能
  • Cloud は 自動実行 され、権限プロンプトなしで動作し、Desktop はタスクごとに権限を設定可能

予約タスクの作成手順

  • 予約タスクは Web、デスクトップアプリ、CLI で作成可能
    • Web: claude.ai/code/scheduledNew scheduled task をクリック
    • デスクトップ: Schedule ページで New remote task を選択
    • CLI: /schedule コマンドで対話型設定、または /schedule daily PR review at 9am のように直接指定
  • 作成ステップ
    • タスク名とプロンプトを作成: 自律実行されるため、明確で完結したプロンプトが必要
    • リポジトリを選択: GitHub リポジトリを追加し、デフォルトブランチからクローンした後、claude/ プレフィックスのブランチに変更を push
    • 環境を選択: ネットワークアクセス、環境変数、インストールスクリプトを含むクラウド環境を指定
    • 周期を選択: デフォルトはローカル時間基準で毎日午前9時、CLI の /schedule update で詳細調整可能
    • コネクタを確認: Slack、Linear、Google Drive などの MCP コネクタを含めるか選択
    • 作成完了: 作成後は一覧に表示され、次回の予定時刻に自動実行されるか、Run now ですぐに実行可能

実行周期オプション

  • 予約周期は タイムゾーン自動変換 をサポートし、指定したローカル時間に実行される
  • 実行は数分遅れることがあるが、各タスクごとに一定のオフセットが維持される
  • 提供される基本周期
    • Hourly: 毎時間実行
    • Daily: 1日1回、デフォルトは 9:00 AM
    • Weekdays: 平日のみ実行
    • Weekly: 週1回、指定した曜日と時刻に実行
  • 2時間ごと、毎月1日などの カスタム周期 は CLI の /schedule update で設定可能

リポジトリとブランチ権限

  • 各実行時にリポジトリを新たにクローンし、デフォルトブランチから開始
  • デフォルトでは claude/ プレフィックスのブランチにのみ push 可能
  • 保護ブランチの修正が必要な場合は Allow unrestricted branch pushes オプションで制限を解除可能

コネクタ

  • 予約タスクは MCP コネクタ を通じて外部サービスと連携可能
    • 例: Slack チャンネルのサポート依頼を読み取り、Linear に issue を作成
  • デフォルトでは接続済みのすべてのコネクタが含まれ、不要な項目は削除可能
  • コネクタはタスク作成フォーム、Settings > Connectors、CLI /schedule update で管理可能

環境設定

  • 各タスクは クラウド環境 で実行され、ネットワークアクセス、環境変数、インストールスクリプトを制御する
  • API アクセス、依存関係のインストール、ネットワーク制限などのために事前設定が必要
  • デフォルト環境(Default)以外にカスタム環境も作成可能

予約タスクの管理

  • Scheduled 一覧でタスクをクリックすると詳細ページに移動
    • リポジトリ、コネクタ、プロンプト、周期、過去の実行履歴を確認可能
  • 実行履歴の表示と操作

    • 各実行(run)をクリックすると完全なセッションとして開く
    • Claude の実行内容、変更点の確認、Pull Request の作成、会話の継続が可能
    • セッションタイトル横のドロップダウンから、名前変更、アーカイブ、削除が可能
  • タスクの編集と制御

    • Run now ですぐに実行
    • Repeats トグルで一時停止または再開
    • 編集アイコンで名前、プロンプト、周期、リポジトリ、環境、コネクタを修正
    • 削除アイコンでタスクを削除(既存セッションは保持)
    • CLI でも /schedule list/schedule update/schedule run コマンドで管理可能

関連リソース

1件のコメント

 
GN⁺ 2026-03-29
Hacker Newsのコメント
  • 公式サイトでは機能リリースを告知している一方で、利用制限はチームメンバーのTwitterアカウントで告知されているのが興味深い
    以前に利用量2倍を発表したとき、こうした**「ラグプル」**が来ると予想していた人もいた(関連ツイート

    • このやり方は合理的だと思う。全員の価格を上げる代わりに、特定の行動を誘導する方式だ。ちょうど時間帯別の通行料金のような考え方
    • Anthropicの価格方針のせいで、最近はGLM-5をより頻繁に使っている。Opus級ではないが、かなり実用的。運よくAlibaba Coding Modelの低価格プランを使えていたが、今はそのプランはなくなった
    • クラウド事業者を使うなら、こうした制約は受け入れるしかない。安定性を求めるなら、Mac StudioStrix Haloのようなローカル機材を買って、自前で推論環境を持つほうがよい
    • 2つ目のツイートの返信を見ると、AnthropicのClaude Codeエンジニアがその内容は事実ではないと述べている。誤情報が広まった事例だ
  • 私たちはますます、AIベースのソフトウェア反復開発が当たり前になる世界に近づいている
    信頼できるユーザーがフィードバックを出し、それをAIがチケット化し、別のAIがPRを作り、レビュー後にデプロイする構造だ
    もうほぼ完成段階に来ているように見える

    • 以前は私もその方向性を信じていたが、今は懐疑的だ。各段階でのエラー率が高すぎるし、それを減らそうとする仕組み自体がまた別のエラーを生む
      AIは保守しやすいコードを書けず、むしろ速度を落としてしまう。結局、AI支援コーディングのほうがはるかに効率的だ
      FAANGが1行あたり300ドルを使うのは、速度ではなく正確性と構造のためだ
    • この方向性自体は気に入っているが、推論コストが高すぎる。学習コストは許容できても、推論コストが下がるとモデル公開の動機がなくなる
      Taalasがモデルをハードウェアに直接焼き込めるなら大きな前進だろうが、結局はハードウェアのボトルネックに問題を移すだけだ
      いつかゲームボーイのカートリッジのようにモデルを差して使う時代が来るかもしれない
    • ユーザーの立場では、すでに人間が作ったソフトウェアとの距離が遠すぎて、誰が作ったかなど気にしていない
      Hacker Newsの投稿を読むのも、すでに何層もの自動化システムを経た結果だ
    • 何十年経っても、ユーザーがまともなチケットを書くのは相変わらず難しい
    • そうしたフィードバックループは結局、garbage-in → garbage-outを指数的に増幅するだけだ。「ロボットが自分で直す」という幻想に近い
  • 以前、ChatGPTのようなもので「毎朝8時に、通勤時間帯の交通渋滞があるときだけ知らせて」と設定したのに、渋滞がなくても毎日通知が来た

    • ほとんどのエージェントシステムは単にcronで解決しようとするが、prospective memoryの概念を無視している
      関連記事はThe Missing Memory Typeを参照
    • 結局はプロンプトをもっと明確に書く必要がある。プログラマーのジョークのように、条件の書き方を誤ると見当違いの結果になる
    • エージェントはループ内でツールを実行する。再現性のある結果を望むなら、「渋滞」の定義をツール側で明確にすべきだ
      私は天気、列車時刻表、勤務予定カレンダー、Telegram通知ツールをつないでこの仕組みを動かしている
      実際にはcronでも十分実装できる
    • pi-monoのようなものを使って評価基準を自分で定義すればよい(GitHubリンク
    • 私も同じ問題を経験した。システムはtrue positiveだけを通知できず、false positiveまで全部送ってくる。あまりに間抜けだ
  • 多くの人や企業がWeb自動化を望んでいたが、サイト運営者がそれを阻んできた
    ところが名前にAIを付けると、今は許される空気になっている

  • 最近、GitHub Copilot ProからClaude Code Max (20x)へ移った
    Claudeは多くの面で優れているが、リモート/クラウドエージェントの部分は弱い
    Elixirプロジェクトで「Claude on the web」を設定しようとしたが、ネットワークファイアウォールの問題で失敗した
    ログも末尾しか表示されず、デバッグが難しい
    一方でCopilotの「Coding Agents」は
    GitHub Actions
    のインフラを使っていて、ずっと安定している
    「Schedule task on the web」も同じ構造なので、似た問題が起きるのではと心配している

  • 結局、人々はAIではなく単純なルールベース自動化で十分な仕事をAIでやろうとするのだと思う
    「AIでXを解決しよう」という話は会社でもよく出るが、実際には不要なことが多い

    • 業界全体で「cronでジョブを実行する」といった基本的な自動化を、わざと妨げているように見える
      AIは「then」の部分を助けられるかもしれないが、「if」の条件をきちんと扱えるだけでも十分に有用だ
    • うちの会社も似た状況だ。M&Aの最中だが、投資家から「AIをもっと使わないと競争で遅れる」と圧力をかけられている
      AI導入そのものが目的化する現象が問題だ
    • こうしたシステムは、「今日お得なディールがあるか確認して」といった緩く直感的な作業のほうに向いている
    • ユーザーが意図を明確に表現できるなら有効だ。
      私は人々がエージェントスキルを理解できるよう支援する記事を書いた
      Building Agent Evals
      さらに、非決定性の問題を扱った記事もある
      Error Compounding
    • 一般ユーザーにとっては、「then」の部分を書くこと自体が難しい。結局、自然言語で意図を説明できるAIがその障壁を下げてくれる
  • 私はClaude Code Max 20xプランなのに、クラウド予約タスクは3件に制限されている
    それでも機能自体は魅力的だ。ローカルでは権限の問題が面倒だったが、クラウドサンドボックスで動かせる
    私が設定した3つのタスクは以下の通り

    1. 毎週月曜日に pnpm auditpnpm outdated を実行し、セキュリティ/更新レポートを作成
    2. 平日にSentryログとメトリクスを分析し、新しいイシューのレポートを作成
    3. 前日の develop ブランチのコミットをレビューし、バグ、セキュリティ、ドキュメント不足などを点検
      これを毎日/毎週自動実行すれば便利そうだ。Claude CodeのSentryコネクタはかなり正確だった
      今後は自動でイシュー作成やPR提出まで試してみるつもりだ
    • 実際のところ、cron1行で済む
      0 7 * * 1-5 ANTHROPIC_API_KEY=sk-... /path/to/claude-cron.sh /path/to/repo >> ~/claude-reports.md 2>&1
  • Claudeの速さには驚かされる。
    Grokはすでにこの機能を提供していたが、ようやく他も追随してきた
    こうした機能はユーザーロックイン効果が大きい。Grokは同時実行10件を無料で提供している
    私は毎朝、複数ソースからニュースを抽出するのに使っている

  • この機能にはやや制限がある。スクリーンショットを撮ったり、任意のドメインにcurlリクエストを送ったりできない
    そこで私はCronboxというクラウドサービスを作った
    「Show HN: Cronbox – Schedule AI Agents」として紹介したことがあり、
    作業例としてPelican Rides a Bicycleもある

  • 何か基本的な点を見落としている気がする。これはGitリポジトリに対してプロンプトを実行するものだとは分かるが、結果はどこへ行くのか?
    コミット権限を与えて直接反映するのか、それともMCPツール経由で動くのか気になる

    • MCPバンドリングによって提供される仕組みだ。かなり巧みなアプローチだ
    • 私たちは毎週、自動のセキュリティ監査を走らせ、その結果をSlackに投稿していた