ide127 20 일 전 | 親コメント | トピック: 私は今でもSkillsよりMCPを好む (david.coffee) SkillsとMCPはそれぞれ異なる役割を持つものなのに、こういう記事のせいで混同が生じ続けている気がします。 xguru 21 일 전 | 親コメント | トピック: 私は今でもSkillsよりMCPを好む (david.coffee) 記事の最後にMCP Nestの宣伝をしないといけないので… ふふふ 比較的な主張がかなり支持を集めているみたいですね jujumilk3 21 일 전 | 親コメント | トピック: 私は今でもSkillsよりMCPを好む (david.coffee) 単に両者はまったく別物なのに、なぜこういう話がずっと出てくるのでしょうか xguru 21 일 전 | 親コメント | トピック: フランス、米国技術への依存を減らすためWindowsからLinuxへ移行 (techcrunch.com) あわせて読むとよい記事を見ると、欧州全体がこのように動いているように思えます greekr4 21 일 전 | 親コメント | トピック: Claude Code、エージェントが必要なときに起こしてくれる Monitor Tool 機能を導入 (x.com/noahzweben) まずはチャンネル機能をもう少し安定させてほしい…。 wfedev 21 일 전 | 親コメント | トピック: AXチームを作った瞬間、あなたの組織はAXに失敗する (flowkater.io) 現場のボトルネックを知っている人たちが重要なようです。 cgl00 21 일 전 | 親コメント | トピック: OpenAI、危険性を理由に新言語モデル GPT-2 の完全公開を保留(2019) (slate.com) 今見ると笑ってしまいますねwww 10年も経たないうちに笑えるほどの状況になってしまったのが、逆に恐ろしくもあります heycalmdown 21 일 전 | 親コメント | トピック: Advisor戦略: Opusをアドバイザーとして活用し、Sonnetの知能を引き上げる (claude.com) 現時点では特別目新しいアイデアではありませんが、インターフェースシグネチャやワークフローを壊さずに実行できるという点で、良いやり方だと思います。 sea715 22 일 전 | 親コメント | トピック: OpenAI、危険性を理由に新言語モデル GPT-2 の完全公開を保留(2019) (slate.com) 正確には、アモデイがいた時代のOpenAIがGPT-2を非公開にした理由と、Mithosモデルを非公開にする理由が似ているので投稿されたようですね。当時のアモデイも今のアモデイも、変わっていない…… xguru 22 일 전 | 親コメント | トピック: OpenAI、危険性を理由に新言語モデル GPT-2 の完全公開を保留(2019) (slate.com) ほとんどは取り込まれるようになっているのですが、今回のものは不思議なことに抜けたまま処理されていました。これは手を加えないように修正します。 snisty 22 일 전 | 親コメント | トピック: AXチームを作った瞬間、あなたの組織はAXに失敗する (flowkater.io) AX推進チームが悪いというよりは.. AXチームを作っておいて「君たちはAXチームなんだから、早くAIで自動化してみて」が問題だ、ということだと思います.. ドメインの現場担当者が主導し、AX技術者がサポートしながらAIを導入するのが一番よさそうですが.. winterjung 22 일 전 | 親コメント | トピック: OpenAI、危険性を理由に新言語モデル GPT-2 の完全公開を保留(2019) (slate.com) 参考までに、GPT-2に言及している文章の内容や原文の作成年が2019年であることを見れば分かると思いますが、最近AnthropicがMysosモデルは危険すぎるので公開しないと言ったことに対して、以前のOpenAIもGPT-2で大げさに騒いでいた、という文脈があります。 HNの場合、昔の投稿なら年を付ける慣習があるようですが(自動で付くのかまでは分かりません)、GeekNewsでも表示されるとよさそうですね savvykang 22 일 전 | 親コメント | トピック: OpenAI、危険性を理由に新言語モデル GPT-2 の完全公開を保留(2019) (slate.com) サム・アルトマンはオッペンハイマーに感情移入しているのでしょうか。危険なら安全に補完した後で公開してもよさそうなのに、使うよう勧めるのは前後のつじつまが合わないと思います。Anthropic Mythosの事例も同じだと思います unsure4000 22 일 전 | 親コメント | トピック: OpenAI、危険性を理由に新言語モデル GPT-2 の完全公開を保留(2019) (slate.com) Anthropic が言っていたことには信頼感があったのに、OpenAI が言っていたことはどうしてこんなに信頼できないのでしょうか。 Anthropic は zero day パッチ作成で show-and-proof をやって見せたからでしょうか。 OpenAI がすでにこのレパートリーを何度も使ってきたからでしょうか。 picopress 22 일 전 | 親コメント | トピック: MicrosoftがVeraCryptアカウントを終了し、Windowsアップデートが停止 (404media.co) Windowsドライバーは別ではないでしょうか ndrgrd 22 일 전 | 親コメント | トピック: MicrosoftがVeraCryptアカウントを終了し、Windowsアップデートが停止 (404media.co) こういうことを見るたびに感じますが、署名を確認する作業はプラットフォームではなくユーザーが行うべきです。開発者は自分の鍵で署名し、ユーザーは信頼できる開発者の鍵を自分のデバイス上で許可して使うべきでしょう。 これが分からない、そっちで勝手にやってくれというのは話になりません。コンピューターに関心があるかどうかはさておき、自分が使うものなら必ず身につけるべき習慣です。 スマートフォンを使い、インターネットを見るなら、ウェブページやメッセージ、電話で言われることを無条件に信じてはいけないし、取捨選択できる能力が必要だというレベルの基本的な指針です。 WindowsのUACのように、特定の開発者を信頼するかどうかをボタン1つで確認できるUIくらいであれば、コード署名や鍵という概念を知らない人でも使えるでしょう。 haebom 22 일 전 | 親コメント | トピック: MAUの時代の終焉、MRRももう信用できない? (maily.so) とても分かりやすく整理してくださっていました。ありがとうございます。 blacksocks 22 일 전 | 親コメント | トピック: バイブコーディング崇拝は狂っている (bramcohen.com) 中途半端なプロジェクトが氾濫し… プログラミングを半端にしか知らない人たちは熱狂し… blacksocks 22 일 전 | 親コメント | トピック: agent-skills - AIコーディングエージェント向けのプロダクショングレードなエンジニアリングスキル集 (github.com/addyosmani) 社内でバイブコーディングだけで開発してみろという指示が出て、あれこれ試してみたのですが、いざやってみると、優れた開発スキルがそのまま高い品質を保証するわけではないんですよね.. むしろAIが生み出したコードをレビューして理解する能力こそが核心のようです。ツールが良くなるほど「読んで判断する力」がより重要になるという、ある種の皮肉でしょうか。 cafedead 22 일 전 | 親コメント | トピック: MAUの時代の終焉、MRRももう信用できない? (maily.so) AI時代には、ARRはもはや信頼できる共通指標ではないかもしれないという主張 テック業界の代表的な指標は、時代ごとに変わってきた ソーシャル時代: DAU/MAU SaaS時代: ARR/MRR AI時代: 従来のARRも現実を歪める可能性が高まっているという問題提起 議論の出発点はAnthropicの数字の不一致 2026年2月にはARR 140億ドルを強調 1か月後に裁判所へ提出した文書には「創業以来の累計売上が50億ドル超」と記載 同じ会社、近い時点なのに数字の意味が大きく異なる 著者はこれを「AI時代にARRが実際の事業状況を適切に説明できていないサイン」と解釈 AIでARRが揺らぐ理由は3つ 限界費用がほぼ0というSaaSの前提が崩れる AIは推論の呼び出しごとにGPU/クラウド費用が実際に発生 使えば使うほどコストも増える 顧客ごとの原価差が非常に大きい 同じ料金を払っていても、ある顧客は低コスト、別の顧客は高コスト ARRだけを見るとどちらも同じ「良い売上」に見えるが、実際の収益性は大きく異なる 反復売上の安定性が弱い SaaSより切り替えコストが低く、別のモデル/サービスへ移りやすい 「Recurring」そのものが以前より堅固ではない そのためAI企業のARRは「成長」は示せても、収益性・持続性・事業の質はうまく示せない可能性がある かつてDAU/MAUがユーザーの関心は示しても、事業の健全性は示せなかったのと似た構造だという主張 AnthropicやOpenAIの事例も、こうした問題を示していると見る 公表されるARRと実際の累計売上、半期実績、キャッシュ消費の速度の間に差がある つまり「年換算」の数字を実際の年間実績と同じ意味で読むと誤解が生じうる 著者が提示したAI時代の次世代候補指標 支出に対する生産性 (Productivity per Dollar Spent) 単純にARR/従業員数ではなく ARR / (人件費 + AIコスト)のように見てこそ、実際の効率が見える 初年度価値 (First Year Value) LTVのように遠い将来を仮定するより 顧客が最初の12か月以内に更新するだけの十分な価値を得たかを見る視点 トークン当たり売上総利益のようなユニットエコノミクス中心の指標 どれだけ多く処理したかより どれだけ利益を残しながら処理したかのほうが重要 重要なメッセージ AI時代には売上規模より、売上総利益の構造、顧客ごとの収益性、初年度に残る価値を見るべき 数字の大きさより、数字の構造を読むべきだという話 現実的な課題もある こうした第3世代指標を正しく見るには 請求、インフラ費用、財務システムが連携している必要があるが ほとんどのAI企業はまだその水準の計測インフラを欠いている 一言要約 AIビジネスはSaaSのようにARRひとつで説明しにくくなっており、今後は「どれだけ売ったか」よりも「どれだけ利益を残し、どれだけ維持できるか」を示す指標の重要性が高まるだろう コメントをさらに読み込む
SkillsとMCPはそれぞれ異なる役割を持つものなのに、こういう記事のせいで混同が生じ続けている気がします。
記事の最後にMCP Nestの宣伝をしないといけないので… ふふふ 比較的な主張がかなり支持を集めているみたいですね
単に両者はまったく別物なのに、なぜこういう話がずっと出てくるのでしょうか
あわせて読むとよい記事を見ると、欧州全体がこのように動いているように思えます
まずはチャンネル機能をもう少し安定させてほしい…。
現場のボトルネックを知っている人たちが重要なようです。
今見ると笑ってしまいますねwww 10年も経たないうちに笑えるほどの状況になってしまったのが、逆に恐ろしくもあります
現時点では特別目新しいアイデアではありませんが、インターフェースシグネチャやワークフローを壊さずに実行できるという点で、良いやり方だと思います。
正確には、アモデイがいた時代のOpenAIがGPT-2を非公開にした理由と、Mithosモデルを非公開にする理由が似ているので投稿されたようですね。当時のアモデイも今のアモデイも、変わっていない……
ほとんどは取り込まれるようになっているのですが、今回のものは不思議なことに抜けたまま処理されていました。これは手を加えないように修正します。
AX推進チームが悪いというよりは..
AXチームを作っておいて「君たちはAXチームなんだから、早くAIで自動化してみて」が問題だ、ということだと思います..
ドメインの現場担当者が主導し、AX技術者がサポートしながらAIを導入するのが一番よさそうですが..
参考までに、GPT-2に言及している文章の内容や原文の作成年が2019年であることを見れば分かると思いますが、最近AnthropicがMysosモデルは危険すぎるので公開しないと言ったことに対して、以前のOpenAIもGPT-2で大げさに騒いでいた、という文脈があります。
HNの場合、昔の投稿なら年を付ける慣習があるようですが(自動で付くのかまでは分かりません)、GeekNewsでも表示されるとよさそうですね
サム・アルトマンはオッペンハイマーに感情移入しているのでしょうか。危険なら安全に補完した後で公開してもよさそうなのに、使うよう勧めるのは前後のつじつまが合わないと思います。Anthropic Mythosの事例も同じだと思います
Anthropic が言っていたことには信頼感があったのに、OpenAI が言っていたことはどうしてこんなに信頼できないのでしょうか。
Anthropic は zero day パッチ作成で show-and-proof をやって見せたからでしょうか。
OpenAI がすでにこのレパートリーを何度も使ってきたからでしょうか。
Windowsドライバーは別ではないでしょうか
こういうことを見るたびに感じますが、署名を確認する作業はプラットフォームではなくユーザーが行うべきです。開発者は自分の鍵で署名し、ユーザーは信頼できる開発者の鍵を自分のデバイス上で許可して使うべきでしょう。
これが分からない、そっちで勝手にやってくれというのは話になりません。コンピューターに関心があるかどうかはさておき、自分が使うものなら必ず身につけるべき習慣です。
スマートフォンを使い、インターネットを見るなら、ウェブページやメッセージ、電話で言われることを無条件に信じてはいけないし、取捨選択できる能力が必要だというレベルの基本的な指針です。
WindowsのUACのように、特定の開発者を信頼するかどうかをボタン1つで確認できるUIくらいであれば、コード署名や鍵という概念を知らない人でも使えるでしょう。
とても分かりやすく整理してくださっていました。ありがとうございます。
中途半端なプロジェクトが氾濫し…
プログラミングを半端にしか知らない人たちは熱狂し…
社内でバイブコーディングだけで開発してみろという指示が出て、あれこれ試してみたのですが、いざやってみると、優れた開発スキルがそのまま高い品質を保証するわけではないんですよね..
むしろAIが生み出したコードをレビューして理解する能力こそが核心のようです。ツールが良くなるほど「読んで判断する力」がより重要になるという、ある種の皮肉でしょうか。
一言要約
AIビジネスはSaaSのようにARRひとつで説明しにくくなっており、今後は「どれだけ売ったか」よりも「どれだけ利益を残し、どれだけ維持できるか」を示す指標の重要性が高まるだろう