サーバーでWeb関連の実験(localhost経由)を行うときに便利そうです

 

Tom Nook はゲーム内の「たぬきち」キャラクターです

 

Bunでさえまだ nodejs API と100%互換になるには先が長いのに、これはどれくらいかかるんでしょうか

 

わあ、電子書籍リーダーをよく使う立場としては、とても期待できるニュースですね

 

私も古参なのでそう感じるのかもしれませんが、これって必要ですか?

 

こうしたプロジェクトの成功のポイントは、膨大な npm ライブラリエコシステムとどう統合するかにあるように見えます……nodejs と同一の API 仕様で開発しつつ、ランタイムだけを差し替えられるようにすること……既存の開発・運用中のコードベースの変更コストを最小限に抑え、互換性を確保できるなら……ただ、そもそも nodejs もそこまでメモリを多く使うわけではないので(笑)

 

そうですね、私もまずその考えをしながら読んでいました

 

www 本当に笑うに笑えないですね

 

Bunの話はなぜ出てこないんだろう…

 
tensun 2025-09-11 | 親コメント | トピック: macOSでローカルLLMを試す (blog.6nok.org)

ollamaqwen3:4b を使うのがおすすめです

 

iTermの中でterm.everythingを使ってiTermを開いたら……どうなるんですか?

 

https://ja.news.hada.io/topic?id=17845

上記の記事で、そのエンジンについて説明されていますね!

 

すごくすごく面白いプロジェクトですね

 

JavaScriptなのにV8を使わないランタイムなんですね? うわぁ

 

こんにちは。該当の投稿ととてもよく似たポートフォリオを開発中のバックエンド開発者です。まだ仕上げの修正中ではありますが、
私も率直なフィードバックをいただけないかと思い、コメントを残しました。

このようなコメントをするのが問題なければ、ポートフォリオのリンクを載せます。
+) それから、ここは初めてなのですが、常体のような簡潔な文体を使うのがルールなのか気になっています。

 
yolatengo 2025-09-11 | 親コメント | トピック: macOSでローカルLLMを試す (blog.6nok.org)

Ollama の話がないですね

 

AIモデルを気軽にテストしたり学習したりするときによく使うサービスですね
基本的にJupyterLab環境がセットアップされていて使いやすいですし、ネットワーク速度もサーバーさえきちんと選べば一般的な家庭用インターネットよりずっと速い速度でモデルをダウンロードできるので、ちょっとしたテスト用途には十分だと思います

 
kangbj1026 2025-09-11 | 親コメント | トピック: できるだけでは十分ではない (joshs.bearblog.dev)

本当に必要だった文章です。漠然と「もっと頑張る」ことばかり考えていましたが、具体的な方向性を示してくださってありがとうございます。
特に「仕事が勝手に語ってくれる」という思い込みの部分は胸に刺さりました。数年前、良い成果を出したのに評価されなかった経験を思い出します。可視性の重要性を遅ればせながら気づきました。

 

自動フォーマットによって、中間表現がなくても既存の言語でまったく同じことができる、という話をしたかったのですが、説明が足りませんでしたね。

 
mango 2025-09-10 | 親コメント | トピック: Adblocker が検出されません (maurycyz.com)

Braveブラウザをおすすめします