ふむ……Excelベースの前処理が少し楽になるんでしょうか?

 

私は会社のMacで個人のMacを操作するのにSynergyを使っていたんですよね。今は個人のMacを手放してLinuxだけを使っているので、ワークフローが面倒になりました。

でもこのツールを使えば、会社のMacのターミナルから個人のLinuxデスクトップに接続して、いろいろな作業を自由にできるということですね?

やはりセキュリティチームは嫌がりそうです。

 

ローカルで解決して、デプロイ前にテストしたいという話ですよね?
リモート先での作業、内部ネットワークへの接続が難しく制約の多い環境だったとき…

 

サーバーでWeb関連の実験(localhost経由)を行うときに便利そうです

 

Tom Nook はゲーム内の「たぬきち」キャラクターです

 

Bunでさえまだ nodejs API と100%互換になるには先が長いのに、これはどれくらいかかるんでしょうか

 

わあ、電子書籍リーダーをよく使う立場としては、とても期待できるニュースですね

 

私も古参なのでそう感じるのかもしれませんが、これって必要ですか?

 

こうしたプロジェクトの成功のポイントは、膨大な npm ライブラリエコシステムとどう統合するかにあるように見えます……nodejs と同一の API 仕様で開発しつつ、ランタイムだけを差し替えられるようにすること……既存の開発・運用中のコードベースの変更コストを最小限に抑え、互換性を確保できるなら……ただ、そもそも nodejs もそこまでメモリを多く使うわけではないので(笑)

 

そうですね、私もまずその考えをしながら読んでいました

 

www 本当に笑うに笑えないですね

 

Bunの話はなぜ出てこないんだろう…

 
tensun 2025-09-11 | 親コメント | トピック: macOSでローカルLLMを試す (blog.6nok.org)

ollamaqwen3:4b を使うのがおすすめです

 

iTermの中でterm.everythingを使ってiTermを開いたら……どうなるんですか?

 

https://ja.news.hada.io/topic?id=17845

上記の記事で、そのエンジンについて説明されていますね!

 

すごくすごく面白いプロジェクトですね

 

JavaScriptなのにV8を使わないランタイムなんですね? うわぁ

 

こんにちは。該当の投稿ととてもよく似たポートフォリオを開発中のバックエンド開発者です。まだ仕上げの修正中ではありますが、
私も率直なフィードバックをいただけないかと思い、コメントを残しました。

このようなコメントをするのが問題なければ、ポートフォリオのリンクを載せます。
+) それから、ここは初めてなのですが、常体のような簡潔な文体を使うのがルールなのか気になっています。

 
yolatengo 2025-09-11 | 親コメント | トピック: macOSでローカルLLMを試す (blog.6nok.org)

Ollama の話がないですね

 

AIモデルを気軽にテストしたり学習したりするときによく使うサービスですね
基本的にJupyterLab環境がセットアップされていて使いやすいですし、ネットワーク速度もサーバーさえきちんと選べば一般的な家庭用インターネットよりずっと速い速度でモデルをダウンロードできるので、ちょっとしたテスト用途には十分だと思います