reagea0 2025-09-11 | 親コメント | トピック: Claude、ファイルを直接作成・編集できるように (anthropic.com) ふむ……Excelベースの前処理が少し楽になるんでしょうか? bus710 2025-09-11 | 親コメント | トピック: Term.everything - ターミナルであらゆるGUIアプリを実行する (github.com/mmulet) 私は会社のMacで個人のMacを操作するのにSynergyを使っていたんですよね。今は個人のMacを手放してLinuxだけを使っているので、ワークフローが面倒になりました。 でもこのツールを使えば、会社のMacのターミナルから個人のLinuxデスクトップに接続して、いろいろな作業を自由にできるということですね? やはりセキュリティチームは嫌がりそうです。 coremaker 2025-09-11 | 親コメント | トピック: Term.everything - ターミナルであらゆるGUIアプリを実行する (github.com/mmulet) ローカルで解決して、デプロイ前にテストしたいという話ですよね? リモート先での作業、内部ネットワークへの接続が難しく制約の多い環境だったとき… cgl00 2025-09-11 | 親コメント | トピック: Term.everything - ターミナルであらゆるGUIアプリを実行する (github.com/mmulet) サーバーでWeb関連の実験(localhost経由)を行うときに便利そうです savvykang 2025-09-11 | 親コメント | トピック: 24年前のGameCube向け『どうぶつの森』、メモリハッキングで会話システムをLLMに置き換える (joshfonseca.com) Tom Nook はゲーム内の「たぬきち」キャラクターです click 2025-09-11 | 親コメント | トピック: Andromeda - Rustで実装されたJavaScript/TypeScriptランタイム (tryandromeda.dev) Bunでさえまだ nodejs API と100%互換になるには先が長いのに、これはどれくらいかかるんでしょうか huiya 2025-09-11 | 親コメント | トピック: E-paperディスプレイ、LCD画面並みに到達 (spectrum.ieee.org) わあ、電子書籍リーダーをよく使う立場としては、とても期待できるニュースですね coremaker 2025-09-11 | 親コメント | トピック: Term.everything - ターミナルであらゆるGUIアプリを実行する (github.com/mmulet) 私も古参なのでそう感じるのかもしれませんが、これって必要ですか? cnaa97 2025-09-11 | 親コメント | トピック: Andromeda - Rustで実装されたJavaScript/TypeScriptランタイム (tryandromeda.dev) こうしたプロジェクトの成功のポイントは、膨大な npm ライブラリエコシステムとどう統合するかにあるように見えます……nodejs と同一の API 仕様で開発しつつ、ランタイムだけを差し替えられるようにすること……既存の開発・運用中のコードベースの変更コストを最小限に抑え、互換性を確保できるなら……ただ、そもそも nodejs もそこまでメモリを多く使うわけではないので(笑) cocofather 2025-09-11 | 親コメント | トピック: Andromeda - Rustで実装されたJavaScript/TypeScriptランタイム (tryandromeda.dev) そうですね、私もまずその考えをしながら読んでいました bichi 2025-09-11 | 親コメント | トピック: 組織を壊す怠惰な思考の5つのタイプ [翻訳記事] (blogbyash.com) www 本当に笑うに笑えないですね tested 2025-09-11 | 親コメント | トピック: Andromeda - Rustで実装されたJavaScript/TypeScriptランタイム (tryandromeda.dev) Bunの話はなぜ出てこないんだろう… tensun 2025-09-11 | 親コメント | トピック: macOSでローカルLLMを試す (blog.6nok.org) ollama で qwen3:4b を使うのがおすすめです t7vonn 2025-09-11 | 親コメント | トピック: Term.everything - ターミナルであらゆるGUIアプリを実行する (github.com/mmulet) iTermの中でterm.everythingを使ってiTermを開いたら……どうなるんですか? lee111dae11 2025-09-11 | 親コメント | トピック: Andromeda - Rustで実装されたJavaScript/TypeScriptランタイム (tryandromeda.dev) https://ja.news.hada.io/topic?id=17845 上記の記事で、そのエンジンについて説明されていますね! crawler 2025-09-11 | 親コメント | トピック: 24年前のGameCube向け『どうぶつの森』、メモリハッキングで会話システムをLLMに置き換える (joshfonseca.com) すごくすごく面白いプロジェクトですね hided62 2025-09-11 | 親コメント | トピック: Andromeda - Rustで実装されたJavaScript/TypeScriptランタイム (tryandromeda.dev) JavaScriptなのにV8を使わないランタイムなんですね? うわぁ devmoon00 2025-09-11 | 親コメント | トピック: Windows XPをポートフォリオとして再現 (mitchivin.com) こんにちは。該当の投稿ととてもよく似たポートフォリオを開発中のバックエンド開発者です。まだ仕上げの修正中ではありますが、 私も率直なフィードバックをいただけないかと思い、コメントを残しました。 このようなコメントをするのが問題なければ、ポートフォリオのリンクを載せます。 +) それから、ここは初めてなのですが、常体のような簡潔な文体を使うのがルールなのか気になっています。 yolatengo 2025-09-11 | 親コメント | トピック: macOSでローカルLLMを試す (blog.6nok.org) Ollama の話がないですね ihabis02 2025-09-11 | 親コメント | トピック: GPUレンタルはばかげているほど安い (reddit.com) AIモデルを気軽にテストしたり学習したりするときによく使うサービスですね 基本的にJupyterLab環境がセットアップされていて使いやすいですし、ネットワーク速度もサーバーさえきちんと選べば一般的な家庭用インターネットよりずっと速い速度でモデルをダウンロードできるので、ちょっとしたテスト用途には十分だと思います コメントをさらに読み込む
ふむ……Excelベースの前処理が少し楽になるんでしょうか?
私は会社のMacで個人のMacを操作するのにSynergyを使っていたんですよね。今は個人のMacを手放してLinuxだけを使っているので、ワークフローが面倒になりました。
でもこのツールを使えば、会社のMacのターミナルから個人のLinuxデスクトップに接続して、いろいろな作業を自由にできるということですね?
やはりセキュリティチームは嫌がりそうです。
ローカルで解決して、デプロイ前にテストしたいという話ですよね?
リモート先での作業、内部ネットワークへの接続が難しく制約の多い環境だったとき…
サーバーでWeb関連の実験(localhost経由)を行うときに便利そうです
Tom Nook はゲーム内の「たぬきち」キャラクターです
Bunでさえまだ nodejs API と100%互換になるには先が長いのに、これはどれくらいかかるんでしょうか
わあ、電子書籍リーダーをよく使う立場としては、とても期待できるニュースですね
私も古参なのでそう感じるのかもしれませんが、これって必要ですか?
こうしたプロジェクトの成功のポイントは、膨大な npm ライブラリエコシステムとどう統合するかにあるように見えます……nodejs と同一の API 仕様で開発しつつ、ランタイムだけを差し替えられるようにすること……既存の開発・運用中のコードベースの変更コストを最小限に抑え、互換性を確保できるなら……ただ、そもそも nodejs もそこまでメモリを多く使うわけではないので(笑)
そうですね、私もまずその考えをしながら読んでいました
www 本当に笑うに笑えないですね
Bunの話はなぜ出てこないんだろう…
ollamaでqwen3:4bを使うのがおすすめですiTermの中でterm.everythingを使ってiTermを開いたら……どうなるんですか?
https://ja.news.hada.io/topic?id=17845
上記の記事で、そのエンジンについて説明されていますね!
すごくすごく面白いプロジェクトですね
JavaScriptなのにV8を使わないランタイムなんですね? うわぁ
こんにちは。該当の投稿ととてもよく似たポートフォリオを開発中のバックエンド開発者です。まだ仕上げの修正中ではありますが、
私も率直なフィードバックをいただけないかと思い、コメントを残しました。
このようなコメントをするのが問題なければ、ポートフォリオのリンクを載せます。
+) それから、ここは初めてなのですが、常体のような簡潔な文体を使うのがルールなのか気になっています。
Ollama の話がないですね
AIモデルを気軽にテストしたり学習したりするときによく使うサービスですね
基本的にJupyterLab環境がセットアップされていて使いやすいですし、ネットワーク速度もサーバーさえきちんと選べば一般的な家庭用インターネットよりずっと速い速度でモデルをダウンロードできるので、ちょっとしたテスト用途には十分だと思います