ローカルLLM

HowTo

Dify × ローカルLLMで契約書チェックを成立させる、いちばん地味で安全な方法

DifyとローカルLLMを使い、契約書チェックを安全に成立させる方法を解説。Visionを使わない判断の理由、Dify×LM Studioの技術的制約、事故らない運用設計を2026年現在の視点で整理する。
HowTo

3分で置ける「社内LLM相談窓口」──DifyのチャットボットというAI導入の本来の価値

判断も結論も出さないLLM相談窓口を、Difyで3分で置く。業務ツールでも自動化でもない、「考えを整理する相手」を組織に許可するという選択。
TECH

軽量VLモデル百花繚乱の理由──なぜVisionは“小さくてよい”時代に入ったのか

軽量VLモデルが急増している理由を、構造と実用の視点から解説。なぜVisionは高性能よりも軽さが重要なのか、ローカル環境と相性の良さ、評価軸の変化を整理する。
TECH

Liquid AIの爆速・低燃費の親顔 ── LFM2-2.6B-Exp が「ローカルLLM+LM Studio」に持ち込んだもの

LFM2-2.6B-Expは、爆速・低燃費という特性でローカルLLMの使い方を変えるモデルだ。LM Studio上での体感速度、Qwen3との役割分担、小さいLLMの新しい価値を実運用視点で解説する。
TECH

Vision AI は「理解している」── Qwen-3-VL に写真を食わせたら、想像以上に“見えていた話”

Qwen-3-VL に写真を読み込ませたら、顔・名札・ナンバーなどの個人情報を理解していた。Vision AI は画像を「解析」ではなく「読解」する──その瞬間を記録したレポート。
TECH

Qwenは“見える”が“分かっていない” ─ Visionモデルの落とし穴と、危険な知識補完【Qwen 3-VL 実験レポート】

Qwen 3-VLは画像を正確に“見る”が、意味や知識を理解しているとは限らない。Vision推論で起こる「もっともらしい誤解」とハルシネーションの危険性を実例で解説。
HowTo

LM Studio × Qwen3-VL Vision推論─ローカルで写真を“自動タグ付け”する実装(HTML可視化付き)

LM Studio × Qwen3-VL でローカル Vision 推論を実装。画像を一括推論し、タグ・説明文・処理時間を HTML 可視化(report.html)するツール公開。JSONの地獄から卒業。
HowTo

LM Studio SDKで写真自動タグ付けを実現 ─ Vision推論は「Qwen3-VL」が「Gemma3」より4倍速かった

LM StudioでQwen 3-VL-4BとGemma-3-4b-itを同条件で比較。画像→説明→JSON化までのVision実行をp50/p95で速度計測。再現可能な手順・スクリプト・実務的な結論を提示。
TECH

Qwen 3-VL-4BをLM Studioで使いこなす!最適パラメータ設定と“思考の調律”完全ガイド

Qwen 3-VL-4BをLM Studioで最大限に活かすための最適パラメータと運用哲学を徹底解説。高速すぎるAIを“沈黙できる同僚”へと導く調律術。速さよりも文脈を、制御よりも共生を──AIを育てるための実践記録。
TECH

サリンジャーを語らせてみたQwen ─ 感情のピッチと文章の呼吸

3つのローカルLLM──Qwen、Gemma、GPT-OSS──に同一の文学的問いを投げかけた。「ホールデンは何を探し、何を恐れているのか?」AIたちはそれぞれ異なる“心の呼吸”で応えた。詩的に暴走するQwen、静かに佇むGemma、そして分析するGPT-OSS。AIが感情を語るとはどういうことか──その夜歩きを記録する。