ローカルLLM

TECH

軽量VLモデル百花繚乱の理由──なぜVisionは“小さくてよい”時代に入ったのか

軽量VLモデルが急増している理由を、構造と実用の視点から解説。なぜVisionは高性能よりも軽さが重要なのか、ローカル環境と相性の良さ、評価軸の変化を整理する。
TECH

Liquid AIの爆速・低燃費の親顔 ── LFM2-2.6B-Exp が「ローカルLLM+LM Studio」に持ち込んだもの

LFM2-2.6B-Expは、爆速・低燃費という特性でローカルLLMの使い方を変えるモデルだ。LM Studio上での体感速度、Qwen3との役割分担、小さいLLMの新しい価値を実運用視点で解説する。
TECH

Vision AI は「理解している」── Qwen-3-VL に写真を食わせたら、想像以上に“見えていた話”

Qwen-3-VL に写真を読み込ませたら、顔・名札・ナンバーなどの個人情報を理解していた。Vision AI は画像を「解析」ではなく「読解」する──その瞬間を記録したレポート。
TECH

Qwenは“見える”が“分かっていない” ─ Visionモデルの落とし穴と、危険な知識補完【Qwen 3-VL 実験レポート】

Qwen 3-VLは画像を正確に“見る”が、意味や知識を理解しているとは限らない。Vision推論で起こる「もっともらしい誤解」とハルシネーションの危険性を実例で解説。
HowTo

LM Studio × Qwen3-VL Vision推論─ローカルで写真を“自動タグ付け”する実装(HTML可視化付き)

LM Studio × Qwen3-VL でローカル Vision 推論を実装。画像を一括推論し、タグ・説明文・処理時間を HTML 可視化(report.html)するツール公開。JSONの地獄から卒業。
HowTo

LM Studio SDKで写真自動タグ付けを実現 ─ Vision推論は「Qwen3-VL」が「Gemma3」より4倍速かった

LM StudioでQwen 3-VL-4BとGemma-3-4b-itを同条件で比較。画像→説明→JSON化までのVision実行をp50/p95で速度計測。再現可能な手順・スクリプト・実務的な結論を提示。
TECH

Qwen 3-VL-4BをLM Studioで使いこなす!最適パラメータ設定と“思考の調律”完全ガイド

Qwen 3-VL-4BをLM Studioで最大限に活かすための最適パラメータと運用哲学を徹底解説。高速すぎるAIを“沈黙できる同僚”へと導く調律術。速さよりも文脈を、制御よりも共生を──AIを育てるための実践記録。
TECH

サリンジャーを語らせてみたQwen ─ 感情のピッチと文章の呼吸

3つのローカルLLM──Qwen、Gemma、GPT-OSS──に同一の文学的問いを投げかけた。「ホールデンは何を探し、何を恐れているのか?」AIたちはそれぞれ異なる“心の呼吸”で応えた。詩的に暴走するQwen、静かに佇むGemma、そして分析するGPT-OSS。AIが感情を語るとはどういうことか──その夜歩きを記録する。
TECH

Qwen 3-VL-4BはGemmaを超えた“直線番長” ─ 文法は速く、意味は曲がらない

WebGPU解説文を題材に、Qwen 3-VL-4Bの日本語生成を分析。文法は正確、速度も圧倒的。しかし意味が前に進まない“直線番長AI”の実像を描く。Gemma・Hermes・GPT-OSSとの文体比較で、AIが「語る」ための条件を探る。
TECH

激速!Qwen 3-VL-4B ─ ローカルLLM4モデル横断で見えたコーディング能力の性格差

ローカルLLM4モデル(Qwen 3-VL-4B/Hermes 4-14B/Gemma 3n-E4B/GPT-OSS-20B)の同一タスク実測から、コーディング能力と出力傾向を比較。Qwenの“待たせない速さ”、GemmaとGPT-OSSの堅牢性、Hermesの中庸バランスを実測で可視化する。