ローカル環境でLLM(大規模言語モデル)を動かしたい方へ。
本ページでは、Gemma・gpt-oss・Llama を中心に「LM Studio」で導入・活用するための記事をまとめました。
初心者の方には「導入手順と用語解説」から、経験者には「RAG・Reasoning Effort・MCP連携」といった応用記事まで、レベル別に整理しています。
これ一つで ローカルLLMの入口から応用実験まで 一気に見通せます。
初心者向け(入口編)
環境構築からRAG活用まで、初心者に最適な導入手順を丁寧に解説。
混乱しやすい専門用語を30語まとめ。これを読めばローカルLLMの基礎が理解できます。
中小企業がローカルLLMをどう活かせるのか、導入の意義とコスト感を解説。
robots.txtとの違いやAI学習との関係を整理。Web管理者向けの基礎知識。
中級者向け(実用編)
軽量RAGの選択肢は広まっています。ここではSQLite-RAGに焦点を当て、実務レベルでの有用性を探っています。
ローカルLLM期待の新星、Hermes-4の実力をGemma/gpt-oss と徹底比較しました。
gpt-ossの実力をRTX3060で徹底検証。性能と知識レベルのリアルなレポート。
期待と裏腹に失速…?その原因と改善のヒントを分析。
Low/Medium/Highの設定差を比較。LLMの「思考の深さ」に迫ります。
ガチャを題材に「AIは迷えるか?」を検証した実験記事。
上級者向け(実験・応用編)
外部検索を統合して「ChatGPTライク」な使用感を実現したレポート。
MCP導入でWebに羽ばたいたgpt-ossの体験記。「飛べないLLMはただのLLM」という実感をユーモラスに解説。
LLMに書いてもらった原稿を同じLLMにチェックしてもらって精度を上げる。人間ならダブルチェックを同じ人がやるのはご法度ですが、AIなら違います。
花火JSは成功、ブロック崩しは未完。ローカルCodex遊びの実録レポート。
RSS収集+要約+翻訳で、ローカル環境から「自分専用AI朝刊」を自動配信。
文学の一節をAIに読ませた実験的記事。「AIは文学をどう理解するか」を探る。
EOKの殻に閉じ込めれれたLLMが”Web検索”という翼を得たら、どんな反応を示すのか?それは、新しい知識を得た子供のように、微笑ましく温かい物語。
Gemmaの超軽量モデルが登場。日本語はまともに扱えないレベルであることが判明するも、そこに込められたGoogleの意図を見た。
ローカルLLM にも Contex7 を! LM Studio x gpt-oss x Contex7 MCP の使い勝手を検証。
Blender を MCP サーバー経由で LM Studio x gpt-oss で自然語で操る新感覚。
























