RAG

TECH

Difyマーケットプレイスが暴いた、生成AIインフラの現実──ツールDL数から読む「賢さより互換性」の時代

Difyマーケットプレイスのダウンロード数を手がかりに、生成AIインフラの現在地を分析。モデル互換性、API前提ツール、MCP拡張、RAGとストレージの選別など、実際に「使われている」選択からAIの現実を読み解く。
HowTo

AIアプリ構築シリーズ

AIを“使う側”ではなく“仕組みに組み込む側”へ――。情報漏洩ゼロ・API費用ゼロで導入可能な「AIアプリ構築シリーズ」。LM Studioを軸に、RAG・API連携・自動化までを最短ルートで解説します。
TECH

AIが先に動く ― LM Studio × 自動化(プロアクティブ運用の最短ルート)

「AIに頼む」から一歩進んで、AIが先に動いて“用意しておく” 世界へ。ここでは、LM Studioを トリガー(合図)→ ポリシー(判断)→ アクション(実行) の3レイヤで自動化し、人間が触る前に下ごしらえが終わる状態を作ります。いまの...
TECH

RAG精度を一気に高める ― PDFをただ読み込ませるだけでは不十分な理由と、“分割設計” の最適ルール

RAGの精度を左右するのは「PDFを読み込ませたか」より、「どう区切って前処理したか」。LM Studioで活かせるチャンク分割設計の最適基準を、具体例と共に実戦的に示します。
TECH

LM StudioでPDFやマニュアルを読み込ませる方法(RAG入門)

LM StudioにPDFやマニュアルを読み込ませ、AIに自分専用の知識を与えるRAGの第一歩を解説。UI操作だけで実現できる最短ルートとして、初学者でも確実に再現できる内容です。
TECH

Embedding Gemmaとは何者か ─ RAG以外の応用を探る

LM Studioに追加された「Embedding Gemma」は、チャット用ではなく文章を数値化する埋め込み専用モデルです。RAG以外にもFAQ検索やナレッジ整理など軽量な用途に生きる、その立ち位置を整理します。
TECH

専用チップ時代に台頭するGroq ─ RAGの即時応答を可能にする仕組み

GPU万能時代の次。GroqのLPU(Language Processing Unit)がもたらす決定論的な低遅延と高速トークン生成は、RAG(Retrieval-Augmented Generation)での“待ち時間ほぼゼロ”体験に直結する。アーキテクチャの背景、公開ベンチマーク、実例、設計上の勘所をまとめる。
HowTo

Milvus Liteを試す ─ SQLite-RAG比較とRESTで広がる応用

Milvus Liteを導入して、SQLite-RAGとの検索速度を比較しました。就業規則PDF由来の121件/384次元データを用いた実測では、Milvusは平均2.59ms/クエリでSQLiteの約2倍速。REST対応やUI化の容易さも含め、PoCから本番まで広がるベクトルDBの魅力を紹介します。
HowTo

軽量RAGの現実解:SQLite-RAG × LM Studio 実践と運用の勘どころ

軽量RAGの代表例「SQLite-RAG」をLM Studioと組み合わせて実践。完全ローカル環境での構築手順から、精度・応答速度の制約、適したユースケースまでを整理する。ベクトルDBとの比較や運用上の勘どころも解説。
HowTo

ローカルLLM完全ガイド|Gemma・gpt-oss・LlamaをLM Studioで動かす導入手順まとめ

Gemma・gpt-oss・LlamaをLM Studioで導入するための完全ガイド。初心者向けの環境構築や用語解説から、Reasoning Effort検証・MCP連携など上級者向け応用記事までを体系的に整理。ローカルLLMを始めたい人必見のまとめページ。