LM StudioでPDFやマニュアルを読み込ませる方法(RAG入門)

LM Studio で RAG運用 TECH

「ChatGPTにはできないこと」に初めて踏み込む瞬間

もしあなたが「ChatGPTにPDFを渡しても、ページ単位でしか答えられない」「そもそも社外秘の資料は怖くてアップできない」と感じた経験があるなら――LM Studioは、あなたのための次の扉です。
ここからが“AIをただ使う人”から、“AIを自分の知識で育てる人”になる” 分岐点です。

そして、その第一歩となるのが RAG(Retrieval-Augmented Generation)
名前は難しそうに見えますが、要するに

「PDFやマニュアルを丸ごと“AIの参照知識”として読み込ませる仕組み」

のことです。
つまり、“ChatGPTのように忘れるAI” ではなく、“あなたの知識を深く長く覚えてくれるAI” を手元で作る、という話になります。


いま、あなたが到達している地点

LM Studioの意味と導入のイメージが理解できたあなたは、すでに

  • ChatGPTとは違い 「AIを自分の所有物としてPCで動かせる」 ことを理解し
  • “ここからは、用途に応じてAIを育てる段階に入る” ことに気づきかけています

次の一歩は――そのAIに 「あなたの情報」 を与えることです。
ここが一気に生産性を引き上げる“決定的な転換点”になります。

RAGとは何か?──“AIに情報を送り込む”のではなく、“AIの参照範囲に置く”という発想

多くの人が最初に誤解するのは、

「AIに情報を“記憶させる”」=「ChatGPTにコピペして教えること」

ですが、これでは一時的な入力であり、長くは保持されません。
しかもChatGPTは基本的に会話のたびに記憶がリセットされるため、“積み上げ”が効きません。


RAGはその逆です

「AIに覚えさせる」のではなく
「AIの背後に“検索可能な知識DB”を置く」仕組み

つまり、AIが回答するたびに、その裏にあるPDFやマニュアルを“参照”して補完しながら応答してくれる方式。
これなら ――

  • 大量PDF・マニュアル・社内規程 → すべて AIの“裏メモリ”に
  • 忘れない
  • ズレない
  • 毎回貼り付ける必要がない
  • しかも 情報漏洩の恐れゼロ(LM StudioならPC内で完結)

ここで見えてくる、本当の価値

  • 「ChatGPTが自分の会社の規程や仕様を知らないから育てたい」
  • 「PDFの内容をいちいち投げ直したくない」
  • 「“前提情報を理解したうえでの”回答がほしい」

それをすべて叶える第一歩こそが “RAGの導入” です。

LM StudioでRAGを始める最初の行動は「Chatではなく“Docs”タブに進む」こと

ほとんどの人が最初に戸惑うポイントがここです。

❌ Chat画面でPDFを添付しようとする
✅ 正解は「Docs」タブ(※または「Knowledge」表記の場合もあり)

LM Studioでは、RAG用のドキュメントはすべて Chatとは別の場所に“事前登録” します。
これにより “会話のたびにPDFを貼らなくていい” というメリットが生まれます。


初回でやることは、この3ステップだけ

STEP 1. LM Studioを起動し、「Docs」タブを開く
→ メニュー上部の Chat / Models / Docs / API … の中の「Docs」

STEP 2. 「Add Knowledge」または「Import Documents」ボタンを押す
→ PDF / MD / TXT / カスタムデータ などをドラッグ&ドロップで登録

STEP 3. 「Chat」タブに戻ってモデルを起動→ “Docsを参照するモード” を選択
→ 多くの場合、Chat入力欄の上に 「Knowledge Source:(選択)」 という項目が表示されている
→ ここで「Docsで読み込んだPDFセット」を選ぶ


ここまで来れば、あとは普通にChat入力すれば
“そのPDFを前提にしたAI回答” が始まります。

RAGで最初に注意すべき “たった3つのポイント”

① 「PDFなら何でもOK」ではない

  • 文字情報として読めるPDFだけが対象(=画像PDFはNG)
  • もし画像系PDFなら → 先にOCR変換 or txt/markdown化する必要あり
     → とはいえ 日本語PDFでも大半はそのまま通る ので過度に警戒不要

② 「登録しただけでは反映されない」ケースがある

  • Docs にPDFを入れても、Chat側で “どのKnowledge Sourceを使うか” を明示的に選ぶ必要あり
  • 多くの人はこれを見落とす → 「反応しない」と勘違いしてしまう
    Chat画面上部の “Knowledge / Source / RAG” の選択欄を確認する癖 をつける

③ “Chatの上下文” ではなく “裏メモリ” として機能する

  • 「このPDFを読んでください」とチャット内で指示する必要はない
  • 逆に、ChatGPTのような「貼り付ける説明」は不要
  • 重要なのは「裏に参照可能な知識ベースが常設されている」という発想

ここを理解しておくだけで、RAG導入の95%は**「初回から成功」** に持っていけます。

RAGを“正しく起動している質問”と“ただのAI質問”の違い

RAGを理解するうえで最重要なのは、「質問の構造」です。
RAGを使っているつもりで、実はただのLLMチャット
になっている人が非常に多い。


NG例(RAGを“使えていない”質問)

「このPDFに書かれている内容を説明してください」

← これはChatGPT的な貼り付け前提の発想。
 LM Studioでは裏に登録済みなので、わざわざ知らせる必要がない


OK例(RAGを“発動できている”質問)

「この案件Aの手順がPDF内のどこに載っているか、要点だけまとめて教えて」
「登録したマニュアルに沿って、Bのケースで発生する注意点だけ整理してほしい」

“参照を前提にしている”表現が鍵
→ 「PDFに書いてある」という説明を省き、“あくまでAIに知識としてある前提” で話す


この記事のポイント(まとめ)

  • LM StudioでPDFを使ったRAGは、“AIに教える”ではなく“AIの裏に知識を置く” という設計
  • その結果、ChatGPTでは不可能な “継続参照AI” を、完全ローカルで構築できる
  • Chatで“PDF読んで”と言う必要は一切ない(=初心者最大の誤解ポイント)
  • 目的は「質問のたびに貼らず、AIが前提を知っている状態で答えさせる」こと

この瞬間、あなたはすでに 「AIに情報を与える側」から「AIと知識を共有する人」 へ立ち位置が変わっています。
ここからが――本当のLocal AIの始まりです。