--- > [!NOTE] 目次 ```table-of-contents title: minLevel: 0 maxLevel: 0 includeLinks: true ``` --- > [!NOTE] リスト掲載用文字列 - [「LM Studio」ではじめるローカルLLM。“ガチ無料AI”を徹底解説](https://www.gizmodo.jp/2026/01/how_to_use_lm_studio-thr.html)【ギズモード・ジャパン】(2026年01月26日) --- > [!NOTE] この記事の要約(箇条書き) - LM Studioは、大規模言語モデル(LLM)をPC上で無料で実行するためのアプリケーションです。 - ローカルLLMは、自分のPC上で動作するため、インターネット接続なしで利用でき、個人情報などのデータを安全に処理できます。 - 利用に料金はかかりませんが、推論性能や機能性はChatGPTやGeminiに劣る場合があります。 - LM Studioの推奨スペックは、Macの場合Appleシリコン(M1-M4)搭載、macOS 13.4以降、メモリ16GB以上。Windowsの場合x64対応チップまたはSnapdragon X Elite搭載、メモリ16GB以上、4GBのVRAMを推奨しています。 - インストール後、LM Studioの設定で言語を日本語、ユーザーインターフェースの複雑さレベルを「パワーユーザー」に設定します。 - モデル検索タブで「Gemma 3n E4B」などのモデルを検索し、「GGUF Gemma 3n E4B Instruct Q4 K M」をダウンロードしてチャットを開始します。 - チャット機能には、テキスト入力、PDFや画像などのファイルアップロード、MCP(Model Configuration Presets)利用、システムプロンプトによる口調や創造性の調整などがあります。 - 「このモデルは大きすぎる」というエラーが出た場合、「軽いバージョン」(例: Q4, Q3)のモデルを選ぶ、より軽量なローカルLLM(例: Gemma 3n E2B)を利用する、またはLM Studioの「ガードレール」(安全対策)を自己責任で下げる、といった対処法があります。 > [!NOTE] 要約おわり --- - [グローバルナビゲーションへジャンプ](https://www.gizmodo.jp/2026/01/#globalNav) - [フッターへジャンプ](https://www.gizmodo.jp/2026/01/#footer) - 14,422 - かみやまたくみ ![「LM Studio」ではじめるローカルLLM。“ガチ無料AI”を徹底解説](https://media.loom-app.com/gizmodo/dist/images/2025/09/06/lms-1.jpg?w=1280) Photo: かみやまたくみ [2025年9月7日の記事](https://www.gizmodo.jp/2025/09/how_to_use_lm_studio.html) を編集して再掲載しています。 自分のパソコン上で無料で動かせるAI「ローカルLLM」が最近盛り上がりを見せています。 [高性能化が進んでおり、日本語でも使いやすいモデルが登場](https://www.gizmodo.jp/2025/07/overview_local_llm_for_laptops.html) しています。昨今話題の「 [gpt-oss](https://www.gizmodo.jp/2025/09/openai_gpt_oss.html) 」もそんなローカルLLMのひとつで、自分は「わりとこれでよくない?」と感じました。軽量なモデルを選べば、MacBook Airでも試せます。 この記事では、専用アプリ「LM Studio」を使ってローカルLLMを使う方法を紹介します。比較的高性能ながら多くのパソコンで動作する「Google Gemma 3n E4B」を例に、導入方法からチャットを始めるまで──「とにかく動かす手順」をまとめています。 <目次> [ローカルLLMとは](https://www.gizmodo.jp/2026/01/#1) [LM Studioとは](https://www.gizmodo.jp/2026/01/#2) [\- LM Studioの推奨動作スペック](https://www.gizmodo.jp/2026/01/#3) [\- LM Studioのインストール&セットアップ](https://www.gizmodo.jp/2026/01/#6) [\- LM Studioのチャットで使える機能](https://www.gizmodo.jp/2026/01/#11) [\- 「このモデルは大きすぎる」と出るときの対処法](https://www.gizmodo.jp/2026/01/#16) ## ローカルLLMとは ローカルLLMとは **大規模言語モデルを自分のパソコン上で動かすこと** 、あるいは **その際に利用されるAIモデル** のことです。研究・開発目的で一般公開されているLLMが多数あり、それらをダウンロードして「マイAI」として利用できる感じです。 ざっくり「自分のパソコンで無料で使えるChatGPT的なやつ」というイメージで構いませんが、ChatGPTとはやや性質が異なるのがポイントとなっています。 > \- パソコンにLLMをダウンロードして専用ソフトで動かす。設定を変えない限り、外部とのデータ通信を行わない(ネットなしでも利用できる)ので、個人情報などを含む「人に見せられないデータ」も安心して処理できる > > \- 料金はかからない > > \- 推論性能や機能性はChatGPTやGeminiには及ばない 前2つはメリットで、最後がデメリットになります。しかし、前述のように「高性能化が進んでいる」のがポイントです。「いけるじゃん!」となる方もいらっしゃるのではと思います。ぜひ実際に動かして判断してみてください。 ## LM Studioとは ![lms-2](https://media.loom-app.com/gizmodo/dist/images/2025/09/06/lms-2.jpg?w=640) Photo: かみやまたくみ LM Studioは **ローカルLLMを動作させるためのアプリケーション** です。ユーザーが入力したプロンプトをAIに伝え、AIが生成した回答を表示します。たくさんのローカルLLMを検索・ダウンロードでき、「ChatGPTみたいなAIチャットボット」をパソコン上で実現します。 MacでもWindowsでも動作し、 [商用目的もOK](https://lmstudio.ai/app-terms) 、かつ無料となっています。 [こちら](https://lmstudio.ai/download) からダウンロードできます。 ### LM Studioの推奨動作スペック ローカルLLMを動作させるには [ある程度のスペック](https://lmstudio.ai/docs/app/system-requirements) が必要になります。高性能なAIほど要求スペックは上がります。推奨スペック付近で動作するのは、パラメータ数7B程度までです。 #### Macの推奨スペック > \- Appleシリコン(M1-M4)を搭載 > > \- macOS 13.4以降を搭載 > > \- メモリ16GB以上を推奨 ※Macについては、M4 MacBook Pro(いちばん安いモデル。MacBook Airとスペックはほぼ同じ)とLM Studio バージョン0.3.25で動作検証を行っています。 #### Windowsの推奨スペック 多様な製品があるのでMacほどシンプルにまとめられませんが、「Copilot+ PC(2024-2025年に発売されたAI対応ノートPC)やゲーミングPC」だと動かしやすいというイメージです。 > \- x64対応チップまたはSnapdragon X Eliteを搭載 > > \- メモリ16GB以上を推奨 > > \- 4GBのVRAMを搭載 ※Windowsについては、Ryzen 7 7700 + メモリ64GB + GeForce RTX 4060 Ti 16GBを搭載したデスクトップPCとLM Studio バージョン0.3.25で動作検証を行っています。 ### LM Studioのインストール&セットアップ [こちら](https://lmstudio.ai/download) からLM Studio本体をダウンロードします。OSと搭載チップはご自身のパソコンに合ったものを選び、Versionはデフォルトのままとします。LM-Studio-...というファイルが落ちてくるので、実行・インストールしてください。 そして、 **LM Studio以外のアプリを終了** してください。ローカルLLMは高負荷なので、最初は余計な負荷がかかっていない状態で試すのがおすすめです。 それからLM Studioを起動し、初期設定と利用するローカルLLMのダウンロードを行います。 #### 1\. 右下にある小さな歯車アイコンをクリック ![lms-4](https://media.loom-app.com/gizmodo/dist/images/2025/09/06/lms-4.jpg?w=640) このへんにあります(マジで小さい) #### 2\. Settingsタブで以下を設定 > \- 言語→日本語 > > \- ユーザーインターフェースの複雑さレベル→パワーユーザー > > \- 設定すると「Model Search」タブが出現するのでそちらに移動します ![settings](https://media.loom-app.com/gizmodo/dist/images/2025/09/06/settings.png?w=640) Image: かみやまたくみ/LM Studio #### 3\. Model SearchタブでローカルLLMをダウンロード ![gemma](https://media.loom-app.com/gizmodo/dist/images/2025/09/06/gemma.png?w=640) このモデルをダウンロードします。 利用規約 があり、商用利用は可で、他者の著作権を侵害する・性的コンテンツを生成するような使い方はNGとなっています > \- 「Hugging Faceでモデルを検索…」と表示されている欄に「Gemma 3n E4B」と入力 > > \- 多数の検索結果が出ますが、「Gemma 3n E4B」とだけ表記されているものを選択してください > > \- 説明欄を下にスクロールし「Download Options」に「GGUF Gemma 3n E4B Instruct Q4 K M」と表示されているかを確認します。そうでない場合は、すぐ右上にある「Show all options」を開き、探して該当するものを選んでください 「このマシンには大きすぎます」と表示される場合は、パソコンのスペックが不足しています。動かせる可能性はまだあるので、「 [それでも動かす方法](https://www.gizmodo.jp/2026/01/#16) 」をご覧ください。 #### 4\. 読み込んだら使えます > \- ダウンロードが完了したら「Use in New Chat」をクリックしてください。ロードが始まります > > \- 完了するとチャット画面に遷移。あとはChatGPTと同じ感じで会話を始められます 前述のようにローカルLLMは高負荷です。パソコンが発熱したり、ファンが回ったりすることがありますが、基本的に問題ありません(安全対策が実装されていて、スペック的に厳しいモデルを読み込もうとするとLM Studioが「ムリだよ」と拒否するようになっています)。 ### LM Studioのチャットで使える機能 ![lms-3](https://media.loom-app.com/gizmodo/dist/images/2025/09/06/lms-3.jpg?w=640) Photo: かみやまたくみ LM Studioのチャット機能をざっとご紹介します。基本的な使い方がわかったら、いろんなプロンプトを試したり、より高性能なモデルを探してみるなどしてみましょう。 #### 1\. プロンプトの入力 > \- Enterで改行 > > \- Shift + EnterでAIにプロンプトを送信 #### 2\. PDFや画像をアップして質問できる チャット欄左下のクリップアイコンから、ファイルをアップロードできます。対応しているのは、テキストファイル系(.txt,.md,.csv,.jsonなど)とPDF、画像(.jpg)です。上記形式のファイルについては内容について質問・要約してもらえます(画像は認識できるモデルであれば)。 オフィス系(ワードやエクセル)には残念ながら基本的に未対応です。 #### 3\. MCPも利用可 電源アイコンをクリックすると、MCPを設定・利用できます。本稿では詳細は扱いません。 [公式の説明](https://lmstudio.ai/docs/app/plugins/mcp) をご覧ください。 なお、 **本設定で「rag-v1」をオンにすると、ワード形式のファイルをアップできる** ようになります(挙動は標準で対応しているファイル形式とは少し異なります)。 #### 4\. システムプロンプトで口調なども設定可能 右上にあるスパナボタンを押せば、モデルの挙動を調整できます。AIに好みにあった話し方をして欲しいのであれば、Contextタブからシステムプロンプトで設定してみましょう。Modelタブではtemperatureを調整、回答の創造性を上げ下げできます。小説を書いてもらうなら高めに、かっちりした翻訳をお願いするなら下げる…といった具合です。 ### 「このモデルは大きすぎる」と出るときの対処法 ![too_large](https://media.loom-app.com/gizmodo/dist/images/2025/09/06/too_large.png?w=640) Image: かみやまたくみ/LM Studio 「このモデルは大きすぎる」と表示されたら絶対に動かないのか?というとそうではありません。対策が3つあり、動かせる可能性があります。 ※3つめは知識を要しリスクもある対応なので、まず1と2を試し、かつ説明をよく読んだうえで実行するかを決めてください。 #### 1\. 「軽いバージョン」を選ぶ ローカルLLMには複数のバージョンが公開されていることがほとんどで、重いバージョン・軽いバージョンがあります(量子化モデルなどと呼ばれます)。軽いほどパソコンへの負荷が減り、動作させやすくなります。 > \- モデルを検索したあと、モデル欄を下にスクロールし 「Download options」→「Show all options」 を開く > > \- 名前に 「Q4」「Q5」… のように “Q+数字” が入っている項目を探す。数字が小さいほど軽い(例:Q8 → Q5 → Q4 → Q3 の順に軽い) > > \- 末尾に \_K\_S や \_K\_M などが付くことがありますが、これは作りの細かな違いです。迷ったら \_K\_M を選ぶ 軽くなるほど賢さが落ちますが、致命的ではないことがほとんどです。 #### 2\. より軽量なローカルLLMを利用する また、ダウンロードするローカルLLMを「Gemma 3n E2B」など、そもそもコンパクトなモデルに変更するのも有効です。Gemma 3n E4Bが動かない場合は、Model Searchでこちらを検索し、適宜ダウンロード・読み込めるか試してみてください。 モデル名には基本的に「~B」という表記が含まれていますが、これはローカルLLMの大きさを表しています(性能は大きなモデルほど高くなります)。「1B」「2B」は非常にコンパクトなモデルで、要求スペックも低くなっています。 #### 3\. 安全対策を外す ![guardrails](https://media.loom-app.com/gizmodo/dist/images/2025/09/06/guardrails.png?w=640) guardrails **LM Studioの過負荷対策をオフ** にすると、それまで動かなかったモデルも動かせるようになることがあります。ただし、説明をよく読んだうえで、実行は自己責任でお願いいたします。 > 1\. 設定からHardwareタブを開く > > 2\. スクロールして下の方にある「ガードレール」を下げます。下げる際は必ず1段階だけ下げ、都度動かしたいモデルが動くかを試してください > > 3\. それでも動かなかったら、さらに下げるかを検討してください。ただし、「なし」にするのは非推奨です #### 「ガードレール」って何なの? パソコンのスペックを超えるサイズのLLMを読み込もうとした際に設定に応じて拒否する、LM Studioの安全対策です。 実態としては、 **安全マージンを減らす代わりに動作させられるLLMの幅を増やす設定** なところがあります。下げるほどパソコンのスペックをよりギリギリまで利用できるようになり、動かせるLLMが増えます。代わりにパソコンの動作が停止するなど、不具合が生じる確率が上がります。 ![fails](https://media.loom-app.com/gizmodo/dist/images/2025/09/06/fails.png?w=640) Guardrailsが機能し、モデルの読み込みを拒否されたところ 一応、検証のために設定を落としてみたりもしましたが、予防策が作動し続ける設定に関しては不具合は発生していません。 予防策がなくなる設定にすると、どのようなモデルでも「実行は」できるようになります。ただし、スペックに対して大きいモデルだと読み込めても動作がカクカクになったりします。極端に大きなモデルを読み込んだことはないのですが、動作が停止したり、最悪の場合は破損すると考えられます。 「使いたいLLMに対してパソコンのスペックが十分であるか」を見積もれる人が、リスクを理解した上で設定する項目だと言えます。 Source: LM Studio ([1](https://lmstudio.ai/download), [2](https://lmstudio.ai/docs/app/system-requirements), [3](https://lmstudio.ai/docs/app/plugins/mcp)), [Hugging Face](https://huggingface.co/google/gemma-3n-E4B), Google ([1](https://ai.google.dev/gemma/terms), [2](https://ai.google.dev/gemma/prohibited_use_policy?_gl=1*g146tz*_up*MQ..*_ga*NzAxNDY1MDI2LjE3NTcwMzgxMDk.*_ga_P1DBVKWT6V*czE3NTcwMzgxMDkkbzEkZzAkdDE3NTcwMzgxMDkkajYwJGwwJGg3MzQxNDc4NDg.)) [![AI First](https://assets.media-platform.com/gizmodo/dist/images/2024/10/24/840_140.jpg)](https://www.businessinsider.jp/feature/ai-first/?banner_collab) ## LATEST NEWS - [![](https://media.loom-app.com/gizmodo/dist/images/2026/01/23/rane-system-one.jpg?w=640)](https://www.gizmodo.jp/2026/01/rane-system-one.html) [ ### このアナログ感に惚れる。回転プラッター搭載のDJシステム ](https://www.gizmodo.jp/2026/01/rane-system-one.html) - [![](https://media.loom-app.com/gizmodo/dist/images/2026/01/23/sspr-suscb_yoko_640.png?w=640)](https://www.gizmodo.jp/2026/01/iodata-security-ssd.html) [ ### 5年保証&ハードウェアで自動暗号化。このSSDは守りがスゴイ ](https://www.gizmodo.jp/2026/01/iodata-security-ssd.html) - [![](https://media.loom-app.com/gizmodo/dist/images/2026/01/26/shutterstock_2567951911.jpg?w=640)](https://www.gizmodo.jp/2026/01/holy-crap-so-many-people-watched-kpop-demon-hunters-last-year.html) [ ### 2025年Netflix視聴回数、『ストレンジャー・シングス』が霞むレベルで『KPOPガールズ!』が爆走 ](https://www.gizmodo.jp/2026/01/holy-crap-so-many-people-watched-kpop-demon-hunters-last-year.html) - [![](https://media.loom-app.com/gizmodo/dist/images/2024/05/12/IMG_6657.png?w=640)](https://www.gizmodo.jp/2026/01/tire_stone_remover-1vm.html) [13 WANT](https://www.gizmodo.jp/2026/01/tire_stone_remover-1vm.html) [ ### プロのメカニック御用達。クルマのタイヤに挟まった小石が秒で取れる道具 ](https://www.gizmodo.jp/2026/01/tire_stone_remover-1vm.html)[![](https://media.loom-app.com/gizmodo/dist/images/2026/01/20/image5.jpg?w=160&h=120)](https://www.gizmodo.jp/2026/01/anker_powerport-iii-nano_review.html) [ ### 発売から5年以上。それでも選ばれるAnkerの名品、小さすぎる20W充電器 ](https://www.gizmodo.jp/2026/01/anker_powerport-iii-nano_review.html)[![](https://media.loom-app.com/gizmodo/dist/images/2026/01/23/260123_belkin_04.jpg?w=160&h=120)](https://www.gizmodo.jp/2026/01/belkin-boostcharge-pro-battery-review.html) [ ### Apple Watchユーザーならこれ一択。Belkinの強力モバイルバッテリー ](https://www.gizmodo.jp/2026/01/belkin-boostcharge-pro-battery-review.html)[![](https://media.loom-app.com/gizmodo/dist/images/2026/01/22/260123_aqumo.jpg?w=160&h=120)](https://www.gizmodo.jp/2026/01/aqumo-candle-1.html) [ ### おしっこでも使える!? 1mlの水分で168時間光る防災用灯 ](https://www.gizmodo.jp/2026/01/aqumo-candle-1.html)[![](https://media.loom-app.com/gizmodo/dist/images/2025/02/14/NEIGHBOR_CLOWN_main-2.jpg?w=160&h=120)](https://www.gizmodo.jp/2026/01/neighbor_clown_microwaveoven_ramen_maker-1-fw2.html) [ ### カップラーメン卒業のお知らせ。手間がない袋麺の時代が来てしまった ](https://www.gizmodo.jp/2026/01/neighbor_clown_microwaveoven_ramen_maker-1-fw2.html)[![](https://media.loom-app.com/gizmodo/dist/images/2026/01/21/DSCF2709-2.jpg?w=160&h=120)](https://www.gizmodo.jp/2026/01/delimo-coffee-mill.html) [ ### ハンディだからと侮るなかれ。1万円以下で買えるおいしいコーヒーミル ](https://www.gizmodo.jp/2026/01/delimo-coffee-mill.html) [MORE](https://www.gizmodo.jp/sale/) ![GIZMODO TV](https://www.gizmodo.jp/assets/pc/img/logo_gz-video.svg) ![](https://www.youtube.com/watch?v=hiUrXaXqp8Y)![GIZMODO VIDEO](https://i.ytimg.com/vi/hiUrXaXqp8Y/mqdefault.jpg) ![GIZMODO VIDEO](https://i.ytimg.com/vi/7dM3D--5aZw/mqdefault.jpg) ![GIZMODO VIDEO](https://i.ytimg.com/vi/WJoWiXSng8M/mqdefault.jpg) ![GIZMODO VIDEO](https://i.ytimg.com/vi/qeVTx_kcrxg/mqdefault.jpg)