大規模言語モデルLLM(自宅のPCで動かせるAI)を使ってみた
大規模言語モデル Large Language Model
1.Qwen2.5-14B-Instruct(Alibaba / 中国)
2.DeepSeek-R1-Distill-Qwen-14B(DeepSeek / 中国)
3.Llama-3.1-8B-Instruct(Meta / アメリカ)
4.Gemma-3-12b(Google / アメリカ)
5.Mistral-Small-24B-Instruct(Mistral AI / フランス)
6.gpt-oss-20b(OpenAI / アメリカ)
LM Studioniに6個のLLMをインストールしました。これらは現在の大規模言語モデルLLMLLM(自宅のPCで動かせるAI)で動かすことの出来るLLMの最良なものと紹介されています。「どれが一番性能が良いか」は、「何をさせたいか(目的)」によってトップが変わります。用途別にランキング形式で解説します。一番速いのはLlama-3.1-8B-Instruct小さいLLMだけのことはあります。gpt-oss-20bは大きいこともあり、時たま失速します。Gemma-3-12bが安定していてそれなりに速い。Qwen2.5-14B-Instructも安定している。これからも使う内容によって使い分けてみたいと思います。使っているディスクトップの性能チャックしながら使っていましたが、CPU50%以下、メモリ50%以下でまだ余裕がある見たいです。今回使ったLLMは8億パラメーターから240億パラメーターまでのものです。これがスムーズに動いてくれました。
1. 【論理的思考・プログラミング・理系タスク】で最強
1位:DeepSeek-R1-Distill-Qwen-14B
理由: このモデルは「推論(思考)」に特化した特殊なモデルです。回答を出す前に「<thought>(思考プロセス)」を表示し、自分で間違いを確認しながら答えを導き出します。
性能レベル: 論理的な正解がある問題については、GPT-4oを凌駕することもあります。
向いていること: 複雑なプログラミング、数学、パズル、論理パズル、難解なビジネス戦略の立案。
2. 【総合力・知識の深さ・長文理解】で最強
1位:Mistral-Small-24B-Instruct
理由: パラメータ数が「24B(240億)」と、この中では最も巨大です。AIは基本的にサイズが大きいほど「深い文脈」や「複雑な指示」を理解する余裕が生まれます。
性能レベル: 12B〜14Bクラスのモデルでは答えきれないような、長大な文章の読み込みや、非常に高度な語彙を必要とする執筆に向いています。
向いていること: 長いレポートの要約、専門的な文書作成、複雑なキャラクター設定でのロールプレイ。
3. 【マルチモーダル(画像理解)・最新技術】で最強
1位:Gemma-3-12b
理由: Googleの最新技術が詰まっており、今回の中で唯一「画像」を読み込めるマルチモーダル機能を持っています(LM Studioの設定によりますが、モデルの設計自体が最新です)。
性能レベル: 最新の学習手法が使われているため、12Bというサイズながら、一昔前の大容量モデルよりもはるかに賢く、洗練された回答をします。
向いていること: 画像の説明、最新の流行を意識した会話、非常に自然な日本語。
4. 【日本語の安定感・日常使い】で最強
1位:Qwen2.5-14B-Instruct
理由: 前述のDeepSeek-R1のベースにもなっているモデルです。非常にバランスが良く、日本語の崩れが最も少ないのが特徴です。
性能レベル: 非常に「優等生」な回答をします。DeepSeekのように考えすぎて回答が遅くなることもなく、サクサクと高い知能で返答してくれます。
向いていること: 日常的な質問、メール作成、情報の整理、日本語でのチャット。
5. 【スピード・軽量さ】で最強
1位:Llama-3.1-8B-Instruct
理由: サイズが最も小さいため、動作が圧倒的に速いです。
性能レベル: 上記の12B〜24Bクラスに比べると、どうしても知識量や論理的思考で一歩譲りますが、それでもGPT-3.5よりは賢いです。
向いていること: ちょっとした調べ物、翻訳、短文の添削など、速度を重視するタスク。
結論:どれをメインに使うべき?
もしあなたのPCのスペック(VRAM)が許すのであれば、以下の使い分けがおすすめです。
メインの相談相手(最強知能):
Mistral-Small-24B-Instruct または DeepSeek-R1-Distill-Qwen-14B
最新のスマートさ・画像も使いたい:
Gemma-3-12b
安定した日本語でサクサク会話したい:
Qwen2.5-14B-Instruct
迷ったらまずは「Gemma-3-12b」か「Qwen2.5-14B-Instruct」を使ってみてください。
どちらも非常に「現代的で賢いAI」だと実感できるはずです。その後、もっと難しいことをさせたくなったら DeepSeek や Mistral-Small に切り替えるのが、ローカルLLMを使いこなすコツです。



