ChatGPTがローカルで動く?OpenAIのオープンソースモデルgpt-ossを使う方法と使用感を紹介

2025/08/05にOpenAIが無料で使える言語モデルであるgpt-oss をリリースしました。
(参考: https://openai.com/ja-JP/index/introducing-gpt-oss/)
gpt-ossにはサイズの小さいgpt-oss-20bと重めだが強めのgpt-oss:120bの2種類あります。
この記事ではgpt-oss-20bを主に扱いますが、ここでは
- gpt-ossの何がそんなにすごいのか
- gpt-oss をローカルPCで使う方法
を紹介しようと思います。
gpt-ossの何がすごいの?
えりるさん調べにはなりますが、gpt-ossのすごいところを上げていきます。
まず、gpt-oss-20bはVRAMが16GB のGPUで実行することができます。
20b(=20 billion)というのはパラメタ数を示していてこれが多ければ多いほどモデルとしてのが高くなりますが、データ量が大きくなるので実行コストが大きくなります。
私の環境はCore Ultra 9 285K + RTX5080(VRAM 16GB)なのですが、以前はパラメータ数が12BまでならChatGPTくらいの動作速度で回答が返ってきていました。(gemma3, qwen2.5-coderなどを実行)
一方で、gpt-oss-20bはパラメータ数が20Bでありながら家庭用GPUのうちハイエンドとされるRTX5070TiやRTX5080、RTX5090クラスのVRAMが16GBあるGPUで実行することを念頭に作成されています。
実際に使用してみましたが、ChatGPTやGeminiなどのクラウド型のAIと同等のスピード感で回答が返ってきました。
また、性能面でもOpenAIが2025年1月にリリースしたo3-miniというモデルと同等もしくは上回ります。(参考: https://openai.com/ja-JP/index/introducing-gpt-oss/)
ハイエンドGPUがあれば クラウド型AIの廉価プランクラスのAIがローカル環境で使い放題になるのはかなり良さそうに思いました。もちろんAPI経由でコーディング補助をしてもらうのも可能です。
ローカルPCで使う方法
ローカル環境でChatGPTのような生成AIを使うにはいくつか方法がありますが、
えりるさん的にはOllama + Open WebUIがおすすめです。
理由はOllamaはMIT License、Open WebUIはBSD 3-Clause License で公開されており無料で使用できます。また、gpt-ossはApache 2.0 Licenseで公開されていて、こちらも無料で使用できます。
この構成ではOllamaをバックエンド(AIが動くところ)、Open WebUIをフロントエンド(ユーザが操作する画面のこと)となります。Open WebUIがウェブアプリになっているので、ブラウザで操作できるところが気に入っています。
Ollama + Open WebUIを導入する方法は以下の記事で解説しています。
環境構築がまだの方は、よければこちらを参考にしてインストールをしてみてください。

インストールが終わったら、ターミナル(PowerShellなど)上で以下のコマンドを実行し、
gpt-oss-20b(サイズの小さい方) をインストールしましょう。
(個人で扱えるのはgpt-oss-20bだけです。)
ollama pull gpt-oss:20b
ダウンロードが進むので終わるまで待ちましょう。
終了後、以下のコマンドでOpen WebUIを起動します。
open-webui serve
起動したら、ブラウザで以下のいずれかにアクセスしてみましょう。gpt-ossが選択できるようになっていると思います。
まとめ

せっかくなので、gpt-oss-20bにこの記事を読ませてまとめを出力してもらいましょうか。
実際にgpt-oss-20b の性能を確認してみてください!
gpt‑oss‑20b は「家庭用GPUで先進的なLLMを動かす」ための最適な選択肢です。手軽に導入できる OLLAMA + Open WebUI の組み合わせを使えば、数分でローカル ChatGPT を手に入れることができます。ぜひ試してみて、オープンAIの未来を自分の手で体験してください!
項目 | 内容 |
---|---|
gpt‑ossとは | 2025年8月にリリースされた、OpenAIが公開した 無料・オープンソース な大型言語モデル。 ・gpt‑oss‑20b(20 Bパラメータ)で、16 GB VRAMのGPU(RTX 5070Ti 以降)なら実行可能。 ・クラウド型AI(ChatGPT・Gemini)と同等の応答速度・精度を実現。 |
ライセンス | gpt‑ossは Apache 2.0、Ollamaは MIT、Open WebUIは BSD 3‑Clause といった無料かつ商用利用も許可されたライセンス。 |
ローカル実行の流れ | 1. Ollama をインストール 2. ollama pull gpt-oss:20b でモデルを取得3. open-webui serve でフロントエンドを起動4. ブラウザで http://127.0.0.1:8080/ へアクセスし、gpt‑oss を利用開始 |
メリット | – クラウドAPIの使用料が不要。 – プライバシーはローカルに残る。 – カスタマイズやローカルでの実験がしやすい。 |
次のステップ | – gpt‑oss‑120b の試用も検討(VRAM 80 GB以上が推奨)。 – Open WebUI のテーマやプラグインで UI を拡張。 – 自作データセットで fine‑tuning してみる。 |

次のステップのハードルが高すぎるっ!!