古いMacBook Proが眠っていませんか?実はM1 Pro以降のMacなら、Googleの最新オープンモデル「Gemma 4」をローカルで動かすサーバーとして十分活用できます。クラウドにデータを送らず、自宅LAN内で完結するプライベートAIサーバーの構築手順をまとめました。
なぜ今、ローカルLLMなのか
2026年4月2日、GoogleがオープンモデルファミリーGemma 4をリリースしました。Apache 2.0ライセンスで商用利用も自由、しかも16GBの統合メモリを持つApple SiliconのMacなら快適に動作します。
クラウドのAIサービスはデータがサーバーに送られますが、ローカルLLMなら
- プライバシーが守られる:データが外に出ない
- コストゼロ:APIの従量課金が不要
- オフラインで動く:インターネット不要
これだけのメリットがあって、セットアップも思ったより簡単です。
必要なもの
ハードウェア
- Apple Silicon Mac(M1 Pro以降)、統合メモリ16GB
- 電源アダプタ(MacBookをクラムシェル運用する場合)
- 同じLANに繋がった別のMac(アクセス用)
今回はM1 Pro MacBook Pro(16GB)をサーバーにして、別のMacのブラウザからGemma 4を使えるようにします。以下、わかりやすいようにM1 Proと書くことにします。
アプリ
- Homebrew
- Ollama(ローカルLLMを簡単に動かす)
- Gemma4(GoogleのLLM)
- Open WebUI(ブラウザでLLMとチャットするための画面)
- Docker Desktop(Open WebUIを動かす)
Gemma 4とは
Gemma 4はGoogle DeepMindが2026年4月2日にリリースしたオープンソースモデルです。4つのサイズがあり、16GBのMacに最適なのはE4B(実効4Bパラメータ)です。26Bもいけるかも。
| モデル | 必要メモリ | 用途 |
|---|---|---|
| E2B | 8GB〜 | モバイル・エッジ向け |
| E4B | 16GB〜 | MacBook向け、バランス最良 |
| 26B MoE | 24GB〜 | ワークステーション向け |
| 31B Dense | 32GB〜 | 高性能サーバー向け |
E4Bはロード時に約9.6GBを使用します。16GBの統合メモリなら余裕を持って動作します。
Step 1 — 自動アップデートの設定
サーバーとして常時稼働させるには、macOSが勝手に再起動しないようにする必要があります。アップデート中に再起動が走ると、他のMacからアクセスできなくなってしまいます。
システム設定 → 一般 → ソフトウェアアップデート → 自動アップデートの詳細を開いて以下のように設定します。
| 項目 | 設定 |
|---|---|
| ダウンロード | ON |
| macOSのアップデートをインストール | OFF |
| App Storeアップデートをインストール | OFF |
| セキュリティ対応とシステムファイルをインストール | ON |
「ダウンロードまで自動、インストールは手動」という構成です。セキュリティパッチは当てつつ、勝手な再起動を防げます。
Step 2 — スリープを防止する
まずはシステム設定でスリープさせないようにします。
- システム設定
- バッテリー
- オプション
- 電源アダプタ使用時はディスプレイがオフのときに自動でスリープさせない
次に、画面を閉じてクラムシェルで運用する場合にスリープしないようにします。ターミナルで以下を打ちます。
sudo pmset -a disablesleep 1元に戻すには↓
sudo pmset -a disablesleep 0Step 3 — 固定IPアドレスの設定
他のMacからアクセスするためのIPアドレスが毎回変わると不便です。ルーターの管理画面で、M1 ProのMACアドレスに固定IPを割り当てておきましょう。
MACアドレスを調べるには、M1 Proのターミナルで以下を入力します。
ifconfig en0 | grep etherすると
ether 00:11:22:33:44:55と出てきます。この00:11:22:33:44:55 の部分がMACアドレスです。
Buffaloのルーターの場合
- ブラウザで192.168.11.1(BuffaloのデフォルトIP)にアクセス
- ルーターの管理画面にログイン
- 「詳細設定」→「LAN」→「DHCPリース」を探す
- M1 ProのMACアドレスを選んで「手動割当てに変更」
- IPアドレスを変更して保存
便宜上、ここではM1 ProのIPアドレスを192.168.11.50 に設定したとします。
Step 4 — Homebrewのインストール
macOSのパッケージマネージャーです。ターミナルで以下を実行します。
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"Step 5 — Ollamaのインストール
OllamaはローカルLLMを簡単に動かすためのツールです。モデルのダウンロード、Apple SiliconのGPU活用、APIサーバーの立ち上げを全部やってくれます。一言で言えば「ローカルLLMのDocker」です。
brew install --cask ollama-appインストール後に起動するとメニューバーにラマのアイコンが表示されます。
Step 6 — Gemma 4のダウンロード
ollama pull gemma4OllamaでGoogleのLLM、Gemma 4(E4b)をダウンロードします。約9.6GBのダウンロードが始まります。完了するとOllamaのアプリ上でGemma 4とチャットできるようになります。
26B MoEをダウンロードするには
ollama pull gemma4:26b26Bは16GBだとスワップが発生して重くなる可能性があるので、試してみてダメなら素直にE4Bに戻しましょう。
Step 7 — 外部アクセスの有効化
OllamaはデフォルトでMac本体からしかアクセスできません。他のMacから使えるようにするため、M1 Proで以下を実行します。
launchctl setenv OLLAMA_HOST "0.0.0.0"これは、「すべてのIPアドレス(0.0.0.0)からOllamaへの接続を受け付ける」という意味です。デフォルトは127.0.0.1(自分自身のみ)
もちろん自宅LAN内ではセキュリティ的な問題はありません。(シェアハウスやゲストWi-Fiと同じネットワークの場合は少し注意が必要です。)
実行後にM1 Proを再起動します。
Step 8 — Docker Desktopのインストール
次のステップで使うOpen WebUIはDockerで動かします。まずDocker Desktopをインストールします。
brew install --cask docker-desktopインストール後にDocker.appを起動して、ログイン時に自動起動をONにしておきます。
Step 9 — Open WebUIのインストール
Open WebUIはブラウザでLLMとチャットするための画面です。ChatGPTのようなUIを自分のMac上に作るイメージです。
OllamaだけではターミナルかMac本体のアプリからしか使えませんが、Open WebUIを入れるとLAN内の別のMacのブラウザからアクセスできるようになります。
docker run -d \
--name open-webui \
--restart always \
-p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
ghcr.io/open-webui/open-webui:main各オプションの意味はこちらです。
| オプション | 意味 |
|---|---|
-d | バックグラウンドで起動 |
--restart always | Mac再起動後も自動起動 |
-p 3000:8080 | 3000番ポートで外部公開 |
--add-host | DockerからOllamaに繋げる |
Step 10 — 動作確認
別のMacのブラウザで先ほど設定したM1 ProのIPアドレスにアクセスします。
http://192.168.11.50:3000アカウント作成画面が出たら成功です。最初に作ったアカウントが管理者になるので、そのままアカウントを作成してログインしてください。
完成後の構成
M1 Pro MacBook Pro(クラムシェル・常時稼働)
├── Ollama → Gemma 4が動いている(エンジン)
└── Open WebUI → ブラウザ用チャット画面(フロント)
↑ LAN経由
別のMac(ブラウザで http://192.168.11.17:3000 にアクセス)Open WebUIでできること
Open WebUIはOllamaだけでなく、外部のAI APIとも繋げられます。設定画面でAPIキーを入れるだけでこういったモデルも使えるようになります。
- ChatGPT(OpenAI API)
- Claude(Anthropic API)
- Gemini(Google API)
ローカルのGemma 4(無料・プライベート)と、クラウドのClaude・ChatGPT(高性能)を同じ画面から切り替えて使うという構成も可能です。
まとめ
眠っていたM1 Pro MacBook Proが、プライベートAIサーバーとして生まれ変わりました。
- データが外に出ない。プライバシー○
- APIコストゼロ
- LAN内の別のMacからブラウザで使える
Gemma 4のE4Bは16GBのMacでも快適に動作しますし、Ollamaのセットアップも思ったより簡単です。余ったMacがある方はぜひ試してみてください。
ただ、Claude CodeやGeminiなどをサブスクしてる方なら、正直あまりメリットはないかもしれません。お遊びの道具としてどうぞ。
