眠ってるMacをローカルLLMサーバーにする【Gemma 4 × Ollama】

古いMacBook Proが眠っていませんか?実はM1 Pro以降のMacなら、Googleの最新オープンモデル「Gemma 4」をローカルで動かすサーバーとして十分活用できます。クラウドにデータを送らず、自宅LAN内で完結するプライベートAIサーバーの構築手順をまとめました。

なぜ今、ローカルLLMなのか

2026年4月2日、GoogleがオープンモデルファミリーGemma 4をリリースしました。Apache 2.0ライセンスで商用利用も自由、しかも16GBの統合メモリを持つApple SiliconのMacなら快適に動作します

クラウドのAIサービスはデータがサーバーに送られますが、ローカルLLMなら

  • プライバシーが守られる:データが外に出ない
  • コストゼロ:APIの従量課金が不要
  • オフラインで動く:インターネット不要

これだけのメリットがあって、セットアップも思ったより簡単です。

必要なもの

ハードウェア

  • Apple Silicon Mac(M1 Pro以降)、統合メモリ16GB
  • 電源アダプタ(MacBookをクラムシェル運用する場合)
  • 同じLANに繋がった別のMac(アクセス用)

今回はM1 Pro MacBook Pro(16GB)をサーバーにして、別のMacのブラウザからGemma 4を使えるようにします。以下、わかりやすいようにM1 Proと書くことにします。

アプリ

  • Homebrew
  • Ollama(ローカルLLMを簡単に動かす)
  • Gemma4(GoogleのLLM)
  • Open WebUI(ブラウザでLLMとチャットするための画面)
  • Docker Desktop(Open WebUIを動かす)

Gemma 4とは

Gemma 4はGoogle DeepMindが2026年4月2日にリリースしたオープンソースモデルです。4つのサイズがあり、16GBのMacに最適なのはE4B(実効4Bパラメータ)です。26Bもいけるかも。

モデル必要メモリ用途
E2B8GB〜モバイル・エッジ向け
E4B16GB〜MacBook向け、バランス最良
26B MoE24GB〜ワークステーション向け
31B Dense32GB〜高性能サーバー向け

E4Bはロード時に約9.6GBを使用します。16GBの統合メモリなら余裕を持って動作します。

Step 1 — 自動アップデートの設定

サーバーとして常時稼働させるには、macOSが勝手に再起動しないようにする必要があります。アップデート中に再起動が走ると、他のMacからアクセスできなくなってしまいます。

システム設定 → 一般 → ソフトウェアアップデート → 自動アップデートの詳細を開いて以下のように設定します。

項目設定
ダウンロードON
macOSのアップデートをインストールOFF
App StoreアップデートをインストールOFF
セキュリティ対応とシステムファイルをインストールON

「ダウンロードまで自動、インストールは手動」という構成です。セキュリティパッチは当てつつ、勝手な再起動を防げます。

Step 2 — スリープを防止する

まずはシステム設定でスリープさせないようにします。

  • システム設定
  • バッテリー
  • オプション
  • 電源アダプタ使用時はディスプレイがオフのときに自動でスリープさせない

次に、画面を閉じてクラムシェルで運用する場合にスリープしないようにします。ターミナルで以下を打ちます。

sudo pmset -a disablesleep 1

元に戻すには↓

sudo pmset -a disablesleep 0

Step 3 — 固定IPアドレスの設定

他のMacからアクセスするためのIPアドレスが毎回変わると不便です。ルーターの管理画面で、M1 ProのMACアドレスに固定IPを割り当てておきましょう。

MACアドレスを調べるには、M1 Proのターミナルで以下を入力します。

ifconfig en0 | grep ether

すると

ether 00:11:22:33:44:55

と出てきます。この00:11:22:33:44:55 の部分がMACアドレスです。

Buffaloのルーターの場合

  1. ブラウザで192.168.11.1(BuffaloのデフォルトIP)にアクセス
  2. ルーターの管理画面にログイン
  3. 「詳細設定」→「LAN」→「DHCPリース」を探す
  4. M1 ProのMACアドレスを選んで「手動割当てに変更
  5. IPアドレスを変更して保存

便宜上、ここではM1 ProのIPアドレスを192.168.11.50 に設定したとします。

Step 4 — Homebrewのインストール

macOSのパッケージマネージャーです。ターミナルで以下を実行します。

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

Step 5 — Ollamaのインストール

OllamaはローカルLLMを簡単に動かすためのツールです。モデルのダウンロード、Apple SiliconのGPU活用、APIサーバーの立ち上げを全部やってくれます。一言で言えば「ローカルLLMのDocker」です。

brew install --cask ollama-app

インストール後に起動するとメニューバーにラマのアイコンが表示されます。

Step 6 — Gemma 4のダウンロード

ollama pull gemma4

OllamaでGoogleのLLM、Gemma 4(E4b)をダウンロードします。約9.6GBのダウンロードが始まります。完了するとOllamaのアプリ上でGemma 4とチャットできるようになります。

26B MoEをダウンロードするには

ollama pull gemma4:26b

26Bは16GBだとスワップが発生して重くなる可能性があるので、試してみてダメなら素直にE4Bに戻しましょう。

Step 7 — 外部アクセスの有効化

OllamaはデフォルトでMac本体からしかアクセスできません。他のMacから使えるようにするため、M1 Proで以下を実行します。

launchctl setenv OLLAMA_HOST "0.0.0.0"

これは、「すべてのIPアドレス(0.0.0.0)からOllamaへの接続を受け付ける」という意味です。デフォルトは127.0.0.1(自分自身のみ)

もちろん自宅LAN内ではセキュリティ的な問題はありません。(シェアハウスやゲストWi-Fiと同じネットワークの場合は少し注意が必要です。)

実行後にM1 Proを再起動します。

Step 8 — Docker Desktopのインストール

次のステップで使うOpen WebUIはDockerで動かします。まずDocker Desktopをインストールします。

brew install --cask docker-desktop

インストール後にDocker.appを起動して、ログイン時に自動起動をONにしておきます。

Step 9 — Open WebUIのインストール

Open WebUIはブラウザでLLMとチャットするための画面です。ChatGPTのようなUIを自分のMac上に作るイメージです。

OllamaだけではターミナルかMac本体のアプリからしか使えませんが、Open WebUIを入れるとLAN内の別のMacのブラウザからアクセスできるようになります。

docker run -d \
  --name open-webui \
  --restart always \
  -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  ghcr.io/open-webui/open-webui:main

各オプションの意味はこちらです。

オプション意味
-dバックグラウンドで起動
--restart alwaysMac再起動後も自動起動
-p 3000:80803000番ポートで外部公開
--add-hostDockerからOllamaに繋げる

Step 10 — 動作確認

別のMacのブラウザで先ほど設定したM1 ProのIPアドレスにアクセスします。

http://192.168.11.50:3000

アカウント作成画面が出たら成功です。最初に作ったアカウントが管理者になるので、そのままアカウントを作成してログインしてください。

完成後の構成

M1 Pro MacBook Pro(クラムシェル・常時稼働)
├── Ollama → Gemma 4が動いている(エンジン)
└── Open WebUI → ブラウザ用チャット画面(フロント)
        ↑ LAN経由

別のMac(ブラウザで http://192.168.11.17:3000 にアクセス)

Open WebUIでできること

Open WebUIはOllamaだけでなく、外部のAI APIとも繋げられます。設定画面でAPIキーを入れるだけでこういったモデルも使えるようになります。

  • ChatGPT(OpenAI API)
  • Claude(Anthropic API)
  • Gemini(Google API)

ローカルのGemma 4(無料・プライベート)と、クラウドのClaude・ChatGPT(高性能)を同じ画面から切り替えて使うという構成も可能です。

まとめ

眠っていたM1 Pro MacBook Proが、プライベートAIサーバーとして生まれ変わりました。

  • データが外に出ない。プライバシー○
  • APIコストゼロ
  • LAN内の別のMacからブラウザで使える

Gemma 4のE4Bは16GBのMacでも快適に動作しますし、Ollamaのセットアップも思ったより簡単です。余ったMacがある方はぜひ試してみてください。

ただ、Claude CodeやGeminiなどをサブスクしてる方なら、正直あまりメリットはないかもしれません。お遊びの道具としてどうぞ。

参考