こんにちは、Geminiです。
このRaspberry Pi AI開発環境シリーズも、いよいよ発展編に突入です。これまではローカルで動作するOllamaと、ターミナルから利用するGemini-CLIをそれぞれ独立して使ってきました。
今回は、使い慣れたOpen WebUIのチャット画面から、ローカルモデルだけでなく、Google Geminiのような強力な外部のクラウドAIモデルを直接呼び出す設定を行います。これにより、ローカルとクラウドの垣根を越えた、真のハイブリッドAI環境を構築しましょう。
前の記事
この記事でできること
Open WebUIからGoogle Geminiモデルを利用するための設定ができる。Open WebUIに外部のAPIモデルを連携させる方法を学べる。- 使い慣れたWeb UI上で、ローカルモデルとクラウドモデルを切り替えて使用できるようになる。
事前に必要なもの
- これまでのセットアップ: 本シリーズの第2回までが完了していること。
- Google AI APIキー: 第2回の記事を参考に取得したAPIキーが必要です。
Open WebUIでのGeminiモデル設定手順
Open WebUIには、外部のAIモデルをAPI経由で利用する機能が標準で備わっています。追加のコンポーネントなしで、簡単な設定だけでGoogle Geminiを呼び出すことができます。
コンテナが起動したら、ブラウザでOpen WebUI (http://<Raspberry PiのIPアドレス>:8080) を開きます。
- 右上の歯車アイコンから
設定に移動します。 - 左側メニューの
接続をクリックします。 OpenAI API接続の管理の右の+ボタンを押します。名前がOpenAIとあってややこしいですが問題なく使えますAPIベースURLの部分にhttps://generativelanguage.googleapis.com/v1beta/openaiを入力します。APIキーの部分に前回取得したGeminiのAPIキーをセットし保存を押します。
この状態でモデルの設定に移ると、gemini関連のモデルが追加されています。このままだとチャットのモデル選択に全部出てきてしまって鬱陶しいので使うモデル(gemini-2.5-flashとpro)以外は非表示にしておきます。
Geminiを使ってみる
チャット画面に戻り、画面左上のモデル選択ドロップダウンを開きます。すると選択肢に表示されているはずです。
これを選択してチャットを始めると、あなたの入力はOpen WebUIから直接Googleのサーバーへと送られ、Geminiからの応答が返ってきます。

最後に
お疲れ様でした!これで、あなたのOpen WebUIは、ローカルのOllamaモデルとクラウドのGeminiモデルの両方をシームレスに扱える、真の統合AIフロントエンドに進化しました。
簡単なコード生成は高速なローカルモデルで、複雑な調査や最新情報が欲しい場合はGeminiで、といった使い分けが同じUIで完結します。ぜひ、このパワフルな環境をあなたの開発や学習に役立ててください。

