しかつきかふぇ

ちょっとした休憩時間に

openSUSE TumbleweedでOllama+open-webuiなチャットボットを動かそう!

今日は12月19日(金)です!!(大嘘)

どもです。今日の記事は、openSUSE Advent Calendar 2025 - Adventar の19日目の記事です !!!
そういうことにさせてください!!!!(ぉぃ

はい、正しくは 12月21日ですね。。。
昨日は東海道らぐのオフ会で、名古屋にいました。

ぎーこくんとななちゃん(名古屋港水族館ベルーガ)です。
イワシトルネードも見てきましたよ!(どこかの必殺技かな?)

と、前置きはこの辺りにして、今日は openSUSE Tumbleweed で Ollama + open-webui を動かしてみようと思います。
お手元の openSUSE でお手軽ローカルLLMを動かしてみましょ〜

まずは Ollama のインストールから

Ollama について、説明したほうが良いでしょうかね?

ollama.com

これは何かと言いますと、ローカルLLMを動かして APIサーバー化するものだと思ってくれればよいです。
一応コンソールとかでも使えますが、APIサーバーに変わりはないですね。Windows版ではGUIも一緒にインストールされるようなのですが、Linux版はそこまでしてくれてないようです。(ぇぇぇ・・・

インストールは公式ではシェルをダウンロードしてインストールするみたいな手順になってますが、openSUSE Tumbleweed ではパッケージ化もされてますので、 zypper からインストールすることも可能です。

sudo zypper install ollama

なお、Leap 16.0 にもパッケージがあるか否かは未確認です。
実はさっきから software.opensuse.org が落ちとる(= 503)んじゃ〜!!!
後でこちらのリンクを皆さんで確認してください、まる。

https://software.opensuse.org/package/ollama

ちなみに Ollama 公式のインストールシェルを叩くと systemctl の設定から何まですべて実行してしまう(ちょっと恐ろしい?)スクリプトのようですが、 zypper からインストールした場合は、手動で systemctl を叩く必要があります。こんな具合ですね。

# 起動と起動確認
sudo systemctl start ollama
sudo systemctl status ollama

# 自動起動設定
sudo systemctl enable ollama

ローカルLLMをダウンロードしよう

次にローカルLLMをOllamaから呼べるようにしていきます。

私の手元のこのノートPCは RTX3060 が入っているので、「RTX3060でGemma動かすにはどれがいいと思う?」と Geminiさんに確認したところ、「Gemma2 2bがいいよ〜」と返ってきました。
待て待て。なんでそこで Gemma2 なんやねん!?(古いやろ!!) と「Gemma3だったら?」と聞き直したら、「Gemma3 4bがいいと思います」と返ってきたので、こっちにしてみます。

てことで、 Ollama から Gemma3 4b をダウンロードしてみます。

ollama run gemma3:4b

すると Gemma3 4b がダウンロードされて、プロンプト入力待ち状態になります。これでローカルLLMのAPIサーバーが起動したことになります!

なお、ここでは一旦 Ctrl+D で入力待ちから抜けちゃってください。
ollama ps を叩くと、入力待ちから抜けてもまだAPIサーバーが生きてることがわかるので、このまま open-webui のインストールまで行っちゃいます!

続いて open-webui のインストール

これさぁ〜、、、ネーミングセンス・・・ry
(私お仕事的にこっち界隈の人ではあるけどこういうセンスほんとどうかと思う)

open-webui が何をするソフトウェアかって点は、名前のとおりです!

とりあえずインストールしていきます。
が、ここで落とし穴!

Python 3.13 では動きません!!!

(私お仕事的にこっち界隈の人ではあるけどやっぱしこういうセンスはほんとどうかと思う)
なのでてきとーに venv 作ってそこにインストールしちゃいましょ〜

# Python3.11がなければインストールしてね
sudo zypper install python311

# Python仮想環境の作成
mkdir open-webui
cd open-webui

python3.11 -m venv venv
source venv/bin/activate

# open-webuiのインストール
pip install open-webui

インストールが終わったら、open-webui を起動します!

open-webui serve

難しくはないと思いますがとりあえずこんな感じですね。
起動したと思ったら、下記URLを叩いてみましょ〜

http://localhost:8080

どやさ。
最初は管理者アカウントを作らされますが、作ってしまえばふつーに動くかと思います。

動かしてみたよ

とりあえず今日の晩ご飯を聞いてみた

うんいい感じだ。

なお、本日の私のご飯は、町内会の餅つき大会のお餅が大量に余ったため、朝、昼、晩と、3食お餅です!!(悲しい)
昨日名古屋で台湾ラーメンを買ってきたので、そこにお餅入れて食べよっかな〜と。

なおなお、Gemma3に、俳句も作らせてみました。

あ〜、そうですかぁ〜、左様ですかぁ〜〜

ということでお疲れ様でした!!!

宣伝。

え〜っと、冬コミ向けに書いた小説の連載版ですが、12/24(水) から連載スタートしようかな〜と思ってます。
もうちょい待ってくださいね〜〜