Gemma

A collection of 3 posts
DockerでOpen WebUI+Ollama環境を簡単構築!
IT

DockerでOpen WebUI+Ollama環境を簡単構築!

LLMを手軽に使う方法とGPUトラブル対処法 1. はじめに ローカル環境で大規模言語モデル(LLM)を試したいけれど、難しそう…と思っていませんか? 今回は、Docker を使って、話題の Open WebUI と Ollama を簡単に構築し、手軽にLLMを使える環境を作る方法をご紹介します。 さらに、私が実際にハマった「GPUが認識されない問題」とその対処法も【補足】としてまとめました! 2. Open WebUI+Ollamaとは? * Ollama:ローカルでLLMを動かせるエンジン。各種モデル(例:Gemma、Llama3など)を簡単に利用可能。 * Open WebUI:Ollamaをブラウザから操作できる便利なフロントエンド。 この2つを組み合わせることで、まるでChatGPTのようにローカル環境でLLMが扱えるようになります! 3. Dockerを使った構築手順 ① 必要環境 * Docker & Docker Compose v2 がインストール済みであること ② docker-compose.
3 min read
Ollama APIを使用してみる
IT

Ollama APIを使用してみる

前回掲載した「Ollamaを使ってGemma3を動かしてみる」の続きで、今回はOllamaをAPI経由で使ってみたいと思います。 下記のサイトに従って、さっそくAPI経由でGemma3を使ってみましょう。 ollama/docs/api.md at main · ollama/ollamaGet up and running with Llama 3.3, DeepSeek-R1, Phi-4, Gemma 3, and other large language models. - ollama/ollamaGitHubollama 「なぜ空は青いの?」というプロンプトを投げてみます。 $ curl http://localhost:11434/api/generate -d '{"model": "gemma3:4b"
2 min read
Let's use Ollama
IT

Ollamaを使ってGemma3を動かしてみる

Ollamaとは Ollama は、ローカル環境で大規模言語モデル(LLM)を簡単に実行できるようにするオープンソースのソフトウェアです。 いま話題のDeepSeek、Phi-4、Gemma3 などの人気のある LLM を手軽にダウンロードして、実行できます。 Ollamaのインストール 下記のサイト(https://ollama.com)にアクセスし、Downloadボタンをクリックします。 OllamaGet up and running with large language models. リンク先の画面に、OSごとにインストールの仕方が表示されているので、その支持に従ってください。 curl -fsSL https://ollama.com/install.sh | sh $ curl -fsSL https://ollama.com/install.sh | sh >>>
3 min read