AI

A collection of 5 posts
OpenAI Codexで簡単なWebアプリを作成してみる
AI

OpenAI Codexで簡単なWebアプリを作成してみる

概要 今回は ChatGPT5 Codex を使って、コードを書かずに Web アプリを作成してみたいと思います。 テーマは、娘が高校受験を控えているので、英単語クイズアプリにしました。 勉強に役立ててもらえたらうれしいです。 手順 (1) VSCodeに「Codex - OpenAI's coding agent」拡張をインストールします。 (2) Next.jsを使うことにしたので、環境を整えます。 $ nvm install --lts $ nvm use --lts Now using node v22.19.0 (npm v10.9.3) $ node -v v22.19.0 $ npm -v
4 min read
ChatGPTのエージェントだけでWebアプリを作成する
IT

ChatGPTのエージェントだけでWebアプリを作成する

数日前に、私の環境でもChatGPTのエージェントが使えるようになったので、早速試してみました。 エージェントへの切り替え ChatGPTのテキスト入力欄の[ツール]から「エージェントモード」を選択します。 今回は「情報源」として「ウェブ検索」を選択しました。 プロンプト プロンプトには、下記を入力して実行してみます。 Ubuntu24.04上で下記の要件のアプリケーションを作成したい。 - Git Hub上にあるDockerイメージを利用 - ITセキュリティに関連する書籍の情報を入力・更新・削除できるWebアプリケーションを作成 - プログラミング言語はPythonを使用 - Pythonとデータベースとのやり取りはORMを使用 - フレームワークを使用してもよい。 応答 約4分後に下記が出力されました。 承知しました。Ubuntu 24.04環境で、GitHub上のDockerイメージを利用し、ITセキュリティ関連書籍をCRUD操作できるPython Webアプリケーションを構築します。ORMを使用してデータベースとのやり取り
5 min read
【MCP】Ollama+Open WebUI+MCPO環境でMCPを試す
IT

【MCP】Ollama+Open WebUI+MCPO環境でMCPを試す

1. はじめに 最近のニュースで、MCPに関する記事が増えてきました。 MCPというと、私はMicrosoft Certified Professional のことだと思ってしまいます ^^; が、 ここでのMCPは、Module Context Protocolの略で、LLMが「外部のツール」と安全・柔軟につながるための標準プロトコルのことを指します。 2. MCPの利用例 たとえば、LLMに次のような依頼をしたとします。 「このページの内容を読んで要約して」 普通のLLMはWebにアクセスできないので何もできませんが、MCP対応のモデルなら * 「fetch」ツールを呼び出してWebページを取得 * その結果を元にLLMが要約 というように、ツールを"使って"推論できるようになります。 3. MCPの登場背景 もともとOpenAIやAnthropic、Googleなどは「Tool Use」という仕組みを独自に実装していました。 でも、それぞれやり方
4 min read
【LoRA】少ないデータで、AIモデルをチューニングする
IT

【LoRA】少ないデータで、AIモデルをチューニングする

概要 今回は、画像生成モデルStable Diffusionを使って、当ブログの英語の記事で登場するEmiさんのイラストが簡単に生成できるようにしたいと思います。 そのために、LoRAという技術を使います。 LoRA(Low-Rank Adaptation)とは、AIモデルのファインチューニングを効率的に行うための技術です。特に大規模言語モデル(LLM)や画像生成AIの微調整に用いられ、少ない計算資源で高品質なカスタマイズを可能にします。 LoRAは、モデルの重みを直接変更するのではなく、低ランクの行列を挿入して学習することで、従来のファインチューニングよりも少ない計算コストで高い性能を維持できます。 🧠 LoRAの数学的な挿入位置 元の重み W を以下のように拡張します: W' = W + α * (BA) A:低ランクの行列(学習する) B:低ランクの行列(学習する) α:スケーリング係数(学習時や推論時に設定) この BA 部分だけが学習され、元の W は固定のままです。     📌 実行時(推論時)の仕組み LoRAで生成
7 min read
Let's use Ollama
IT

Ollamaを使ってGemma3を動かしてみる

Ollamaとは Ollama は、ローカル環境で大規模言語モデル(LLM)を簡単に実行できるようにするオープンソースのソフトウェアです。 いま話題のDeepSeek、Phi-4、Gemma3 などの人気のある LLM を手軽にダウンロードして、実行できます。 Ollamaのインストール 下記のサイト(https://ollama.com)にアクセスし、Downloadボタンをクリックします。 OllamaGet up and running with large language models. リンク先の画面に、OSごとにインストールの仕方が表示されているので、その支持に従ってください。 curl -fsSL https://ollama.com/install.sh | sh $ curl -fsSL https://ollama.com/install.sh | sh >>>
3 min read