こんにちは、もーすけです。
最近「実践Claude Code入門」という本を読みまして、これがとても良かったのでぜひ紹介したいと思い筆を取りました。
タイトルに “Claude Code” とありますが、Claude Codeを使っていない人にもおすすめです。CursorやWindsurf、GitHub Copilotなど、類似のAIエディタを使っている方であれば間違いなく得るものがある一冊だと感じました。
「実践Claude Code入門」書評 ── AIエディタ時代に必要なスペック駆動開発とコンテキストエンジニアリングを学ぶ
2026-03-30
AI
OpenShift LightspeedにMCPサーバーを追加して、AIエージェント機能を強化する
こんにちは、もーすけです。 この記事は、OpenShift Advent Calendar 2025 の記事です。
OpenShift LightspeedにMCP (Model Context Protocol) をインストールできる(まだDeveloper Previewですが)と知ったので、さっそく試してみました。
MCPについては、以下のRed Hatの記事でも紹介されています。
Learn how to integrate incident detection with OpenShift Lightspeed, the AI-powered virtual assistant for Red Hat OpenShift
developers.redhat.com
今回は、記事のまま試すだけでは面白くないので、違うMCPサーバーを入れてみたいと思います。
利用するのは kubernetes-mcp-server です。
Model Context Protocol (MCP) server for Kubernetes and OpenShift - containers/kubernetes-mcp-server
Mac mini M4 Pro (64GB) はローカルLLMの夢を見るか? パフォーマンス検証とAIエージェント連携の現実
2025-04-04
AI
こんにちは、もーすけです。
昨今は、LLMの話題は尽きません。claudeやGeminiなどのクラウドLLMがすごいのはわかっていますが、 ローカルLLMがどこまでいけるのか、気軽に用意できるレベルでどこまでいけるのか、、、 とても気になっています。
というわけで、新しいMac mini (M4 Pro, 64GBメモリ) を購入してみました! Apple Silicon搭載Macは、その高い電力効率とユニファイドメモリによって、ローカル環境でのAI/機械学習タスク、特に大規模言語モデル(LLM)の実行において注目されています。
今回は、この新しいMac miniでローカルLLMがどの程度実用的に動作するのか、いくつかのモデルサイズや量子化方式を比較しながら検証してみました。さらに、ローカルLLMをAIエージェント(Cline)と連携させて、少し複雑なタスクを実行できるかも試してみました。
続きを読む
