AWS MCP ServerがGA、Claude Codeから15,000のAWS操作が可能に AWS has made its official MCP Server generally available, allowing AI clients like Claude …
- AWSはAIエージェント向けの公式MCP Serverを正式リリースし、Claude CodeなどのAIクライアントから約15,000種類のAWS APIを自然言語で操作できるようにした。
- 認証はAWS CLIのプロファイルを流用でき、無料で利用可能。
- AIによるクラウド運用の自動化を一段と推し進める動きとなる。
English summary
- AWS has made its official MCP Server generally available, allowing AI clients like Claude Code to invoke roughly 15,000 AWS API operations through natural language.
- Authentication reuses existing AWS CLI profiles, and the service is free to use, marking a major step toward AI-driven cloud operations.
AWSはModel Context Protocol(MCP)に対応した公式サーバーを正式提供(GA)開始した。これにより、Claude CodeをはじめとするMCP対応のAIクライアントから、約15,000種類に及ぶAWSのAPI操作を自然言語経由で呼び出せるようになる。料金は無料で、AWS利用料以外の追加コストは発生しない。
MCPはAnthropicが2024年末に提唱したオープン仕様で、LLMが外部ツールやデータソースに統一的なインターフェースで接続するための「USB-C」のような存在として位置付けられている。AWSはこれまでもAIエージェント向けに個別のMCPサーバー(CDK用、コスト分析用など)を公開してきたが、今回のリリースはEC2、S3、Lambda、IAMといった主要サービスを横断的にカバーする統合的なAPIゲートウェイに近い。
認証は既存のAWS CLIプロファイルやIAMロールを利用するため、新たなクレデンシャル管理は不要とされる。ユーザーは設定ファイルにMCPサーバーのエンドポイントを記述するだけで、Claude Codeなどから「このS3バケットの中身を一覧して」「停止中のEC2インスタンスを起動して」といった指示を自然言語で実行できる。読み取り専用モードや承認フローを挟む設定も可能で、本番環境での誤操作リスクを軽減する仕組みが用意されていると見られる。
AWSはAIエージェント向けの公式MCP Serverを正式リリースし、Claude CodeなどのAIクライアントから約15,000種類のAWS APIを自然言語で操作できるようにした。
背景には、クラウド運用におけるAIエージェントの実用化競争がある。GoogleもGemini向けにCloud Run連携を強化しており、MicrosoftはGitHub CopilotをAzureポータルに統合する動きを進めている。AWSが標準プロトコルであるMCPを採用したことは、特定LLMへのロックインを避けつつエコシステムを広げる戦略と位置付けられそうだ。
一方で、AIに15,000ものAPIアクセスを許す構成はセキュリティ面の慎重な運用が欠かせない。最小権限のIAMポリシー設計、監査ログ(CloudTrail)の活用、本番アカウントでのドライラン徹底などが、現場での実装ポイントになるだろう。
AWS has announced general availability of its official Model Context Protocol (MCP) Server, enabling AI clients such as Claude Code to invoke roughly 15,000 AWS API operations through natural language. The service itself is free; users only pay for the underlying AWS resources they consume.
MCP is an open specification introduced by Anthropic in late 2024, often described as a "USB-C for LLMs" because it standardizes how language models connect to external tools and data sources. While AWS has previously published narrower MCP servers focused on specific domains like CDK or cost analysis, this new release acts more like a unified API gateway that spans core services such as EC2, S3, Lambda, and IAM.
Authentication leverages existing AWS CLI profiles and IAM roles, so administrators do not need to provision new credentials. After adding the MCP server endpoint to a client configuration file, developers can issue requests like "list the objects in this S3 bucket" or "start the stopped EC2 instances in us-east-1" directly from Claude Code or other MCP-compatible assistants. Read-only modes and approval workflows appear to be supported, which should help mitigate the risk of destructive actions in production environments.
The move reflects an intensifying race to make AI agents practical for real cloud operations. Google has been deepening Gemini's integration with Cloud Run and other GCP services, while Microsoft is weaving GitHub Copilot more tightly into the Azure portal. By embracing MCP — an open, vendor-neutral protocol — AWS seems to be positioning itself to attract a broader ecosystem of AI clients rather than betting on any single LLM provider. This is consistent with AWS's historical preference for offering choice across model families through Bedrock.
AWS has made its official MCP Server generally available, allowing AI clients like Claude Code to invoke roughly 15,000 AWS API operations through natural language.
That said, exposing 15,000 API operations to an autonomous agent raises non-trivial security questions. Best practices will likely include scoping IAM policies to least privilege, routing all activity through CloudTrail for auditing, and rehearsing agent behavior in sandbox accounts before granting access to production. Organizations may also want to combine the MCP server with Service Control Policies at the AWS Organizations level to provide a hard backstop against unintended actions.
For developers, the immediate appeal is the ability to drive complex AWS workflows conversationally — debugging a Lambda function, inspecting CloudWatch logs, or provisioning a quick test environment without context-switching to the console or memorizing CLI flags. Whether this evolves into fully autonomous cloud operations or remains a power-user productivity tool will depend on how confidently teams can constrain and observe the agents they unleash on their infrastructure.
本ページの本文・要約は AI による自動生成です。正確性は元記事 (qiita.com) をご確認ください。