その他業務
Copilot CLIのマルチモデル切替機能を活かし、顧客から届いた大量資料を「2プロンプト」で即座に分析・俯瞰資料化するワークフロー。GPTの深い洞察とClaudeの構造化力を掛け合わせ、単一モデルでは到達できない品質を実現します。
大量資料 → 即時横断分析 → 俯瞰資料化
Copilot CLIのマルチモデル切替機能を活かし、顧客から届いた大量資料を「2プロンプト」で即座に分析・俯瞰資料化するワークフローです。
フローの全体像
このワークフローの核心: GPTの「深い論理的洞察・仮説生成」と Claudeの「構造化・俯瞰・エグゼクティブ視点」を2段階で組み合わせること。1モデルでは到達できない品質が得られます。
前提環境
- Copilot Pro+推奨 — Claude Opus や高負荷モデルにアクセスしやすい
- Copilot CLIインストール済み —
npm install -g @github/copilot - GitHub認証済み —
copilot→/login - macOS / Linux / Windows 対応
分析専用ワークスペースの作成
毎回同じ構造でフォルダを作ることが、Copilotの横断参照精度を最大化する鍵です。
推奨構造
├── raw/ # 生資料(PDF/Word/Excel/画像)
├── docs/ # Markdown化した資料(メイン解析対象)
├── analysis/ # Phase1: 深層分析結果
├── deliverables/ # Phase2: 最終俯瞰資料
├── .github/
│ └── copilot-instructions.md # 分析ルール(自動適用)
├── AGENTS.md # カスタムエージェント定義
└── analysis-checklist.md # 分析観点テンプレート
ワンコマンドで作成するスクリプト
#!/bin/bash
# ~/bin/new-analysis-workspace.sh として保存
mkdir -p "$1"/{raw,docs,analysis,deliverables,.github}
cp ~/.templates/copilot-instructions.md "$1/.github/"
echo "# 分析ワークスペース: $1" > "$1/README.md"
echo "ワークスペース作成完了: $1"new-analysis-workspace.sh customer-acme-202603
cd customer-acme-202603このスクリプトを1回作っておけば、以後は「資料受領 → スクリプト実行 → cd → 2プロンプト」で分析完了。再現性100%。
分析専用 Custom Instructions
以下のテンプレートを .github/copilot-instructions.md に保存します。Copilot CLIが自動読み込みします。
# 顧客資料分析エージェント 厳守ルール
## 基本哲学(全Phase共通)
- 常にMECE・ロジカル・仮説駆動で思考
- 全資料を「1つの巨大知識グラフ」として横断参照
- 矛盾・不足情報は必ず【情報不足】タグ + 優先度(高/中/低)で明示
- 出力は必ずMarkdown(テーブル多用、箇条書き明確)
- 日本語出力厳守
- バイアス排除:【事実】/【推測】/【仮説】タグで区別
## 出力品質基準
- 引用元ファイル名 + ページ/セクションを必ず明記
- 必要に応じてMermaid記法で関係図・タイムラインを挿入
- 出力前に「MECE確認」「不足タグ全網羅」「論理矛盾ゼロ」を自己検証
## Phase1(GPT深層分析モード)
- 深い論理的洞察・仮説生成を優先
- 「なぜ?」を最低3階層まで掘り下げる
- 出力先: analysis/comprehensive-analysis-v1.md
## Phase2(Claude俯瞰資料化モード)
- 構造化・俯瞰・エグゼクティブ視点
- 「次に顧客に聞くべき質問リスト」を必ず作成
- 出力先: deliverables/executive-overview-v1.mdCustom Instructionsはモデル切替しても一貫して適用されます。Phase1/Phase2の出力先を固定することで、ファイル管理が混乱しません。
資料の前処理 — Markdown変換が精度の鍵
Copilotは Markdown が最も高精度です。PDFのままでは表・図・レイアウトが崩れやすいため、事前変換が重要です。
方法1: Copilot自身に変換させる(最速)
@raw/**
すべてのファイルを高精度Markdownに変換せよ。
- 表はテーブル形式
- 図は詳細説明テキスト化
- ファイル名は「YYYYMMDD_テーマ.md」形式
- docs/フォルダに保存方法2: 専用ツール併用(高精度)
複雑なレイアウトや日本語資料には専用ツールが有効です:
- MinerU — 無料・最高精度のPDF変換ツール
- Marker / LlamaParse — 高精度な代替オプション
docs/ 内に数十ファイルあっても問題ありません。@docs/** で一括横断参照可能。100ファイル超えたらサブフォルダに分割を推奨。
Phase1: GPT深層分析(横断ロジカル分析)
GPTの強み: 深い論理的洞察、仮説生成、多角的分析、「なぜ?」の掘り下げ
copilot/model GPT-5.4
@docs/**
全資料を限界までロジカルに横断読み込み、以下の構造で包括分析せよ:
1. 全体像マッピング(テーマ・時間軸・関係性グラフ)
2. 深いインサイト・仮説群
3. ステークホルダー分析(影響力×関心度)
4. 矛盾点・一貫性問題の詳細リスト
5. 【情報不足】項目(優先度高→低)
6. 戦略的示唆(短期/中期/長期)
出力: analysis/comprehensive-analysis-v1.md に詳細記述。
まず「現在参照したファイル数: XX」と報告せよ。全体像マッピング
テーマ・時間軸・関係性グラフで全資料の構造を可視化
深いインサイト・仮説群
「なぜ?」を3階層まで掘り下げ、論理的な仮説を生成
ステークホルダー分析
影響力 × 関心度のマトリクスで利害関係者を整理
矛盾点・一貫性問題
資料間の矛盾を検出し、優先度付きでリスト化
情報不足項目
【情報不足】タグで優先度高 → 低の順に整理
戦略的示唆
短期 / 中期 / 長期に分けたアクション提案
Phase2: Claude俯瞰資料化(エグゼクティブ資料)
Claudeの強み: 構造化、俯瞰、一貫性、最終出力の「読みやすさ」
/model Claude Opus 4.6
@analysis/comprehensive-analysis-v1.md @docs/**
上記分析+元資料を基に、エグゼクティブ向け俯瞰資料を作成:
1. エグゼクティブサマリー(300文字以内)
2. 主要テーマ別整理(各テーマに洞察+証拠引用+不足)
3. リスク/機会マトリクス(テーブル形式)
4. タイムライン別アクションプラン
5. 「次に顧客に聞くべき質問リスト」(即依頼可能形式・5〜10個)
6. 提案Next Step(具体的アクション+所要時間)
出力: deliverables/executive-overview-v1.md
視認性・論理構造を最優先。Mermaid図を2つ以上含めること。Phase1の出力をPhase2の入力に使うことで、2つのモデルの強みを掛け合わせます。GPTの「深さ」× Claudeの「構造化」= 単一モデルでは到達できない品質。
効率化・自動化Tips
- Effort調整 — GPT時に
/effort highまたは「最高精度・深層思考モードで」と追加 - トークン対策 — 大量資料時は
/compactで履歴圧縮 - カスタムエージェント — AGENTS.mdに「Senior Document Analyst」定義
- スクリプト化 — Phase1/Phase2のプロンプトを
.shファイルに保存して自動実行 - セキュリティ — 機密資料時は
--allow-allを使わない。組織ポリシー確認
タグシステムの活用
分析出力内の【情報不足】【事実】【推測】【仮説】タグで:
- 不足検知 → 即顧客依頼 — 情報が足りない箇所を即座に特定
- 事実と推測の分離 → 意思決定精度向上 — 根拠の強度を明確化
- 検索・フィルタリング → 後から必要な情報を即発見 — タグで構造化された分析結果
エッジケース対応
| 状況 | 対応 |
|---|---|
| 資料が重複 | 重複を明示し最新版を優先 |
| 矛盾する資料 | 両論併記+「顧客確認必須」タグ |
| 英語資料混在 | 日本語訳を併記(要約レベル可) |
| 100ファイル超 | サブフォルダ分割+まず全体構造マップを作成 |
| 数値データ多め | 統計的傾向(平均・中央値・外れ値)を自動算出 |
| 画像・図が多い | テキスト化済みとみなし【図説明】タグで参照 |
まとめ — 1回作れば一生使える
このテンプレートを1セット作っておけば:
資料受領
ワークスペーススクリプト実行(5分)
前処理
Markdown変換(5分)
Phase1
GPT深層分析(5分)
Phase2
Claude俯瞰資料化(5分)
成果物完成
エグゼクティブ資料+不足質問リスト完成
分析結果の最終確認チェックリスト
AI分析結果を顧客に送付する前に、以下を必ず人間が確認してください:
- 事実確認: 【事実】タグの内容が元資料と一致しているか
- 推測の妥当性: 【推測】【仮説】タグの内容が論理的に妥当か
- 不足の網羅性: 【情報不足】タグが実際の不足箇所を全てカバーしているか
- 機密情報: 顧客名・機密データが適切に匿名化されているか
- 数値の正確性: 引用数値が元資料の数値と一致しているか
- 質問リストの質: 「次に聞くべき質問」が的確で、顧客にそのまま送れるか
AIは「もっともらしい嘘」を書くことがあります。特に数値データと因果関係の推論は、必ず元資料と照合してください。
PM特化プロンプトテンプレート集
エンジニア以外(PM・ビジネス職)でも即使えるプロンプト集です。
1. 要件整理
@docs/**
この資料群から機能要件と非機能要件を分離し、
優先度(Must/Should/Could/Won't)でMoSCoW分類せよ。
矛盾する要件があれば【矛盾】タグで明示。2. PRD(製品要件定義書)作成
@docs/**
以下の構造でPRDを作成せよ:
1. 背景と目的
2. ターゲットユーザー
3. ユーザーストーリー(As a... I want... So that...)
4. 機能要件(Must/Should)
5. 非機能要件(パフォーマンス・セキュリティ)
6. 成功指標(KPI)
7. スコープ外
出力: deliverables/prd-v1.md3. 論点抽出
@docs/**
全資料から「未決定事項」「リスク」「ステークホルダー間の意見の相違」を
抽出し、優先度付きの論点リストを作成せよ。
各論点に「決定に必要な情報」と「推奨アクション」を付与。4. Issue分解
@deliverables/prd-v1.md
このPRDから実装可能なGitHub Issueを生成せよ:
- 1 Issue = 1機能(4時間以内で完了可能な粒度)
- 各IssueにAcceptance Criteria付き
- 依存関係がある場合は明記
- 優先度ラベル付きこれらのテンプレートを .github/skills/pm-toolkit/SKILL.md として保存しておけば、Copilotが文脈に応じて自動ロードします。PMの日常業務を劇的に効率化。
PM実践ワークフロー プロンプト集
PM業務の主要8カテゴリをカバーするコピペ即使用プロンプト集です。Agent Mode / Copilot CLIで使用し、@docs/ @deliverables/ のパス規約に従います。
1. スプリント計画・バックログ管理
@deliverables/backlog.md
次スプリント(2週間)の計画を作成せよ:
- チームベロシティ: [X]ポイント/スプリント
- 優先度順にストーリーを選択(Must → Should)
- 各ストーリーにAssignee候補とDependencyを明記
- スプリントゴールを1文で定義
- リスクバッファ(ベロシティの20%)を確保
出力: deliverables/sprint-plan-v1.md@deliverables/backlog.md @docs/requirements/**
バックログを整理せよ:
1. 完了済み・重複アイテムを【削除候補】タグで明示
2. 未着手アイテムを優先度(Must/Should/Could)で再分類
3. 粒度が大きすぎるアイテム(8SP超)を分割提案
4. 依存関係グラフをMermaid形式で出力
5. 「Ready for Sprint」条件を満たすアイテムに【Ready】タグ
出力: deliverables/backlog-groomed.md2. 見積もり・複雑度分析
@deliverables/prd-v1.md
各ユーザーストーリーのストーリーポイントを見積もれ:
- フィボナッチ数列(1/2/3/5/8/13)で評価
- 評価軸: 実装複雑度・不確実性・作業量
- 8SP以上は分割を提案
- 見積もり根拠を1行で付記
- 合計ポイントとベロシティ比較表を出力
| ストーリー | 複雑度 | 不確実性 | 作業量 | SP | 根拠 |
出力: deliverables/estimation-v1.md3. 会議 → アクションアイテム → チケット化
@docs/meeting-notes/YYYY-MM-DD.md
この議事録からアクションアイテムを抽出しチケット化せよ:
1. 発言者ごとにアクションアイテムを抽出
2. 各アイテムに期限・担当者・優先度を付与
3. GitHub Issue形式で出力(タイトル + Description + Labels)
4. 決定事項を【決定】タグ、未決定を【要確認】タグで分類
5. 次回会議のアジェンダ案を生成
出力: deliverables/action-items-YYYY-MM-DD.mdGitHub Projects MCPを接続していれば、抽出したIssueを @copilot Issueとして作成して で直接登録可能。Obsidian MCPと併用すれば決定事項のZettelkasten自動更新も実現します。
4. ステークホルダーレポート
@deliverables/sprint-plan-v1.md @docs/jira-export.csv
週次ステータスレポートを作成せよ:
- サマリー(3行以内)
- 完了タスク一覧(今週)
- 進行中タスク + 完了予定日
- ブロッカー・リスク(🔴🟡🟢 ステータス付き)
- 来週の予定
- KPI進捗(計画 vs 実績)
出力形式: Markdown + Mermaid進捗グラフ
出力: deliverables/weekly-status-YYYY-MM-DD.md@deliverables/weekly-status-*.md
直近4週の週次レポートからエグゼクティブサマリーを生成せよ:
- プロジェクト全体の健全度(🟢🟡🔴)
- マイルストーン進捗(Mermaid Ganttチャート)
- 主要リスクTOP3と対策状況
- 予算消化率 vs 進捗率の乖離分析
- 経営層への推奨アクション
PPT用のスライド構成案も併記。
出力: deliverables/exec-summary-YYYY-MM.md5. リスク管理(RAIDログ)
@deliverables/prd-v1.md @docs/**
RAIDログを作成せよ:
| カテゴリ | ID | 内容 | 影響度 | 確率 | 対策 | 担当 | 期限 | ステータス |
- Risk: 技術・スケジュール・外部依存リスク
- Assumption: 前提条件(崩れた場合の影響も記載)
- Issue: 現在発生中の課題
- Dependency: 外部チーム・サービスへの依存
各項目に【高/中/低】の影響度スコアを付与。
週次で差分レビュー可能な形式で出力。
出力: deliverables/raid-log-v1.md6. レトロスペクティブ
@deliverables/sprint-plan-v1.md @docs/jira-export.csv
スプリントレトロスペクティブを準備せよ:
1. KPT形式で整理:
- Keep: うまくいったこと(データで裏付け)
- Problem: 課題(ベロシティ低下原因、ブロッカー分析)
- Try: 改善アクション(具体的・計測可能)
2. 前回Tryの実施状況を追跡
3. ベロシティトレンド(直近5スプリント)をMermaidグラフで可視化
4. チーム満足度サーベイのテンプレートを付与
出力: deliverables/retro-sprint-XX.md7. ロードマップ可視化(Mermaid)
@deliverables/prd-v1.md
プロジェクトロードマップをMermaid Ganttチャートで生成せよ:
- フェーズ: Discovery → Design → Development → Testing → Launch
- 各マイルストーンに開始日・終了日・依存関係を設定
- クリティカルパスをハイライト
- リソース制約を考慮した現実的なスケジュール
gantt
title プロジェクトロードマップ
dateFormat YYYY-MM-DD
section Discovery
要件定義 :a1, 2026-05-01, 14d
section Design
UI/UXデザイン :a2, after a1, 10d
section Development
バックエンド :a3, after a2, 21d
フロントエンド :a4, after a2, 21d
section Testing
統合テスト :a5, after a3, 7d
section Launch
本番デプロイ :milestone, after a5, 0d
出力: deliverables/roadmap-v1.md8. OKR / KPIトラッキング
@deliverables/okr-*.md @docs/metrics/**
OKR進捗ダッシュボードを生成せよ:
- 各Objectiveの達成率(0-100%)
- Key Result別の進捗バー(Mermaid pie chart)
- 赤信号KRのボトルネック分析と推奨アクション
- 四半期トレンド(前四半期比較)
- 次四半期のOKR案(現在の進捗と学びを反映)
出力: deliverables/okr-dashboard-QX.md
Excel出力が必要な場合は @excel MCP を使用。上記プロンプトを .github/skills/pm-workflows/SKILL.md に保存すれば、Agent Modeで「スプリント計画して」「レトロ準備して」と指示するだけで対応プロンプトが自動ロードされます。
AIPM — AI Project Management完全自動化
PPT/Excel作成にとどまらず、要件定義 → 計画 → タスク分解 → 資料作成 → 進捗管理 → レビュー → Second Brain更新までを自然言語だけで回すAI PM環境を構築します。
AIPM特化 おすすめMCPサーバー
既存のMCPサーバー(context7・playwright・atlassian)と組み合わせることで、PM業務の全工程をカバーできます。
| カテゴリ | MCPサーバー | AIPM用途 |
|---|---|---|
| プロジェクト管理 | kunwarVivek/mcp-github-project-manager | Issues/PR/Board自動更新、タスク分解、トレーサビリティ |
| Office全般 | Microsoft 365 MCP(公式) | Word/Outlook/Teams/SharePoint/Planner → 報告書・議事録・メール自動生成 |
| 構造化思考 | Task Master / Sequential Thinking MCP | ステップバイステップ計画、バックログ生成、リスク分析、RAIDログ |
| ナレッジ連携 | Obsidian MCP(Vault直結版) | Second Brain直接更新、Zettelkasten自動化、PARA構造との連携 |
| デザイン/調査 | Figma MCP + Playwright(既存) | プロトタイプ生成 + Web調査自動化 |
| 記憶/文脈 | Context7(既存) + Knowledge Graph MCP | 長期記憶保持、プロジェクト全履歴参照 |
.mcp.json に1行追加 → copilot mcp reload で即反映。手作業ゼロで全部動きます。
PM専用Skills & Plugins
| スキル/プラグイン | 内容 | 導入方法 |
|---|---|---|
| product-on-purpose/pm-skills | 32個のPMベストプラクティス — PRD、User Stories、Experiment Plan、Retrospective、RACI、Gantt(Mermaid) | GitHubからclone → .github/skills/ に配置 |
| awesome-copilot PMスキルセット | breakdown-plan / breakdown-epic-pm / status-report など | GitHubからclone → Skillsフォルダに配置 |
| Copilot-Cockpit | 計画 → 承認 → 実行 → レビューの段階的自律化 | VS Code Extensionsからインストール |
カスタムSkill推奨(プロジェクト固有)
- PRD生成スキル — プロジェクト固有のテンプレートで製品要件定義書を自動生成
- KPIダッシュボードスキル — Excel自動更新 + Mermaidグラフ + PPTエクスポート
- コンテンツ企画→公開フロースキル — 記事企画 → 下書き → レビュー → 公開の全工程自動化
AIPM実践ワークフロー
Claude Code CLIとCopilot Agentのハイブリッドで、PM業務を1プロンプトで完了させます。
# Step 1: Claude Code CLIで要件をドラフト
claude "AIPO2第2回試験のロードマップを要件定義レベルで整理して"
# Step 2: Copilot Agent Mode起動(MCP/Skills全ロード)
copilot --agent
# Step 3: 1プロンプトでPM作業を一括実行
「以下を順番に実行して:
1. @deliverables/requirements.md を基にJiraにEpic+Storyを作成
2. Obsidian vault(c:/develop/obsidian/2026/)にZettelkasten追加
3. 週次進捗レポートをWord+PPTで作成(deliverables/に保存)
4. Slackの#project-updateチャンネルにサマリーを投稿」MCP経由でJira/Slack/Obsidianへ書き込む場合は、最初は読み取り専用で動作確認してから書き込み権限を追加してください。autoApproveは low から始め、意図しない操作がないことを確認してからレベルを上げることを推奨します。
AIPM環境の全体像
{
"servers": {
// --- 基盤MCP ---
"github": {
"type": "http",
"url": "https://api.githubcopilot.com/mcp/",
"headers": { "X-MCP-Toolsets": "default,copilot_spaces" }
},
"context7": {
"type": "http",
"url": "https://mcp.context7.com/mcp"
},
"playwright": {
"command": "npx",
"args": ["-y", "@playwright/mcp@latest"]
},
// --- Office MCP ---
"excel": {
"command": "npx",
"args": ["-y", "excel-mcp-server"]
},
"ppt": {
"command": "PptMcp.McpServer",
"args": []
},
// --- AIPM特化MCP ---
"github-projects": {
"command": "npx",
"args": ["-y", "mcp-github-project-manager"],
"env": { "GITHUB_TOKEN": "${env:GITHUB_TOKEN}" }
},
"obsidian": {
"command": "npx",
"args": ["-y", "obsidian-mcp-server"],
"env": { "VAULT_PATH": "c:/develop/obsidian/2026" }
},
"sequential-thinking": {
"command": "npx",
"args": ["-y", "sequential-thinking-mcp"]
}
}
}# AGENTS.md - AI PM Environment
## Core Principles
- MUST: タスクは4時間以内で完了可能な粒度に分解する
- MUST: 全成果物にAcceptance Criteriaを付与する
- MUST: 外部サービスへの書き込み前に必ず確認を求める
- NEVER: 本番環境のデータを直接変更しない
- NEVER: 機密情報(API Key等)をコミットしない
## ツール連携
- Jira/GitHub Issues: タスク管理の唯一の情報源
- Obsidian: Second Brain(Zettelkasten + PARA構造)
- Excel/PPT: 成果物はdeliverables/フォルダに出力
## Lessons Learned
* 2026/04/01: MCP書き込みは必ず読み取り→書き込みの順で検証
* 2026/04/05: PRDは要件→ストーリー→Issueの3段階で分解すると精度向上
## Skills
- pm-toolkit: PRD/User Stories/Issue分解
- ppt-excel-generator: レポート・ダッシュボード自動生成
- obsidian-zettel: Second Brain自動更新この構成で「ロードマップ作成 → Jiraにタスク登録 → ObsidianにZettel追加 → 週次レポートをWord+PPTで作成」まで1プロンプトで完了します。GitHub + Obsidian + Office が全部繋がったAI PM環境の完成です。