第1章:救えない現場と「3つの絶対的な壁」
🏥 激務の医師を救いたい—だが、クラウドは危険で高すぎる
ある医療ITベンダーのプロジェクトチームは、医師の負担を減らすためのAIアシスタント開発に挑んでいた。しかし、その前には「クラウドは危険で高すぎる。だが、ローカ𰺺Iは配れない」という絶望の淵があった。
プライバシーの壁
CISOの絶対条件:「患者の機密データを外部クラウドAPIに送信することは絶対に許されない」。HIPAA・ISMSの審査をパスするには「1bitも外に出さない」ことが求められた。
コストの壁
クラウドLLMのトークン課金は青天井。何百人の医師が毎日音声を文字起こしし、カルテを要約するたびに課金が発生し、定額ビジネスモデルが破綻するリスク。
導入の壁
Ollama等のローカ𰺺Iは配布が難しい。多忙な医師にAIデーモンのインストール、モデルDL、環境構築を強いることは実務上不可能だった。
第2章:魔法の杖「Foundry Local」の登場
📦 単なる推論ツールではない—「AIをアプリに同梱するSDK」
2026年4月9日、Microsoftがローカ𰺺Iソリューション「Foundry Local」を正式リリース(GA)。リードエンジニアは気づいた。これは単なるローカル推論ツールではなく、「AIをアプリにインプロセスで同梱するSDK」だということに。
チームは直ちに導入し、アプリの根本的な改修に取り掛かった。「収縮」の躍進——従来の個別デーモン型ローカ𰺺Iとは異なり、アプリに20MBのSDKを組み込むだけでAIが完全にアプリ内部に宿る。
インプロセス実行
軽量ランタイムをアプリに直接同梱。別デーモン不要
OpenAI互換API
api.openai.com → localhost に変えるだけで切り替え可能
設定ゼロ配布
エンドユーザーは通常のアプリインストールのみ
ハードウェア自動検知
デバイスをスキャンして最適パーツを自動選択
マルチ言語SDK
主要言語で完全動作サンプルを提供
最新モデル対応
ファミリーカタログから1行で切り替え
第3章:壁の崩壊と、医療特化型AIの実現
💊 ContosoMedicalの設計を参考に、3つの壁が崩れ落ちた
Microsoftの公式医療デモ𰃌ontosoMedical」の設計を参考に、チームはMap-reduce処理やWhisperによる音声文字起こしを医師のPC内で完結するように実装。不可能と思われた課題が次々と解決されていった。
✅ プライバシーの壁 突破
データは外部に一切送信されず、Microsoftへのテレメトリもありません。HIPAA・ISMS審査を一発クリア。
✅ コストの壁 突破
Azureサブスクor APIキー不要。トークン課金は完全にゼロ。診察時間に関わらず変動費は発生しません。
✅ 導入の壁 突破
20MBのSDKをアプリに直接バンドル。医師は「通常通りインストールするだけ」でAIが起動。
・ Map-reduceで長文カルテを分割要約(ローカルでバッチ処理)
・ Whisperオンデバイスでリアルタイム音声文字起こし
・ NPU自動検知で消費電力56%削減、50ms未満の超低遅延実現
第4章:災害や在宅医療への拡張(エピローグ)
🏕️ 「オフラインAIバッグ」としての活躍
Foundry Localの「完全オフライン動作」は、予期せぬ恩恵をもたらした。通信環境が不安定な患者宅を訪れる「在宅医療」や、ネットワークが遮断される災害時においても、訪問診療医が持ち歩くPC内で過去カルテの参照や音声記録が確実に動作する。
AIはクラウドから「借りる」ものではなく、医療現場が自ら「所有し、持ち運ぶ」ものへと変わった。Foundry Localは、患者の命とプライバシーを守る医療従事者にとって、最も頼もしい相棒となる基盤となる。
本日のまとめ
完全オフライン
データ1bitも外に出さずCISO権頼のセキュリティ審査を突破
推論コストゼロ
トークン課金なし、定額ビジネスモデルが成立
ゼロ設定配布
20MB SDK同梱、通常のアプリと同じ感覚でインストール
在宅・災害時
オフラインAIバッグとしてどこにでも持ち運べる知能