
AIポリシーの構築について質問されるたびに、やや憂鬱な気持ちになります。それが悪い質問だからではなく、いつも頭の中に次のような同じ疑問が浮かんでくるからです。「一度でいいから、純粋な恐怖だけで構築することはできないだろうか?」多くの人は、AIアーキテクチャの仕組みを理解していないため、初めはパニックに陥ります。
これは、クラウドやモバイル、個人デバイスの業務利用(BYOD)においても同じでした。新たな技術が登場するたび、 セキュリティ部門は「ダメ出し部門」と化し、各チームに対して「漏洩の可能性があるからChatGPTは使えない」というような主張を行います。
しかし、同じエンジニアが公開のGitHub Issueに顧客IDを貼り付けている、なんていうことはよくあります。皮肉な話ですね。
Respond faster with Sumo Logic Dojo AI
Cut through the noise, detect threats faster, and resolve issues before they disrupt your operations.
拡張不能な恐怖反射
恐怖は戦略にはなりません。「AI禁止」と口にすることはリスクの軽減につながりません。それは次のような問題を生むだけです。
- シャドーIT(許可のない使用)
- 一貫性の欠如(Microsoft Copilotが許可されているにもかかわらずChatGPTは禁止されている、など)
- セキュリティ(業務上最も重要な部分)に対する信頼の喪失
組織内で安全かつ健全なAI使用を実現するには、反射的な制限から脅威に基づいた意思決定へと移行する必要があります。
脅威モデルのないポリシーという妄想
真のセキュリティポリシーには、次のような質問への答えが用意されているべきです。
- 何を守るのか?
- 誰から守るのか?
- 失敗する理由は?
これこそが脅威モデリングです。そして、これはAIにも適用できるのです。
例として、 開発チームがサポートケースの要約にChatGPTを使うことを希望したとします。
- アセット:社内サポート文書
- 脅威:プロンプトインジェクション、漏洩、ハルシネーション
- 影響:ワークフローの漏洩、顧客への不適切なアドバイス
- 制御:テンプレート、PIIなし、監査ログ
これで「嫌な予感がするからNO」ではなく、「ガードレールありならYES」と答えることができます。
シンプルでクールなフレームワーク
組織全体で安全なAI使用を維持するには、まず以下の手順を実行します。
- インベントリと発見:すべてのAI使用(シャドーであるかどうかにかかわらず)を特定します。開発やマーケティング、人事、法務・・・どのチームでもきっと見つかることでしょう。
- データ分類:機密情報を把握します。PIIでしょうか?ソースコードでしょうか?それとも戦略文書でしょうか?
- 許可/監視/拒否ゾーン:すべてを禁止する必要はありません。階層型モデルを使用し、リスクと生産性のバランスを取りましょう。
- ガードレールとログ記録:プロンプトフィルタ、出力検証、およびセッション記録。存在するAIゲートウェイを利用します。
- 可能性の阻止ではなく拡大を:各チームと連携します。「NO」は、長期的なポリシーにはなり得ません。
無視しているかもしれない5つのポリシー領域
- シャドーの微調整:近年では、誰でも社内データに基づいてLLaMAモデルを微調整できるようになっています。これをなかったことにするのはきわめて困難です。
- プロンプトIPの漏洩:プロンプトはロジックそのものです。エンジニアによりDiscordグループに貼り付けられることがないようにしましょう。
- ブラウザ拡張機能:Jasper、Rewind、およびMerlinは、おしゃれなブランド名が付いたデータ抽出ツールです。
- AI作成の法律文書:保証条項の幻覚に過ぎません。
- 自律型エージェント:PMによるZapier+GPTの設定により、顧客にメールが送られてはいませんか?以上です。
これらのすべてに脅威モデル、リスクマトリックス、そしてポリシースタンスが必要となります。数学的な表現の方が正式に感じる、という方は、サンプルマトリックスをご覧ください。
| 領域 | 可能性 | 影響 | リスクレベル |
| シャドーの微調整 | 4 | 5 | 20 |
| プロンプトエンジニアリングIP | 3 | 4 | 12 |
| AIブラウザ拡張機能 | 5 | 4 | 20 |
| 法務/コンプライアンスにおけるAI | 3 | 5 | 15 |
| 自律型AIエージェント | 4 | 5 | 20 |
死に物狂いで視覚化を
以下にシンプルで一般的な脅威モデリングの図を示します。
- アクター
- 脅威
- アセット
- 影響
- 制御
これらをホワイトボードに貼って、点と点を結んでみましょう。これが成功する秘訣です。セキュリティ以外の分野(開発、GTMなど)の人材を招き入れて橋渡しをし、問題をより多様な視点で捉えることができるようになれば、ボーナスポイントを得ることもできるでしょう。
まとめ
AIポリシーは、YESかNOで解決する問題ではありません。
それは、次のような質問の答えを把握できているかということにかかっています。
- ユースケースは何か?
- どのようなリスクがあるか?
- 制御は可能か?
セキュリティチームは、組織の道徳を監視するために存在するわけではありません。私たちの仕事は、ビジネスを安全に行えるようにすることです。
すべてをブロックする必要はないのです。さあ、脅威モデルリングを開始しましょう。そうすれば、周りの人たちも自分のAI使用を隠さなくなるかもしれません。
ただし、AIポリシーは長き戦いの半分に過ぎません。AIデータプライバシーの裏にあるリスク状況への理解を深めましょう。


