
プライバシーの話をしましょう。特に”削除 “を押したときに、あなたが持っていると思っていたプライバシーについて。
オープンAIは裁判所命令 を受け 全てのChatGPTの会話 を保持しました。消去したものまで。そうですね。おかしなものでもね。「仮に、もし私が…」で始まるようなものでさえ。
なぜでしょうか?というのも、ニューヨーク・タイムズが著作権で彼らを訴えていて、今、皆さんの削除されたチャットが証拠になる可能性があるからです。エンタープライズプランに加入していない場合、または(JPMorgan のような大企業のような)特別な契約を交わしていない場合、ログは OpenAI のサーバーに保存されます。
これは一つの訴訟に限ったことではありません。これは、私たちがプライバシーについて 話す 内容と、それが実際にそのプライバシーがどのように扱われているか、との間に生じているギャップについての話です。
Respond faster with Sumo Logic Dojo AI
Cut through the noise, detect threats faster, and resolve issues before they disrupt your operations.
「データを一切保持しないという神話
どのAI企業も、このような主張をしています:
“お客様のプライバシーに深く配慮しています”
そう、弁護士が現れるまでは。そしてあなたが「削除」したログは、「コンプライアンス目的のために一時的にアーカイブ」されたものになります——永遠に。
翻訳しましょう:
- 通常ユーザーの場合、チャットは保存されます。
- 法的責任がある場合も、チャットは保存されます。
- もしモデル改良に役立つデータなら?当然のことながら、あなたの情報は保存されています。
法的な同意がない限り、LLMに言ったことはすべて裁判などで後から不利に使われる可能性があると考えておいた方がよいでしょう。
なぜ、これがセキュリティの悪夢なのか?
この裁判所命令により、OpenAIは、個人を特定できる情報(PII)、企業秘密、そして深夜2時に人々が入力した間抜けな事柄までもが集まる集中型ハニーポットと化します。それはない。
あなたは今、持っています:
- 機密性の高いプロンプトの、膨大で検索可能なデータベース。
- 保持ポリシーはリスクではなく、法的発見により決定されます。
- “削除 “をクリックしても まだ安全だと思っている ユーザーベース。
さらに悪いことに、悪役はそれを知っているのです。
AIが合法的なものに出会うとどうなるか
セキュリティの問題は、技術的なものだけではありません。法的であり、手続き的あり、建築的でもあるのです。この判決は先例となります。裁判所はAI企業に自社のプライバシーポリシー違反を強要でき、ユーザーは よほど よく読まない限り、知ることはありません。
“シフトレフト “は忘れてください。今、法的対応にシフトする必要があります。セキュリティポリシーは、裁判所命令とデータ保持の約束が矛盾する場合、何が起こるかを明確に扱うべきです。なぜなら、きっとそうなるから。
何をすべきか
AIを使い会社を経営する場合:
- 出かける前にプロンプトを磨きましょう。 OpenAIがやってくれるとは思わないように。
- ゼロ保持契約を交渉しましょう。 または、独自のローカルLLMを構築します。
- ChatGPTはお友達ではないと、従業員を教育しましょう 。まさに法廷での証言を求められる日が待っているようなものです。
AIを構築している場合:
- デフォルトでエフェメラルメモリを構築しましょう。 あるいは、プライバシーを気にするふりをしないことです。
- 保持を義務ではなく任意にするしましょう。 そして、 決して 課金に結び付けないでください。
セキュリティのために:法務チームに製品信頼に関する文書を書かせるのはやめましょう。
結論
未来は、デフォルトで非公開ではありません。交渉次第では、非公開です。今回の件でまさにそれが証明されました。
また、AIスタックが信頼の上に成り立っているのなら、ログを実際に管理しているのは誰か?
なぜなら「削除」はもうあなたが思っているような意味ではないからです。
Sumo Logicでは、調査のためにすべてのログを保管するよう常に言っていますが、この意味ではありません。それでも、ログの適切な可視化、監視、セキュリティが必要です。次のステップは、これらのAIツールにログを取得し、危険なセキュリティ・インシデントになり得るうっかりした行動をとる人々をすぐ検知できるアラートを構築することです。
データは、消えていません。そのため、Sumo Logicで監視するようにしてください。


