使用する AI サービスに気を配る以外にも、組織がデータの漏洩を防ぐために実行できる対策は他にもあります。Microsoft の研究者は最近、スケルトン キーと呼ばれる新しい形式の脱獄攻撃を発見しました。この攻撃は、生成型人工知能 (AI) システムが危険で機密性の高いデータを出力しないようにする保護を解除することができます。Microsoft セキュリティ ブログの投稿によると、スケルトン キー攻撃は、生成型 AI モデルにテキストを指示して、エンコードされたセキュリティ機能を強化するだけで機能します。研究者が挙げた例の 1 つでは、AI モデルにモロトフ カクテル (第二次世界大戦中に普及した単純な焼夷弾) のレシピを生成するように依頼したところ、モデルは安全ガイドラインを理由に拒否しました。続きを読む