Googleの親会社であるAlphabetは、AIツールを使用する危険性についてスタッフに警告し、自社のチャットボットBardを含むチャットボットに機密情報を入力しないようアドバイスした。報道によると、Alphabetは従業員に対し、Open AIのChatGPTなどのAIチャットボットを使用して機密データを送信しないよう警告していたという。同社は、長年にわたる情報セキュリティポリシーを引用して、これを検証しました。 6 月 1 日に更新された Google のプライバシーに関する通知には、「吟遊詩人の会話に機密情報や機密情報を含めないでください」と記載されています。 Bard や ChatGPT などのチャットボットは、いわゆる生成型人工知能を使用してユーザーとディスカッションを行い、幅広い質問に応答する人間のようなソフトウェア アプリケーションです。チャットボット上で作成されたチャットは、人間のレビュー担当者によってアクセスおよび読み取りが可能であり、研究者は、同様の AI がトレーニング中に取り込んだデータを複製する可能性があり、漏洩のリスクを引き起こす可能性があることを発見しました。さらに、Alphabetはチャットボットが生成したコンピューターコードを直接使用しないようエンジニアに警告した。