Samsung は、従業員が誤って機密情報をチャットボットに漏らした後、ChatGPT の使用を禁止しました。ブルームバーグによると、従業員向けのメモで、会社所有のデバイスと内部ネットワークでのジェネレーティブ AI システムの制限が発表されました。 Samsung の従業員はソース コードを ChatGPT と共有してエラーをチェックし、それを使用して会議の議事録を要約していました。 「この関心は、これらのプラットフォームの有用性と効率性に焦点を当てていますが、ジェネレーティブ AI によってもたらされるセキュリティ リスクについての懸念も高まっています」とメモは述べています。 ChatGPT と共有される情報は OpenAI のサーバーに保存され、ユーザーがオプトアウトしない限り、モデルの改善に使用できます。関連項目: おっと、Samsung の従業員が ChatGPT を介して誤って企業秘密を漏えいした Samsung ChatGPT の漏えいは、AI チャットボットで個人情報や職業情報を共有することのリスクを浮き彫りにしました。 ChatGPT は、タスクを迅速かつ効率的に達成するための生産性向上ツールとして宣伝されています。しかし、従業員が機密情報を共有している場合、プライバシーの問題が生じます。