わずか3週間前、サムスンはデータプライバシーへの懸念を理由に従業員によるOpenAIのChatGPTの使用禁止を解除していた。
しかし、禁止が解除されて以来、サムスンの従業員がサムスンの半導体部門に関連する機密情報を誤って ChatGPT に漏洩したという事例が 20 日間に 3 件発生したと報告書は述べています。エコノミスト・コリア(発見されたように)マッシュ可能)。
この禁止は当初、企業データを保護することを目的としていたが、2023 年 3 月 11 日に解除され、半導体部門のエンジニアが ChatGPT を使用してソース コードの問題を修正し、生産性を向上させ、最新の技術変化を認識できるようになりました。
韓国の大手企業はChatGPTの使用を許可する一方で、人気の人工知能(AI)チャットボットに「内部情報セキュリティに注意し、個人情報を入力しないよう」と半導体部門に通知も出した。
最初の例では、セミコンダクター・アンド・デバイス・ソリューションズの従業員が、半導体装置測定データベース (DB) ダウンロード ソフトウェアを実行中に問題に直面しました。
ソフトウェアのソースコードの問題のように見えたので、従業員はバグのある会社の機密ソースコードをコピーして AI ツールに貼り付けました。次に、チャットボットにエラーをチェックして解決策を見つけるように依頼し、実際にソース コードを ChatGPT の内部トレーニング データの一部にしました。
2 番目の例では、従業員がデバイスの歩留まりやその他の情報を理解するのが難しいことに直面し、AI チャットボットとコードを共有し、ChatGPT に「コードの最適化」を要求しました。
3 番目の訴訟では、従業員が社内の機密会議の記録を共有し、それをプレゼンテーション用のメモに変換するよう ChatGPT に依頼しました。これらのインシデントにより ChatGPT と共有された情報は永久に ChatGPT の一部となり、削除することはできません。
その結果、Samsung はただちに対策を講じ、各従業員の ChatGPT プロンプトの長さを 1 キロバイトまたは 1024 文字のテキストに制限しました。同社はまた、流出に関与した従業員3人を調査するとともに、禁止令の再発動も検討しているという。
将来このような恥ずかしい事故を防ぐために、サムスンは現在、従業員が内部目的でのみ使用することを目的とした独自の AI チャットボットを開発中です。
サムスンが送付した社内メモには、「緊急の情報保護措置を講じた後でも同様の事故が発生した場合、社内ネットワーク上でChatGPTへのアクセスがブロックされる可能性がある」と記載されており、従業員に対しAIツールの使用に注意するよう勧告している。
「ChatGPT にコンテンツが入力されるとすぐに、データが外部サーバーに送信されて保存されるため、企業がデータを取得することは不可能になります。」
ChatGPT のユーザーガイド「履歴から特定のプロンプトを削除できない」ため、会話で機密情報を共有しないようユーザーに明示的に警告しています。
ユーザーが明示的にオプトアウトを選択しない限り、ChatGPT と共有されるすべての質問とテキストは、AI モデルのトレーニングと改善のために保持されることに注意することが重要です。言い換えれば、システムからデータを完全に消去することは困難または不可能です。
「安全で責任ある AI への取り組みの一環として、私たちは会話をレビューしてシステムを改善し、内容が当社のポリシーと安全要件に準拠していることを確認します…システムを改善するために、あなたの会話は AI トレーナーによってレビューされる場合があります」と OpenAI は明確に説明していますそのウェブサイトで。
特に、OpenAI は次のように主張しています。「モデルのパフォーマンスを向上させるために使用する予定のデータから、個人を特定できる情報はすべて削除されます。また、モデルのパフォーマンスを向上させるために、顧客ごとに少量のデータ サンプルのみを使用します。」
興味深いことに、ChatGPT はヨーロッパでのデータ収集ポリシーに関して最近多くの精査を受けています。イタリア、AIチャットボットを一時禁止国内ではプライバシー上の懸念を理由に。ドイツイタリアの最近の ChatGPT 禁止に追随し、自国で AI チャットボットをブロックするという同様の措置を講じる可能性もあります。