目次
はじめに
ChatGPTを導入すれば、無尽蔵な知識にアクセスできます。しかし、その知識には、不特定多数に公開したり、誰かに教えたりしてはならない情報が含まれていたり、差別情報や不正確な情報が含まれている可能性があります。本記事では、こういったリスクを解説し、対策を述べます。
ChatGPTを使用する際の考えられるリスク
インターネット・データ関連
1. 自社情報・社外秘の漏洩
ユーザーの個人情報や社外秘、未公開情報等がインプットされ、それらが生成系AIの学習データに登録されるリスクがあります。すると、AIで生成されたアウトプットに個人情報や機密情報が意図せず開示され、守秘義務違反を招きます。
ChatGPTを使用する際に自社情報や社外秘の漏洩を防止するためには、以下の対策を講じることが重要です。
- プライバシーポリシーの理解:ChatGPTの規約やプライバシーポリシーを理解し、機密情報を入力しないように注意することが必要です。
- 学習拒否設定の利用:ChatGPTには学習拒否設定があり、トグルスイッチをOFFに切り替えることで保存および学習を拒否できます。ただし、履歴データは即座に削除されるわけではなく、不正使用の確認のために30日間保存されることがあるため、注意が必要です。
- APIの利用:ChatGPTのAPIを利用することで、学習に利用されず情報漏洩のリスクを低減できます。
- 機密情報の送信を避ける:ChatGPTに送信された情報は、OpenAIの開発者に見られたり、今後の学習データとして使われたりする可能性があるため、機密情報を送信しないように注意することが必要です。
- 情報共有のルールの整備:ChatGPTの回答結果を利用する際の社内ルールを決め、回答結果の確認プロセスを整備することが重要です。
以上の対策を講じることで、ChatGPTをより安全に活用することができるでしょう。
2.他社・顧客情報の漏洩
競合情報、顧客データ等がインプットされ、それらが生成系AIの学習データに登録されるリスクがあります。これは、顧客情報を漏洩させて当該企業の社会的信用を失墜させるほか、他社の秘密情報を漏洩させ、知的所有権訴訟に発展するおそれがあります。
ChatGPTを業務利用する際に顧客情報の漏洩を防ぐためには、以下の対策が考えられます。
- 利用ガイドラインの策定:ChatGPTの利用ガイドラインを策定し、社員に周知することで、一定の効果が期待できます。ただし、ガイドラインだけではシステム的な保護が存在しないため、社員のモラルに委ねることになります。意図的な情報漏えいや、「うっかり投稿」を防止するためには、システム的な保護も併せて検討する必要があります。
- API連携に限定:モデルの学習には用いられないと明記されているAPI連携に限定し、顧客情報を含まない形で利用することで、セキュリティリスクに対応した上で業務に利用することができます。
- データ量の上限設定:各従業員がChatGPTにアップロードできるデータの量に上限を設けることで、情報漏洩のリスクを抑えることができます。
- プロキシ等でURLブロック:社内からのChatGPTへのアクセスを遮断することができます。ただし、他社がChatGPTを採用することで業務の改善をし、競争力をつけるリスクも併せて検討する必要があります。
- AIのプライバシーリスクについて教育:ChatGPTに話したことは全てOpenAIの外部サーバーにアップされることを従業員に伝えることで、情報漏洩のリスクを抑えることができます。
3.著作権・知的財産権侵害
著作権・知的財産権を侵害している情報がインプットされるリスクがあります。
上記リスクを防ぐためには、以下の対策が考えられます。
- 著作権法や知的財産権法に基づいて、適切な権利者から許諾を得ること。
- コンテンツについて、著作権や商標権を侵害しないように注意すること。
- 利用規約や法的規制に従うこと。
- AIモデルの検出システムを使用して潜在的な違反を特定すること。
これらの点に留意することで、ChatGPTを利用しながら著作権・知的財産権侵害を防ぐことができます。ただし、ChatGPTの著作権や商標問題については、まだ解決されていない問題もあるため、最新の情報に留意する必要があります。
4.倫理的問題の発生
差別や人権侵害などを含む有害な情報がインプットされるリスクがあります。
ChatGPTを使用する際に倫理的問題を防ぐためには、以下の点に留意する必要があります。
- インターネット上にある情報を学習しているため、ChatGPTが倫理的・道徳的に問題のある文章を生成する可能性があること。
- 制限事項と倫理的な配慮を行うこと。
- AIとやりとりしていることをユーザーが理解できるようにすること。
ChatGPTを使用する際には、これらの点に留意し、倫理的な問題を防ぐように注意する必要があります。
アウトプットデータ関連
1.誤情報の生成
誤情報・信憑性の低い情報が生成されるリスクがあります。ChatGPTの情報を全て鵜吞みにしてしまうと、さまざまな問題に発展するおそれがあります。
ChatGPTは文章生成AIの一種であり、生成される内容が必ずしも正しいとは限らないことがわかっています。ChatGPTを使いこなすためには、以下の心構えが必要です。
- ChatGPTなどの生成系AIは「あくまでも“それらしい”回答を生成しているだけに過ぎない」という点を、しっかり心にとめておくこと。人間で例えるなら、「話を合わせるのはうまいけれど、話の流れや理屈を理解して返事をしているわけではないし、最新の話題にもうとい人」と会話をしているイメージ。
- あくまでもサポートツール、アシスタントツールとしてとらえること。
ChatGPTを使う上で、誤情報の生成を防ぐためには、以下の対策が考えられます。
- ChatGPTが学習した情報が第三者に開示され得るのか確認する。
- 悪意のあるアクターを検出することにより、誤った情報を拡散するのを防ぐ。
- 誤情報の発信、個人情報/機密情報の漏えい、著作権侵害、フェイクニュース拡散による風評被害、犯罪に巻き込まれるリスクなどに対する対策を講じる。
以上のように、ChatGPTを使いこなすためには、生成される内容が必ずしも正しいとは限らないことを認識し、適切な心がまえを持つことが重要です。また、誤情報の生成を防ぐためには、様々な対策が必要となります。
2.公平性の問題
偏った学習データをもとに回答が生成されるリスクがあります。
ChatGPTを使用する際に偏った学習データをもとに回答が生成されるリスクを防ぐためには、以下のような対策が必要です。
- リスク評価: ChatGPTの利用にあたっては、リスク評価を行う必要があります。企業は、セキュリティ対策、教育やトレーニングなど、さまざまな対策を講じる必要があります。
- トレーニングデータの精選: ChatGPTは、学習した膨大なWEBデータに基づいて自然な受け答えを行います。しかし、WEBページには、誤りや偏った意見や倫理的に反する内容も含まれているため、トレーニングデータの精選が必要です。
- バイアスの排除: ChatGPTは、トレーニングデータのバイアスを反映することができます。トレーニングデータに偏りがあれば、ChatGPTの出力も偏る可能性があり、不公平または差別的な決定につながる可能性があります。そのため、バイアスの排除が必要です。
- プライバシー保護: ChatGPTは、共有された個人情報に基づいてテキストを生成できます。この情報が機密に保たれていない場合、悪用または漏洩する可能性があり、プライバシーの懸念につながります。そのため、プライバシー保護が必要です。
- ユーザー教育: ChatGPTを使用する際には、ユーザーに対して教育を行う必要があります。ユーザーがChatGPTを正しく使用することで、偏った学習データをもとに回答が生成されるリスクを軽減することができます。
以上の対策を講じることで、ChatGPTを使用する際に偏った学習データをもとに回答が生成されるリスクを防ぐことができます。
3.責任所掌問題の発生
ChatGPTを利用したアウトプットに対する責任所掌の問題を防ぐためには、以下のような対応策があると考えられます。
- 法的リスクの把握:ChatGPTを利用する際には、著作権侵害や個人情報保護法などの法的リスクについて把握し、適切な対応策を講じる必要があります。
- データの品質管理:ChatGPTは、入力されたデータに基づいて応答を生成するため、入力データの品質が重要です。データの正確性や信頼性を確保するために、適切なデータ管理を行う必要があります。
- ユーザーへの説明責任:ChatGPTを利用する際には、ユーザーに対して生成された応答がChatGPTによって生成されたものであることを明確に説明する必要があります。また、ChatGPTが生成した応答に対して、ユーザーが適切な判断を行うことができるように、応答の根拠や信頼性についても説明する必要があります。
- モデルの適切な運用:モデルの更新や改善、運用上の問題の解決など、適切な運用を行うことで、ChatGPTのアウトプットに対する責任所掌の問題を防ぐことができます。
- リスクマネジメントの実施:リスクの特定、評価、対応策の策定などを行うことで、ChatGPTのアウトプットに対する責任所掌の問題を防ぐことができます。
4.セキュリティ問題の発生
ChatGPTは、不適切な質問に対する回答を拒否するセーフガード機能(フィルター)が搭載されていますが、対話を工夫することで突破できる危険性があります。
以下は、ChatGPTのセーフガード機能を突破する手法を防ぐためのいくつかの方法です。
- ChatGPTのセーフガードの重要性を説明: ChatGPTのセーフガードの重要性とその理由をユーザーに教育します。これらのセーフガードは、ChatGPTによって不適切または有害なコンテンツが生成されることを防ぐために設計されていることを説明します。
- 不適切なコンテンツの例を提示: 暴力、ヘイトスピーチ、違法行為に関するコンテンツなど、ChatGPTが生成してはいけない不適切なコンテンツの例を提示します。
- 適切な利用を促す: ChatGPTを適切に使用し、不適切なコンテンツを生成する可能性のある質問を避けるよう、ユーザーに奨励します。ChatGPTは有用で有益なコンテンツを生成するために使用できる強力なツールですが、責任を持って使用する必要があることを説明します。
- 不適切な回答の報告:ChatGPTが不適切な回答を返した場合は、その回答を報告し、開発者にフィードバックを提供することができます。これにより、開発者はフィルターを改善することができます。
これらの方法を使用することで、ChatGPTのセーフガード機能を突破するリスクを減らすことができます。しかし、完全にリスクを排除することはできないため、常に注意が必要です。
その他
1.費用・利用料問題の発生
サービス利用料金が高額になるリスク
ChatGPTのAPIの利用料金が高額になる要因は以下のようなものがあります。
- トークン消費量: ChatGPTのAPIはトークン消費量で料金が計算されるため、トークン消費量が多いほど利用料金が高くなります。日本語利用や過去のやり取りの読み取り量などによっては高額になる可能性があります。
- 過去投稿/応答もAPIに含めるとトークン消費が増加: ChatGPTの強みである文脈に沿った回答は、過去のやり取り(投稿文+応答文)も含めるため、入力文のトークン数が増大します。
- やり取りを全てAPIに設定する: ChatGPTのAPIを使う際には、やり取りを全てAPIに設定すると、トークン消費量が増えて料金が高騰するため、注意が必要です。
- 日本語はトークンを消費しがち: ChatGPTのAPIは、1単語=1トークンの英語に比、日本語は同じ文字数だと2~3倍近いトークン消費量になるため、その分API使用量も高くなります。
サービスの禁止措置・停止
- 国や開発元の方針・法改正等でサービス利用が不可能になるリスクが考えられます。
実際のインシデント事例
サムスン電子
サムスン電子にて、社外秘の機密情報のChatGPTへの入力とそれによる 情報漏洩の可能性がある事例が最低3件発覚しました。解禁から約2か月でChatGPTを含む生成系AIツールが利用禁止となりました。
Apple
Appleは機密情報の漏洩を防ぐため、従業員のChatGPTの利用を制限しています。同社は独自の生成AIツールの開発に取り組んでいると伝えられています。
Amazon
Amazonは2023年1月にChatGPTを禁止しました。禁止した理由は、社員がChatGPTに機密情報を入力し、これをアルゴリズムが学習し、その情報が社内に漏れることを懸念したためです。開発者がコーディングのアドバイスやショートカットが欲しい場合はCodeWhispererという社内AIを使うように促しているようです。
まとめ
本記事では、ChatGPTを活用した際のリスクと対策について紹介しました。chatGPTの浸透により、データの収集や情報の整理が容易にできるようになります。しかし、まだまだ完全無欠のツールという訳ではありません。企業や社員がしっかり学習をして、機密情報や個人情報を入れず、有効活用する事が今は最もスマートな利用方法だと思われます。
私たち「foRPro」はコンサルファームが運営する案件マッチングサービスです。コンサルティング案件を探している方、事例を知りたい方は、ぜひfoRProまでご相談ください。