【法人向け】ChatGPT、Copilot、Geminiなどの生成AIサービスの社内ガイドライン
整備前・半ばで注意すべきリスクと対策とは?

~道半ばの社内ガイドライン・ルール整備時に行うべき取り組みを紹介~

現在、生成AIに関するガイドラインが発行されているものの、利用時の明確なセキュリティ対策についてはまだまだ議論の最中にあります。しかし、対策が行き届いておらず、犯罪に悪用できてしまうようなサービスも展開されており、利用ルールの整備が道半ばであっても、従業員が危険な生成AIサービスへアクセスしないような対策や個人情報漏洩対策が重要です。本資料では、「社内ルールの検討・改善に役立つリスク評価・アクセス状況の可視化」や「ゼロトラスト原則に基づく課題対策の4ステップ」「個人情報漏洩のリスクがあるシャドーAIへのアクセス制御」など道半ばの社内ルール整備時に取り組むべきことについて紹介します。

こんな方におすすめ

  • 生成AIサービスの社内ガイドライン/ルール/規定の策定にお困りの方​

  • 自組織で利用を許可/把握していない生成AIサービス(シャドーAI)の対策をお探しの方

  • ゼロトラスト原則に基づく生成AIサービス利用時の課題への対策を実現する4ステップを知りたい方


目次

  • 生成AIサービスのビジネス利用状況と懸念点のアンケート結果

  • 生成AIサービスのセキュリティリスク/課題と対策
    課題1. 生成AIサービス利用ガイドライン/ルールの整備
        ・自組織内で許可しない生成AIサービスの利用(シャドーAI)
        ・ゼロトラスト原則に基づく課題対策の4ステップ
        ・各生成AIサービスのリスク評価とアクセス状況の可視化
    課題2. 生成AIサービス経由での情報漏洩リスク
        ・利用者による個人情報、機密情報のアップロード
        ・プロンプトインジェクション攻撃
    課題3. 生成AIサービスによる不適切なレスポンスの業務利用
        ・倫理的な問題を孕むレスポンス
        ・脆弱なソースコードを含むレスポンス

  • 生成AIサービスへのサイバー攻撃や情報漏洩を防止する「AI Service Access」

下記フォームにご記入の上、「資料を入手する」ボタンを押してください。