サイト内検索
サイト内検索を閉じる

AIセキュリティとは?企業が今知るべきリスクと対策

ChatGPT、Claude AI、Gemini、Copilot ――昨今、企業における生成AI LLM(大規模言語モデル)の業務活用が急速に広がっています。
McKinseyの調査によると、2025年時点で約88%の組織が少なくとも1つの業務機能でAIを活用しているとされています。営業資料の作成から顧客対応の自動化、社内ナレッジの検索まで、AIは「一部の先端企業のもの」ではなく「あらゆる企業の日常ツール」となりつつあります。

しかし、この急速な普及の裏側では、AIセキュリティへの対策が追いついていない企業が少なくありません。「AIを活用する企業ほど、AIのリスクを正しく理解する必要がある」これは今、多くの情報セキュリティ担当者が直面している現実ではないでしょうか。

本コラムでは、AIセキュリティの基本概念から企業が直面するリスク、そしてTISが考える実践的な対策アプローチまでを解説します。

AIセキュリティとは何か

AIセキュリティとは、AIシステムの開発・運用・利用に伴うリスクを特定・評価・軽減するための包括的なセキュリティ対策のことを指します。

従来のITセキュリティは、ネットワークへの不正アクセスやマルウェア感染といった「外部からの侵入を防ぐ」ことが中心でした。一方、AIセキュリティでは、従業員がAIに入力する情報の保護や、AIが生成する出力の安全性確保など、「内部から外部への情報流出」も重要な対象に含まれます。
以下の表で、従来のITセキュリティとAIセキュリティの違いを整理します。

観点 従来のITセキュリティ AIセキュリティ
保護対象 ネットワーク、アプリケーション、データ 上記に加え、AIモデル、学習データ、プロンプト
脅威の種類 マルウェア、不正アクセス等 上記に加え、プロンプトインジェクション(悪意あるプロンプト注入攻撃)、モデルポイズニング(学習データ汚染攻撃)等
データの流れ 外部→内部の侵入防御が中心 内部→外部への情報流出リスクも重要
管理の範囲 IT部門で管理可能な範囲 全従業員のAI利用が管理対象

AIセキュリティが対象とする領域は、大きく3つに整理できます。
1つ目は「AIへの入出力の安全性」です。プロンプトやレスポンスに含まれる機密情報を保護します。2つ目は「AI資産の可視化と管理」です。
自社でどのAIが使われているかを把握します。3つ目は「AI利用のガバナンス」です。誰が、何の目的で、どの程度AIを使うかを統制します。

企業を脅かすAIセキュリティリスク

では、具体的にどのようなリスクが企業を取り巻いているのでしょうか。ここでは、特に注視すべき4つのリスクを整理します。

シャドーAI(未承認AI利用)の蔓延

Gartnerの調査によると、68%の従業員が企業の承認を得ずにAIツールを業務で利用しているとされています。また、2025年には組織の20%がシャドーAIに起因するセキュリティインシデントを経験しました。従業員の多くは悪意なく業務効率化のためにAIを活用しており、一律に禁止するだけでは問題は解決しません。むしろ利用を地下に潜らせ、リスクを見えにくくする恐れがあります。

機密情報の意図しない流出

Ciscoの2025年の調査では、46%の組織が生成AI経由でのデータ漏洩を経験していると報告されています。従業員がAIチャットに契約書や顧客情報を入力することで、意図せず外部サービスにデータが送信されるリスクがあります。特に見落とされがちなのは「プロンプトそのものが機密情報である」という点です。AIへの質問内容には、交渉戦略や社内の課題など、生データ以上の機密が含まれることがあります。

コスト管理の困難さ

AI APIの多くは従量課金モデルを採用しており、利用量の予測が困難です。部門ごとに個別にAIサービスを契約している場合、全社的なコストの把握がさらに難しくなります。利用料の管理不足は、予算超過や不要なコストの積み上がりにつながります。

コンプライアンス違反のリスク

IBMの2025年データ侵害コストレポートによると、AI関連のデータ侵害では通常の侵害と比較して1件あたり約65万ドルの追加コストが発生しています。個人情報保護法や業界固有の規制との整合性を確保するには、AI利用の監査証跡を適切に記録・保管する仕組みが不可欠です。ガバナンスが不十分なままAI利用を続けることは、企業の経営リスクに直結すると言えます。

知っておくべきAIの主要な脅威

AIセキュリティを考える上で参考になるのが、OWASP(Open Worldwide Application Security Project)が2025年に発表した「LLMアプリケーション向けセキュリティ脅威トップ10」です。これは、大規模言語モデルを活用したアプリケーションに特有の脅威を整理したもので、企業がAIセキュリティ対策を検討する際の基本的な指針となっています。

以下に、企業が特に注意すべき代表的な脅威を整理します。

脅威 概要 企業への影響
プロンプトインジェクション 悪意のある入力でAIの動作を操作する攻撃 不正な情報取得、業務プロセスの妨害
機密情報の漏洩 AIが学習データや入力情報を意図せず出力してしまう問題 顧客情報・営業秘密の外部流出
サプライチェーンリスク 外部モデルやライブラリに含まれる脆弱性 マルウェアの混入、バックドアの埋め込み
過剰な権限付与 AIに必要以上の操作権限を与えてしまう設定ミス 意図しないデータの変更・削除
無制限のリソース消費 AIの過剰な利用による想定外の高額課金 予算超過、サービス停止のリスク

これらの脅威は、高度な攻撃者だけの問題ではありません。日常的なAI利用の中で、従業員が意図せず引き起こしてしまうケースも多く含まれます。だからこそ、技術的な対策だけでなく、組織全体での意識向上と仕組みづくりが求められています。

AIセキュリティ対策の実践アプローチ

AIセキュリティ対策は、一度にすべてを完璧に整える必要はありません。段階的に成熟度を高めていくアプローチが現実的であり、効果的です。
TISでは、以下のような段階的なフレームワークを推奨しています。

段階 テーマ 実施内容 期待される効果
まず見える化する 現状把握 AI利用状況の棚卸し、利用ツールの洗い出し、利用ポリシーの策定 シャドーAIの発見、リスクの全体像把握、対策の優先順位の明確化
ルールを適用する 統制の確立 AI Gateway経由の利用統一、入出力チェック、利用量制限の導入 情報漏洩の防止、コスト管理の実現、ガバナンス基盤の構築
戦略的に活用する 継続的な改善 部門別ポリシーの最適化、AIポートフォリオ管理、リスクトレンド分析 競争優位性の確保、予測的なセキュリティ対応、AI投資対効果の最大化

「見えないものは守れない」から始める

最初の一歩は、自社のAI利用状況を正確に把握することです。誰が、どのAIサービスを、どのような目的で使っているのか。この可視化なくして、適切な対策を講じることはできません。

AI Gatewayによる統制

利用状況を把握した後は、AI Gatewayと呼ばれる仕組みを導入し、全社的なAI利用を統制します。AI Gatewayは、複数のAIプロバイダー(OpenAI、Anthropic、AWS Bedrock、Azure OpenAI、Google Vertex AIなど)への接続を一元管理し、入出力のチェックやトークンベースの利用量制限を適用できます。これにより、セキュリティとコスト管理の両方を同時に実現することが可能です。

コスト最適化と利用料の節約

AI APIの利用料は従量課金であるため、適切なレート制限(利用量制限)の設定が予算管理の鍵となります。部門別・チーム別の利用上限を設けることで、全社のAI利用コストを予測可能にし、安価なモデルへの動的な切り替えによるコスト削減も実現できます。

TISが考えるCNAPP活用の視点

ここで重要なのは、ツールの導入はあくまで「スタート」であり、「ゴール」ではないという点です。TISでは、「ツールは永遠のベータ版」という考え方を大切にしています。どんなに優れたCNAPP製品を導入しても、組織的な運用体制の構築や継続的な改善活動がなければ、その価値を十分に引き出すことはできません。

CNAPPの活用においても、段階的なアプローチをお勧めします。いきなり全機能を活用しようとするのではなく、まずは基本的な可視化から始め、徐々に活用範囲を広げていくことで、着実に成果を上げることができます。

Kong AI GatewayとWiz AI-SPMの補完関係

Kong AI Gatewayは、APIおよびMCP(Model Context Protocol)層でAIへの入出力をリアルタイムに制御します。プロンプトガード(入出力チェック)による攻撃パターンの遮断、トークンベースの利用量制限によるコスト管理、複数AIプロバイダーの統一管理が可能です。

一方、Wiz AI-SPMは、クラウド環境全体を横断してAI資産を自動検出します。エージェントレス(導入ソフトウェア不要)のアーキテクチャにより、IT部門が把握していないシャドーAIの発見、攻撃経路分析による脆弱性の優先順位付け、クラウドサービスの設定ミス検出などを提供します。

この2つの製品は、保護する層と役割が異なるため、互いに補完し合う関係にあります。以下の表で、それぞれの責任範囲を整理します。

観点 Kong AI Gateway Wiz AI-SPM
保護する層 APIの入出力(利用経路) クラウド環境全体(インフラ層)
リアルタイム制御 ◎ 入出力チェック、利用量制限 △ 検知後にアラート通知
AI資産の可視化 △ Gateway経由の利用のみ ◎ クラウド全体を横断的にスキャン
シャドーAI検出 × Gateway非経由は対象外 ◎ エージェントレスで自動検出
コスト管理 ◎ トークンベースの上限設定 △ 利用状況の可視化
攻撃経路分析 × ◎ セキュリティグラフで可視化

多層防御の構造

TISが提案する多層防御モデルの全体像は以下の通りです。クラウド環境の監視(Wiz AI-SPM)とAI利用経路の制御(Kong AI Gateway)が連携することで、エンドツーエンドの可視性とガバナンスを実現します。

AIセキュリティでよくある疑問

Q1:まずAI利用を禁止すべきでしょうか?

一律の禁止は現実的ではなく、むしろ利用を地下に潜らせてリスクを高める恐れがあります。効果的なのは、企業として承認済みのAIツールを提供し、安全に活用できる環境を整えることです。利用を「禁止」から「管理」へと転換することが、AIセキュリティの第一歩と言えます。

Q2:小規模な組織でも対策は必要ですか?

組織の規模に関係なく、AIを業務で利用している以上、対策は必要です。小規模組織では、まず利用状況の把握とシンプルなポリシーの策定から始めることをお勧めします。大規模なツール導入が難しい場合でも、「どのAIサービスを承認するか」を明確にするだけで、リスクを大幅に低減できます。

Q3:既存のITセキュリティ対策だけでは不十分ですか?

従来のファイアウォールやWAF(Webアプリケーションファイアウォール)は、AI特有の脅威であるプロンプトインジェクションやモデル経由の情報漏洩には対応しきれません。既存の対策を土台としつつ、AI専用のセキュリティ層を追加することが重要です。

CNAPP(Cloud Native Application Protection Platform)は、クラウド環境全体のセキュリティを統合管理するプラットフォームです。AIセキュリティはその中でもAI資産に特化した領域であり、CNAPPの一部として位置づけられます。詳しくは「CNAPPとは?DX時代のクラウドセキュリティ最前線」コラムをご覧ください。

まとめ

いかがでしたでしょうか。AIセキュリティは「特別な対策」ではなく、AIを業務に活用するすべての企業にとっての「前提条件」です。最初の一歩は、自社のAI利用状況を可視化し、「見えないものは守れない」という原則に立ち返ることから始まります。
そのうえで、AI Gatewayによる利用経路の制御とAI-SPMによるクラウド資産の監視を組み合わせた多層防御アプローチにより、ガバナンスとイノベーションの両立を実現することが可能です。

このようなお悩みをお持ちの方は、ぜひお気軽にご相談ください。

  • 「何から始めればよいかわからない」
  • 「既存環境との統合に不安がある」
  • 「運用体制の構築が課題」

有識者が皆様の課題解決を支援いたします。

PAGE TOP

サービスに関する資料をご希望の方は、フォームに必要事項を入力いただき、ご送信ください。

資料を請求する

お問い合わせ
各種お問い合わせページ
お問い合わせフォーム
サービスに関するお問い合わせ
お電話
0800-600-9810
携帯電話
050-5816-9805
受付時間 9:00~12:00 13:00~17:00(土・日・祝日を除く)

更新日時:2026年4月21日 15時21分