セキュリティコンサルタントの論理思考を公開情報を読み解いて学ぼう!『脅威インテリジェンス活動レポート_20250402』
- Digital500 JPY

■動画による解説はここを確認してください。 ↓↓↓ https://youtu.be/gCDQ78BFVCU?si=gr4WaMA3C0df9UpN ■動画の文字化け部分はこちらのスライドで確認してください。 ↓↓↓ ttps://yuu-san.booth.pm/items/7987777 --- 今回の教材は、『JPCERT/CC WEEKLY REPORT 2025-04-02 【5】JNSA が「生成 AI を利用する上で のセキュリティ成熟度モデル」を公開』としました。 【選定理由】 セキュリティの仕事をしていく上でブロックメンバーが把握しておいた方が良いと思われること、といった観点で選定し た。。 【出典(URL)】 https://www.jnsa.org/result/aisec/2024/ 【概要】 記事種別:モデル概要 日本ネットワークセキュリティ協会(JNSA)の AI セキュリティワーキンググループは、生成 AI の安全な活用を目 的として「生成 AI を利用する上でのセキュリティ成熟度モデル」を公開した。このモデルは、生成 AI の利用形態を 以下の 4 つに分類している。 1. 外部サービスの利用:ChatGPT や Gemini などの外部サービスを直接利用するケース。 2. API を利用した独自環境:OpenAI API や Gemini API を自社のサービスや社内環境と連携させ て利用するケース。 3. 自組織データの利用:ファインチューニングや RAG(Retrieval-Augmented Generation)技術を 用いて、自社データを生成 AI に活用するケース。 4. 自組織向けモデルの開発:自社専用の生成 AI モデルを独自に開発するケース。 各利用形態において直面し得る脅威として、プロンプトインジェクション、モデルへの DoS 攻撃、訓練データの汚 染、モデルの盗難などが挙げられている。これらの脅威に対する対策として、適切なアカウント管理、利用量のモニタ リング、生成 AI 利用に関するポリシーの整備などが提案されている。 ※ このドキュメントは、生成 AI を安全に利用するための具体的なガイドラインを提供し、組織のセキュリティ成熟 度向上に寄与するものである。
