[新製品・サービス]

KELA、生成AI/LLM向けセキュリティサービス「AiFort」、不正なプロンプト攻撃に対抗

学習用データセットや疑似攻撃サービスなどを提供

2024年4月22日(月)日川 佳三(IT Leaders編集部)

イスラエルに本社を置くケラ(KELA)の日本法人であるKELAは2024年4月19日、生成AI/大規模言語モデル(LLM)向けセキュリティサービス「AiFort(エーアイフォート)」を国内で販売開始した。LLMの脆弱性を減らすことで、不正なプロンプトの指示によって情報漏洩などのセキュリティ事故が起こらないようにする。LLMの学習用データセット、疑似攻撃サービス、危険なプロンプトを検出してブロックする入力フィルタリングなどの機能群を提供する。

 KELAの「AiFort(エーアイフォート)」は、生成AI/大規模言語モデル(LLM)向けのセキュリティサービスである。LLMの脆弱性を減らすことで、不正なプロンプトの指示によるセキュリティ事故が起こらないようにする。LLMを社内で作成するユーザーや、既存のLLMを使って生成AIアプリケーションを運用するユーザーに向けて提供する。

図1:LLMへのプロンプトの指示を利用した典型的な不正攻撃の例(出典:KELA)
拡大画像表示

 同社は、LLMへのプロンプトの指示を利用した典型的な不正攻撃の例をいくつか挙げる(図1)。例えば、プロンプトインジェクションは、企業が抱える機密情報を引き出して窃取する攻撃である。また、ジェイルブレイクは、不正アクセスの具体的な手口といった不適切(攻撃的・有害)なコンテンツを表示させる攻撃である。社外向けのAIサービスなどを運営する場合、これらの脆弱性に対策することが望ましい。

脅威学習用データセットや疑似攻撃サービスを提供

 AiFortは大きく、(1)LLMの学習用データセット「AiFort Data」と、(2)疑似攻撃サービス「AiFort Red」の2つのサービスで構成する。また、2024年中に、(3)危険なプロンプトを検出してブロックする入力フィルタリング機能「AiFort Protect」を提供する。

 (1)のAiFort Dataは、LLMに学習させるための脅威情報のデータセットである。アンダーグラウンドの犯罪社会を常時監視して収集・蓄積したデータを用いる。実際の犯罪の手口や背景情報、最新の脅威動向などの情報を含んでいる。これらの情報をAIに学習させることで、プロンプトを介した不正な攻撃に対する脆弱性を減らせるとしている(図2)。

図2:LLMに学習させるための、脅威情報のデータセット「AiFort Data」の概要(出典:KELA)
拡大画像表示

 (2)AiFort Redは、不正なプロンプトの指示を模倣した疑似攻撃を仕掛け、どのような攻撃に対して脆弱性があるのかを調べるサービスである。簡単な操作でテストプランを作成できるとしている。ユーザーは、疑似攻撃の診断結果をダッシュボード画面で把握可能である(画面1)。

画面1:疑似攻撃サービス「AiFort Red」のダッシュボード画面(出典:KELA)
拡大画像表示

 疑似攻撃テストによって安全性を確認・検証することで、例えば、AIチャットボットやAIヘルプデスクなどのAIアプリケーションを、安全性に自信を持って導入できるようになる。運用開始後も継続的に診断を続けることで、セキュリティレベルの維持に役立つ。

 (3)AiFort Protectは、プロンプトの指示をLLMに渡す前に、プロンプトの指示内容をチェックし、不正な指示を検出してブロックする。生成AIに対する不正やアクセスを塞き止めるファイアウォールとして機能する。

関連キーワード

生成AI / 脆弱性診断 / 大規模言語モデル / イスラエル

関連記事

トピックス

[Sponsored]

KELA、生成AI/LLM向けセキュリティサービス「AiFort」、不正なプロンプト攻撃に対抗イスラエルに本社を置くケラ(KELA)の日本法人であるKELAは2024年4月19日、生成AI/大規模言語モデル(LLM)向けセキュリティサービス「AiFort(エーアイフォート)」を国内で販売開始した。LLMの脆弱性を減らすことで、不正なプロンプトの指示によって情報漏洩などのセキュリティ事故が起こらないようにする。LLMの学習用データセット、疑似攻撃サービス、危険なプロンプトを検出してブロックする入力フィルタリングなどの機能群を提供する。

PAGE TOP