「攻撃用AI」とは?
公開日:2025-11-14 更新日:2025-11-14
1. そもそも「AI」「生成AI」って何?
AI(人工知能)
- たくさんのデータを学習して、
- パターンを見つけたり、予測したり、
- 人間の「考える」「判断する」を一部まねるコンピューターの仕組み
のことです。
生成AI(ジェネレーティブAI)
最近ニュースでよく聞く「生成AI」は、新しい文章・画像・音声・動画などを作り出すAIのことです。
ChatGPT や 画像生成AI などがその代表例です。
- 「文章を要約して」「イラストを描いて」
- 「この文章をやさしい言葉にして」
といったお願いに応えて、新しいコンテンツを作ってくれます。
2. 「攻撃用AI」ってなに?
ここで言う「攻撃用AI」とは、
サイバー攻撃や詐欺など、悪い目的のために使われるAI
のことです。
AIそのものが「悪」なのではなく、
- もともと便利な生成AIを
- 「悪い使い方」で使う
- または「悪用専用」に作り直す
ことで 攻撃の道具になってしまったAI を指しています。
ヨーロッパ議会も、AIとサイバーセキュリティの関係を
- AIを守るためのセキュリティ
- AIで守るセキュリティ
- AIを悪用する攻撃
という3つの次元で整理していて、③がまさに「攻撃用AI」です。
3. 生成AIとの違いは?
共通点
- どちらも 中身の「エンジン」はほぼ同じタイプのAI(大規模言語モデルなど)
- 人間の言葉を理解して、文章やコードなどを生成する
大きな違いは「ルール」と「目的」
通常の生成AI(ChatGPTなど)
- 爆弾の作り方や犯罪のやり方など、危険な内容は答えないように制限(ガードレール)がある
- プライバシーや差別に配慮するように設計されている
- 利用規約で、犯罪目的の利用を禁止
攻撃用AI・悪性LLM
- 最初からガードレールがない、または意図的に外している
- サイバー犯罪者にとって便利なように設計されている
- ダークウェブなど、普通の検索では出てこない場所で売買されていることが多い
たとえると…
- 通常の生成AI:
「危ないことはしない」ように安全装置がついた電動工具- 攻撃用AI:
安全装置を全部取っ払って、犯罪者向けに改造した工具
というイメージです。
4. 実際に名前が出ている「攻撃用AI」の例
ここでは、「こんな名前が報告されている」という事実紹介だけをします。
※使い方や入手方法は、安全上いっさい説明しません。
4-1. WormGPT(ワームジーピーティー)
- ChatGPT 風のインターフェースを持つ 悪用専用の言語モデル として、2023年ごろからダークウェブで話題になりました。
- 特徴とされる点(報告ベース)
- フィッシングメール(偽メール)を大量に生成
- ビジネスメール詐欺用の文章作成を支援
- マルウェア(悪意あるプログラム)コードの作成を手伝う
4-2. FraudGPT(フロードジーピーティー)
- 名前のとおり 詐欺(Fraud) 向けのLLMとして紹介されているツール。
- 報告されている機能
- フィッシングサイトの文章作成
- 詐欺メッセージ・SNS投稿の文章作成
- マルウェアや不正スクリプト生成の支援
4-3. DarkBERT など「ダークAI」系
- ダークウェブ上のテキストを学習したとされる DarkBERT など、
サイバー犯罪向けにチューニングしたモデル群も報告されています。
4-4. KawaiiGPT・WormGPT 4 など新しい悪性LLM
- 2025年には、セキュリティ企業が WormGPT 4 と KawaiiGPT という
「悪意あるLLM(ダークLLM)」を分析したレポートを公開しています。 - 特徴とされる点
- 非常にもっともらしいフィッシングメールを自動生成
- ソーシャルエンジニアリング(人を騙す手口)用の文章を量産
- マルウェアのひな形となるコードを作れる
※これらのツール名はあくまで「こんなものがあると報告されている」というレベルでとらえてください。
実際に触れたり試したりすることは、絶対にやめてください。
5. 攻撃用AIが「できてしまうこと」
技術的にはもっといろいろありますが、一般の生活に関係しそうなものに絞って説明します。
5-1. フィッシングメール・詐欺SMSの大量生成
- 日本語が自然で、敬語もきちんとしている
- 宛名や会社名、過去のやり取りを取り入れて**「本物そっくり」に見せる**
- 1通ずつではなく、何万通も一気に作れる
その結果、
- 「日本語が変だから怪しい」という判断が通用しにくくなっています。
5-2. マルウェア・攻撃コードの作成支援
- 攻撃用AIは、プログラムを書けない人にも
- 「ここを攻撃したい」
- 「こういう動きのプログラムが欲しい」 という指示だけで、ひな形コードを作ってしまうと報告されています。
ただし現時点の研究では、
完全に新しいタイプのマルウェアが爆発的に増えた、というより
既存の攻撃を「簡単・大量」にする道具
という見方が強いとされています。
5-3. 個人情報を集めて「説得力のあるだまし方」を考える
- SNSや公開情報をもとに、
「この人はどんな趣味・家族構成・仕事か」をある程度推測 - その上で
- 「この人なら、こういう言い回しでお金の話を出せば引っかかりやすい」
- 「このタイミングでこのニュースを絡めれば信用しやすい」 といった心理的に刺さるシナリオをAIが提案する、という懸念も出てきています。
5-4. ディープフェイク・音声合成と組み合わせた詐欺
- AIで作った「ニセ動画」「ニセ音声」と、
- 攻撃用AIが作る「もっともらしい台本・メール」
を組み合わせることで、
「社長の声で電話が来たので、言われたとおり振り込んでしまった」
といった被害の難易度が下がることが心配されています。
6. 守る側も「防御用AI」を使っている
「攻撃用AI」の話だけをすると怖くなりますが、
守る側もAIをどんどん活用し始めています。
6-1. 不審な通信・動きを自動で見つける
- 大量のログ(出入りする通信の記録など)をAIで分析し、
- 「いつもと違う動き」「おかしなパターン」を自動で検知する技術が広がっています。
6-2. インシデント対応の効率化
- 攻撃が起きたときのログをAIが整理して、
- どこから入られたか
- どの範囲に影響しているか を素早くまとめることで、人間の調査時間を大きく減らせるとの報告もあります。
6-3. 法律・ルールも整備が進行中
- EUの「AI Act」や、イタリアのAI規制法などでは
犯罪にAIを使うことや、
人をだましたり操作したりするためのAIに強い制限をかけようとしています。
7. 私たち一人ひとりにできること
攻撃用AIの存在をゼロにするのは難しいですが、
被害に遭いにくくすることはできます。
7-1. 「うまい話」ほど疑ってみる
- 日本語が自然でも、ロゴが本物でも、AIならいくらでも真似できます。
- 次のようなメール・SMSは特に要注意:
- 「至急」「本日中」「アカウント停止」など、あおる言葉が多い
- リンクをクリックさせようとする
- 個人情報や認証コードの入力を求める
7-2. 「公式アプリ・公式サイト」から入り直す
- メール内のリンクは押さず、
自分で検索したり、ブックマークから公式サイトにアクセスする習慣をつける。
7-3. 2段階認証をできるだけオンに
- IDとパスワードが漏れても、
- スマホの認証やワンタイムパスワードがあれば、被害を減らせます。
7-4. 「AIだから安心」でも「AIだから危険」でもなく
- AIは**包丁や車と同じ「道具」**です。
- 使い方次第で、生活を便利にも、危険にもします。
- 「AIだから全部信用」「AIだから全部嘘」ではなく、
- 情報の出どころ
- おかしな点はないか を落ち着いて確認するクセが大事です。
8. まとめ
- 「攻撃用AI」は、サイバー攻撃や詐欺のために悪用されるAIのこと。
- 中身の技術はふつうの生成AIとほぼ同じだが、
- 目的が「悪用」
- 安全装置(ガードレール)がない/弱い という点が決定的に違います。
- WormGPT・FraudGPT・DarkBERT・KawaiiGPT など、
ダークウェブやアンダーグラウンドで使われる悪性LLMが報告されています。 - これらは
- フィッシングメールや詐欺メッセージの大量生成
- マルウェアや攻撃コードの作成支援
- 個人情報を使った巧妙なだまし方の設計 などに使われており、攻撃のハードルを下げてしまうことが問題です。
- 一方で、防御側もAIで
- 大量のログから不審な動きを検知
- 事故対応の効率化 を進めており、**「攻撃用AI vs 防御用AI」の“いたちごっこ”**の様相を呈しています。
- 私たちとしては、
- 「うますぎる話」を一度疑う
- 公式サイトやアプリから入り直す
- 2段階認証を使う など、基本的な対策をしっかり行うことが何より大切です。