ブログ | CTO オフィス

新たなボット戦争: あなたの知り合いはみんな偽物かもしれない

ロリ・マクヴィッティ サムネイル
ロリ・マクヴィッティ
2025年5月13日公開

ボットファームはかつては冗談でした。 数千のスパムアカウント、片言の英語、粗雑なエンゲージメント戦術。 見つけやすいです。 簡単に却下できます。

もうない。

現在、ボット ファームは産業規模で運用されており、何千台もの実際のスマートフォンを展開して、実際のユーザーのように動作するスクリプト化されたアカウントを実行しています。 彼らは、プラットフォームのエンゲージメント アルゴリズムをトリガーするのに十分なだけ、いいね、シェア、コメントをします。

それはハッキングではありません。 システムを設計どおりに使用していますが、より高速で大規模であり、システムが想定していた信頼性がありません。

投稿が注目を集めると、X や Meta などのプラットフォームがそれをさらに後押しします。 正確さではなく、エンゲージメントを高めます。 X の 2023 年透明性レポートでは、どのような動きが促進されるかが明確に示されています。 ML ベースの検出システムが導入されている場合でも、AI 駆動型ボットはオーガニック トラフィックにシームレスに溶け込みます。

そこからは実際のユーザーが引き継ぎます。 可視性により、正当性が認識されます。 何かが人気があるように見えると、信頼できるように感じます。

偽りの関与は幻想を生み出します。 本物の人間が火を起こすのです。 AI によって、火災の追跡はこれまで以上に困難になっています。

AIの影響

かつてボットファームでは、繰り返し投稿を行う大勢の労働者が必要でしたが、今では AI ツールによって一貫性があり、多様性に富み、信頼性が高いコンテンツを生成できます。 NewsGuardの2023年のレポートによると、AIが生成したプロパガンダは、地域特有の言語や感情に至るまで、本物の解説と区別がつかなくなってきています。

これはもうジャンクコンテンツではありません。 それはもっともらしく、文脈的で、反応的です。 草の根の支持のように見えますが、それは産業規模で作り出された影響力です。

そしてプラットフォームは依然としてそれに報酬を与えます。 これらは、実際のパフォーマンスを評価するためではなく、パフォーマンスを増幅するために構築されました。 

モデレーションツールと人間のレビュー担当者が追いついていません。 組織的かつ不正な行為に対する対策に関する Meta の 2024 年レポートでは、こうした組織的なキャンペーンをリアルタイムで検出することがいかに困難になっているかが強調されています。

これは周辺的な問題ではありません。 それは政治、マーケティング、金融投機、さらにはブランドの信頼にも影響を及ぼします。 2021年、米国 証券取引委員会は、ボットによって煽られたソーシャルメディア主導の市場急騰について警告した

一方、可視性とエンゲージメントに依存するシステム(トレンドリスト、「おすすめ」パネル)は簡単に乗っ取られるようになりました。 重要なものを表面化させるために設計されたツールは、今では誰かが重要なものにするためにお金を払ったものをすべて表面化させます。

今日のボットはルールを破りません。 彼らは彼らに従います。 彼らは人間の行動を模倣し、会話を生み出します。 彼らは時間をかけて信頼を築き、ネットワーク全体で活動します。 技術的なポリシーに違反していないため、検出されないことがよくあります。

これにより、より深刻な欠陥が明らかになります。つまり、システムは動機ではなく行動を評価するように設計されていたのです。 私たちはパターンを信頼しました。 見た目が正常であれば安全であるとみなされました。

しかし、AIは異常な動作をしません。 説得力のある動作をします。

AIが信号をスタックの上位にシフトします

信号がスタックの上方に移動しました。 ヘッダーとレートから離れて。 ペイロード、コンテンツセマンティクス、システムレベルの調整に。 AI によって生成された影響は、従来の防御にとってはクリーンに見えます。 異常はもはや封筒の中にはありません。 メッセージの中にあります。

この問題に対処するための取り組みが進行中です。 DARPA のセマンティックフォレンジックプログラムは、意図と言語マーカーを使用して AI 生成コンテンツを検出することに取り組んでいます。 X の 2024 年アップデートでは、ボット除去の取り組みの強化について言及されています。 しかし、これらのシステムはまだ初期段階です。 これらのツールはまだ、AI 主導の影響力キャンペーンを上回るほどの拡張性や応答性を備えていません。

そして今、脅威は再び進化しています。

単純なボットを超えて、AI 駆動型エージェントが導入されています。 これらのエージェントは自動化以上のことを行います。 彼らは調整します。 彼らは方向転換します。 対応データを分析し、リアルタイムで戦術を調整します。 2022年のDFRLabの調査では、国家が支援するキャンペーンがAIエージェントを使用してプラットフォーム間で偽情報を調整し、検出に動的に適応する方法が記録されています。

一方、正当なビジネスでは、顧客サポート、マーケティング、ワークフローの自動化のためにエージェントを導入しています。 Lyzr.ai によれば、AI 導入の取り組みの 70% は、会話型ボットだけでなく、アクションベースの AI エージェントに重点を置いています

これにより境界線が曖昧になります。 エージェントが企業と攻撃者の両方を代表して発言すると、信頼は損なわれます。 ブランドの代表者を装った偽のサポート ボットは、ユーザーをフィッシングしたり、誤った情報を拡散したりする可能性があります。注意すべき点を知らない限り、本物と区別がつきません。

これはもはやボットの問題ではありません。 それは信憑性の危機です。

AIの進化は前提に疑問を投げかける

高度な AI ツールと連携したエージェントによって実現される新たなボット戦争は、戦況を一変させました。 私たちは騒音から身を守っているわけではありません。 私たちは、人間のように見えるように作られ、システムを操作できるように規模が調整され、検出されずに通過するように最適化された合成信頼性から身を守ります。

セキュリティとスケールに関して私たちが築いてきた根本的な前提は、インフラストラクチャからアルゴリズム、セマンティクス、そして認識された正当性の活用へと移行する中で崩壊しつつあります。

それを解決するには、基礎を再考する必要があります。 ルールを強制するために構築されたツールは、より広範な意図のシステムの一部として、動作、言語、および調整されたパターンを解釈できるように進化する必要があります。

それまでは、懐疑心が私たちの基本であり、信頼を回復するには検出以上のものが必要になります。

私たちが日々頼りにしているシステムの整合性を再構築し、その戦術が企業に浸透して、人工的な影響によって静かに意思決定が歪められ、自動化が乗っ取られ、ユーザーの信頼が内側から侵食されないようにするには、プラットフォーム、企業、研究者間の積極的な協力が必要です。