年次イベント”CrowdTour”ご登録受付中!TOKYO(5/22開催)ご登録はこちら | OSAKA( 5/21開催)ご登録はこちら

エージェント型AIの概要

人工知能は、指示に従うだけのルールベースのシステムから大きく進歩しました。今は、エージェント型AIにより、AIが積極的に意思決定を行い、環境から学習し、人間の介入なしに行動を起こす時代に入りつつあります。

従来のAIは、事前定義されたルールまたは受動的な応答に依存しており、特定の入力セットに応答します。生成AIは次の段階に進んでおり、従来のAIの予測機能を超えて、トレーニングデータに基づいて新しいコンテンツを作成する機能を備えています。エージェント型AIはAI開発における大きな飛躍であり、これによりある程度の自律性を持って動作する機能が追加されます。時間の経過とともに独自のアプローチを改良しながら、状況を評価し、戦略を調整し、動的な環境において目標を追求することができます。エージェント型AIは、人間とAIのかかわり方を再び大きく変えつつあります。この進化は、複雑なワークフローの自動化から、よりインテリジェントなロボティクスの実現まで、業界全体で飛躍的な進歩を促進しています。 

AIが進歩し続けるにつれて、エージェント型システムへの移行により、大きな可能性とともに新たな課題が生じます。エージェント型AIの特徴を理解することは、AIイノベーションの次の波がどこに向かうのかを把握する鍵となります。

詳細

クラウドストライクのCharlotte AIにより、誰もがセキュリティを利用できるようになり、初心者からセキュリティの専門家までのすべてのユーザーが、Falconプラットフォームのパワーユーザーと同じように振る舞って、迅速な検知と対応を行えるようになり、サイバーセキュリティのスキルギャップが解消されたことを示す、3つの強力なユースケースをご覧ください。

ブログ:クラウドストライクの生成AIセキュリティアナリスト、Charlotte AIの紹介

エージェント型AIの仕組み

コアコンポーネント

エージェント型AIは、独立した意思決定と適応的な振る舞いを可能にするいくつかの基本要素に依存しています。

自律性
本質的に、エージェント型AIは独立して動作し、人間の介入を必要とせずにデータを分析し、リスクを評価し、アクションを実行します。この自律性により、AIエージェントは、予測不可能な交通状況に対応する自動運転車や、瞬時に財務上の決定を下すAIを活用したトレーディングシステムなど、オープンエンドの環境で機能できるようになります。自律エージェント型AIは、人間による監視への依存を減らすことで、従来のAIシステムでは不可能な方法で、運用の拡張と効率の最適化を支援できます。

記憶と学習
エージェント型AIは、過去のやり取りを保持し、そこから継続的に学習して将来の意思決定を改善します。この機能は、エージェントが特定のイベントを思い出すエピソード記憶ストレージや、AIシステムが時間の経過とともに改善できるようにする継続学習などの技術によって実現されています。これらのメカニズムにより、AIエージェントは長期的な戦略を策定し、操作性をパーソナライズし、過去のパターンに基づいて将来のシナリオを予測できるようになります。 

目標指向の振る舞い
エージェント型AIは、事前に定義された目標、または環境の手がかりに基づいて動的に進化する目標のような特定の目的を追求するように設計されています。この目標主導型のアプローチでは、複雑なタスクを管理可能なサブタスクに分割し、優先順位を付けて、新しい情報に応じてプロセスを動的に調整します。例えば、ロボティクスのAIシステムは、正確かつ効率的なタスク実行を実現するために、まずオブジェクトを識別してから、それをつかんだり操作したりしようとする場合があります。

環境適応
エージェント型AIは、感覚入力、ユーザー操作、または外部要因に基づいて、戦略をリアルタイムで適応させることができます。この適応は、リアルタイムのデータ処理、フィードバックループ、予測モデリングを通じて実現されます。サイバーセキュリティにおいて、AIエージェントは新たな脅威を検出し、攻撃パターンを分析し、進化する攻撃者の戦術に対抗するために防御メカニズムを自律的に調整することができます。このとき、手動によるルール更新を待つ必要はありません。

エージェント型AIを可能にする主要技術

エージェント型AIを実現するには、従来の機械学習を超えた高度なテクノロジーが必要です。これらのコンポーネントとテクノロジーが組み合わさることで、エージェント型AIの基盤が形成されます。

強化学習
強化学習により、エージェント型AIは環境と対話し、試行錯誤のフィードバックを受け取ることで最適なアクションを学習し、最適な結果を達成できるようになります。この方法は、医療における治療計画の最適化など、複雑な意思決定のシナリオで特に効果的です。DQN (Deep Q-Network) やポリシー勾配法などの高度な手法により、AIエージェントは時間の経過とともに振る舞いを最適化し、効率とパフォーマンスを継続的に向上させることができます。

LLM(大規模言語モデル)
OpenAI GPTやGeminiなどのLLMは、エージェント型AIに、人間のようなテキストを処理および生成し、問題を推論し、分野固有の知識を取得する能力を提供します。LLMは、エージェントがコンテキストを理解し、ユーザーの意図を推測し、精緻な応答を提供する能力を強化します。LLMをエージェント型AIシステムと統合すると、LLMにより、AIエージェントは複雑なやり取りを行ったり、意思決定を支援したり、テキスト指示に基づいて動的に計画を生成したりできるようになります。

MAS(マルチエージェントシステム)
MASは、共通の目標を達成するために協力して動作する複数のAIエージェントで構成されています。このアプローチは、分散型の意思決定により、より堅牢でスケーラブルなソリューションが実現されるスワームロボティクス、分散型センサーネットワーク、大規模シミュレーションなどの用途で非常に重要です。MASは、エージェントが通信、交渉、タスクの委任を行えるようにすることで、マルチエージェント環境における調整と回復力を強化します。例えば、マルチエージェントシステムはスマート電力グリッド環境で動作し、発電装置、蓄電、電力会社、消費者を調整することで電力の供給を管理できます。 

ニューラルシンボリックAI
ニューラルシンボリックAIは、ディープラーニングのパターン認識の強みと、シンボリックAIの論理的推論機能を組み合わせたものです。このハイブリッドアプローチにより、エージェント型AIエージェントは生データを処理し、構造化された推論を適用して、より透明性が高く、解釈可能で信頼性の高い意思決定を実現できます。例えば、法律や医療のAIアプリケーションでは、ニューラルシンボリックAIは、事前定義された論理的制約を遵守しながら非構造化テキストを分析し、正当かつ規制に準拠した推奨事項を提供できます。 

エージェント型AIの応用

AIシステムは、より自律的かつ適応的になるにつれて、複雑な課題に取り組み、運用を最適化し、イノベーションを推進することで業界を変革しています。エージェント型AIはすでに、次のような複数の領域に影響を与えています。

ロボティクスと自動化

  • 産業用ロボット
    エージェント型AIにより、産業用ロボットはリアルタイムで適応し、製造、物流、顧客対応の効率を向上させることができます。倉庫では、AIを活用したロボットシステムが変化する在庫需要に動的に適応し、小売業やホスピタリティ業界では、エージェント型AIを搭載したロボットが個別の顧客支援を提供できます。

  • 自動運転車
    自動運転車は、エージェント型AIを活用して膨大な量のセンサーデータを処理し、他のドライバーの振る舞いを予測し、リアルタイムでナビゲーションの決定を行います。道路状況や交通パターンを継続的に学習することで、自動運転システムは安全性と効率性を向上させます。 

パーソナライズされたアシスタント

  • AIを活用したバーチャルアシスタント
    エージェント型AIを搭載した仮想アシスタントは、ユーザーのニーズを予測し、タスクに優先順位を付け、スケジュールの競合を自律的に処理できます。これらのアシスタントは、仕事の期限や個人の好みなどのコンテキスト情報を分析して、日々の生産性を最適化できます。

  • カスタマーサポート向けのAIコンパニオン
    企業は、単純なスクリプトによる応答を超えた、AIを活用したチャットボットや仮想エージェントを活用しています。これらのAIシステムは、動的な会話を行い、感情を検出し、インテリジェントな推奨を提供できます。

サイバーセキュリティと脅威検知

  • サイバー脅威の自律的な識別と軽減
    エージェント型AIは、継続的かつ適応的な脅威検知によりサイバーセキュリティテクノロジーを強化します。これらのAIエージェントは、ネットワークをモニタリングし、新たな攻撃パターンを認識し、脅威が拡大する前に脅威を封じ込めて無効化するための対策を自律的に展開します。

  • プロアクティブなAIモデル
    膨大なサイバーセキュリティデータセットでトレーニングされた機械学習モデルは、将来の脅威を予測し、脆弱性を評価し、プロアクティブな対策を推奨することができます。エージェント型AIは、攻撃対象領域をリアルタイムで分析することで、組織がセキュリティを強化し、攻撃者に先んじることを可能にします。

  • 不正検知とリスク評価
    金融分野では、エージェント型AIは用心深い監視役として機能し、取引パターンをリアルタイムで分析して、潜在的な不正行為を示唆する異常を検出します。不正の手口が進化するにつれて、エージェント型AIシステムは検知方法を継続的に改良し、銀行業務、電子商取引、デジタル決済にシームレスなセキュリティを提供します。

科学的研究と発見

  • 創薬と材料科学
    エージェント型AIは分子相互作用を迅速に分析することで創薬のブレークスルーを加速し、臨床研究の時間とコストを削減します。材料科学では、AIを活用したシミュレーションによって新しい化合物の特性を予測できるため、より強く、より軽く、より持続可能な材料の開発につながります。

  • 診断、ロボット手術、個別化医療
    医療分野では、エージェント型AIが医療画像を分析し、異常を検出し、病気の予測を提供することで診断を強化します。ロボット手術システムは、AIを活用した精度により、最小限の侵襲で複雑な手術を実行し、患者に優れた体験を提供し、治療結果の改善に貢献します。さらに、AIを活用した個別化医療では、個人の遺伝子プロファイルに基づいて治療をカスタマイズし、治療効果を最適化します。

  • 仮説の定式化と実験の実施
    科学研究室では、AIを活用した研究エージェントが自律的に仮説を生成し、実験を設計し、結果を分析します。これらのAIシステムは、膨大なデータセットの中からパターンを発見することで研究者を支援し、物理学、化学、環境科学などの分野におけるイノベーションのペースを加速します。

CrowdStrike® Charlotte AI

世界で最も忠実なセキュリティデータを用いる、クラウドストライクの新しい生成AIセキュリティアナリストの詳細をご覧ください。また、クラウドストライクの業界をリードする脅威ハンター、MDR(マネージド検知・対応) の運用者、インシデント対応の専門家の協力による継続的な改善についてもご紹介します。

見る

エージェント型AIの課題とリスク

安全性と制御
AIシステムがより自律的になるにつれて、真の課題は、それを人間の価値観および安全基準と整合させ続けることにあります。エージェント型AIは人間の意図に沿って設計する必要があります。こうしたシステムにフェイルセーフと監視の仕組みを組み込むことは、イノベーションを阻害することなく制御を維持するために不可欠です。

バイアスと公平性
AIの公平性は学習するデータに応じて決まり、エージェント型AIも例外ではありません。偏ったデータセットでトレーニングされた場合、エージェント型AIシステムはそれらのバイアスを継承し、さらには増幅することがあり、不公平な結果につながる可能性があります。AIが意思決定を行う方法の透明性を確保することは、バイアスを特定して軽減するための鍵となります。エージェント型AIシステムが体系的な不平等を強化するのではなく解決していることを保証するには、明確な説明責任と厳格なテストが不可欠です。

セキュリティリスク
自律性が高まると、セキュリティ上の脅威にさらされる可能性も高まります。悪意のあるアクターが、エージェント型AIシステムの脆弱性を悪用して、金融市場を操作したり、重要なインフラストラクチャを混乱させたり、偽情報を拡散したりする可能性があります。敵対的攻撃(AIを欺いて誤った判断をさせる攻撃)は、特にサイバーセキュリティや防衛などのリスクの高い環境では重大なリスクをもたらします。AIを活用したシステムを操作から保護するには、新たな脅威に合わせて進化する強力なセキュリティ対策を統合したプロアクティブなアプローチが必要です。

エージェント型AIの未来

エージェント型AIは、より高い自律性、高度な洗練性、そして現実世界へのより大きな影響に向かう軌道に乗っています。モデルの推論、学習、意思決定能力が向上するにつれて、医療から金融に至るまでのさまざまな業界でモデルがさらに大きな役割を果たすようになるでしょう。

しかし、この進化は重大な倫理的および規制上の問題を引き起こします。AIによる意思決定の境界をどのように設定すればよいでしょうか。自律システムが有害な選択を行った場合、誰が責任を負うのでしょうか。政策立案者や研究者がこれらの問題に取り組む中、有望な道の1つは、AIと人間のコラボレーションです。AIが人間の専門性に置き換わるのではなく、それを強化するのです。エージェント型AIの将来は、イノベーションと責任の間で適切なバランスをとることにかかっています。

詳細

クラウドストライクは、顧客のニーズを解決するためのサイバーセキュリティにおけるAIとMLの活用に関して、常に業界をリードしてきました。攻撃者の振る舞いや攻撃の痕跡 (IOA) の予測に使用されるクラウドストライクのAIの発展の詳細をご覧ください。

ブログ:クラウドストライク、AIを使用した攻撃者の振る舞いの予測を発展させ、保護を大幅に改善

まとめ

エージェント型AIは人工知能の新たな章を示すもので、複雑な目標を追求する際に人間の介入を最小限に、またはまったく必要としないシステムを実現します。人間はAIエージェントを監視し続けます(つまり、人間が制御し続けます)が、エージェント型AIはAIの自律性の向上に向けた大きな前進です。

 自動化や科学的発見からサイバーセキュリティやパーソナライズされた支援まで、エージェント型AIの可能性は否定できません。しかし、この力には、これらのシステムが安全で、公平で、かつセキュリティが確保された状態を維持することを保証する責任が伴います。今後は、インテリジェントで安全かつ信頼できるAIを開発するために、技術者、政策立案者、業界リーダーの協力が必要になります。

ルシア・スタンハムは、クラウドストライクのプロダクトマーケティングマネージャーとして、サイバーセキュリティにおけるエンドポイント保護 (EDR/XDR) とAIを担当しています。2022年6月よりクラウドストライクに勤務しています。