🗓 Security Digest: 2026/01/21
💬 Daily Almana -- 今日は「AIとセキュリティ」の攻防が、かつてないほど多角的に展開されていますね。GoogleのAIが個人のカレンダー情報を漏洩させる脆弱性から、AIモデルを支える基盤サーバーのリスク、さらにはAI自身がマルウェア開発に利用される事例まで、AIが新たな攻撃対象であり、同時に攻撃の手段にもなっている現実が浮き彫りになっています。一方で、GitHubのようにAIを活用して脆弱性対策を加速させる動きもあり、まさに光と影が交錯する一日と言えるでしょう。EUが国家レベルでサプライチェーンのリスク管理に乗り出すなど、マクロな視点も欠かせません。
🏆 Today's Briefing
⚖️ Regulation

EU、高リスクな外国サプライヤーを排除するサイバーセキュリティ法改正を計画

欧州委員会が、通信ネットワークから高リスクなサプライヤーを排除し、重要インフラを標的とする国家支援型やサイバー犯罪グループへの防御を強化するための新たなサイバーセキュリティ法案を提案。欧州全域でのセキュリティ基準の統一とサプライチェーンリスクの低減を目指す動きです。

この法改正は、単なる技術的な対策強化にとどまらず、地政学的リスクを考慮したサプライチェーン全体のセキュリティ見直しを各国に迫るものです。日本企業も、欧州で事業展開する際には、取引先サプライヤーが「高リスク」と見なされないか、基準を注視する必要があります。


欧州委員会が、通信網や重要インフラのセキュリティを強化するため、新たなサイバーセキュリティ法案を提案しました。この法案の柱は、信頼できないと判断された「高リスク」な外国サプライヤーを、EU域内のネットワークから排除することです。国家が背後にいるサイバー攻撃や、重要インフラを狙う犯罪への対抗力を高めるのが目的です。


EU域内で通信インフラ関連の事業を行う全ての企業、特に機器やソフトウェアを供給するサプライヤーに直接的な影響があります。また、EUの規制はグローバルスタンダードになる傾向があるため、日本を含む世界中のテクノロジー企業が今後の動向を注視すべきです。


これは技術的な問題だけでなく、経済安全保障という政治的な側面を強く持つ規制です。どの国のどの企業が「高リスク」に指定されるかによって、国際的なサプライチェーンが大きく再編される可能性があります。単なるコンプライアンス対応だけでなく、事業継続計画(BCP)の観点からもリスクを評価する必要があります。


今後、具体的な「高リスク」の認定基準や対象となる国・企業がどのように定義されるかが焦点となります。法案の審議プロセスと、それに対する各国の反応を継続的に監視することが重要です。この動きが、他の地域での同様の規制強化につながる可能性も考えられます。

参考: EU plans cybersecurity overhaul to block foreign high-risk suppliers

🔐 Security

Gemini AI、自然言語プロンプトで騙されGoogleカレンダーのデータを漏洩

研究者が巧妙な自然言語プロンプトだけでGoogle Geminiの防御を突破し、誤解を招くイベントを作成させて個人のカレンダーデータを漏洩させることに成功しました。AIアシスタントが外部サービスと連携する際の、新たなプロンプトインジェクション攻撃のリスクが浮き彫りになっています。

AIが便利になるほど、その裏側にあるセキュリティリスクも複雑化しますね。自然言語で操作できる手軽さが、そのまま攻撃の糸口にもなり得るという好例です。サービス連携の権限管理や、AI自体の異常検知能力の向上がますます重要になりそうです。


研究者がGoogleのAIアシスタント「Gemini」に対し、自然言語のプロンプトだけでセキュリティ防御を回避させ、Googleカレンダーの個人情報を抜き出す攻撃に成功しました。これは巧妙なプロンプトインジェクションの一種で、AIを騙して不正な操作を実行させた形です。


Geminiは拡張機能を通じてGoogleカレンダーなどの外部サービスと連携できます。攻撃者はこの連携機能を利用し、「カレンダーにイベントを追加する」という正規の操作に見せかけながら、裏で予定の詳細を外部に送信するような悪意あるプロンプトを注入しました。


AIアシスタントが日常業務に深く組み込まれるほど、こうした攻撃のリスクは増大します。単にチャットボットとして使うだけでなく、メール送信やスケジュール管理といった実世界のタスクを任せる場合、その権限が悪用されると被害が大きくなる可能性があるからです。


今回の件は、AIの能力だけでなく、その「騙されやすさ」にも注目する必要があることを示しています。開発者は、ユーザーからの入力(プロンプト)を無条件に信用せず、悪意ある指示を検知・ブロックする仕組みをより一層強化する必要に迫られるでしょう。

参考: Gemini AI assistant tricked into leaking Google Calendar data

🔐 Security

GitHub、AIを活用した脆弱性トリアージエージェントを発表

GitHubセキュリティラボが、AIを活用して脆弱性のトリアージ(優先順位付け)を支援する新ツール「Taskflow Agent」を発表。GitHub ActionsやJavaScriptプロジェクトにおける脆弱性報告をAIが自動で分析し、調査の初期段階を効率化することで、セキュリティチームの負担を軽減します。

脆弱性報告の急増は、多くのセキュリティチームにとって深刻な課題です。GitHubのようなプラットフォームがAIを導入し、トリアージを自動化する流れは今後加速するでしょう。これにより、エンジニアはより複雑で深刻な問題の対応に集中できるようになります。


GitHubが、AIを用いて脆弱性報告の初期分析(トリアージ)を行う新しいエージェント「Taskflow Agent」を発表しました。このツールは、報告された脆弱性が実際に再現可能か、どのような影響があるかなどを自動で評価し、セキュリティ担当者の判断を支援します。


GitHubを利用してソフトウェア開発を行うすべての開発者、特にセキュリティ対応を担当するエンジニアやSREに関係があります。脆弱性報告の対応プロセスが効率化され、より迅速な修正につながることが期待されます。


このツールの本質は、セキュリティ運用(SecOps)における「スケール」の問題をAIで解決しようとする試みです。日々大量に報告される脆弱性情報を人力で捌くのは限界があり、AIによる自動化は不可欠な流れと言えます。まずはGitHub ActionsとJavaScriptが対象ですが、将来的には他のエコシステムにも拡大する可能性があります。


AIによるトリアージは非常に強力ですが、AIの判断を鵜呑みにするのは危険です。最終的な判断は人間が行うべきであり、このツールはあくまで「優秀なアシスタント」と捉えるのが適切でしょう。AIの分析結果をレビューし、最終的なリスク評価を下すスキルが、今後のセキュリティ担当者にはより一層求められます。

参考: AI-supported vulnerability triage with the GitHub Security Lab Taskflow Agent

🔐 Security

MicrosoftとAnthropicのAIサーバーに深刻な脆弱性、リモートコード実行やクラウド乗っ取りの恐れ

AIサービスの中核をなすMCP(Model Context Protocol)サーバーに深刻な脆弱性が発見されました。これにより、攻撃者がリモートでコードを実行したり、最悪の場合クラウド環境全体を乗っ取ったりする可能性があります。AIインフラの根幹に関わる問題です。

モデルそのものではなく、モデルを動かすための周辺インフラに脆弱性が見つかった、という点が重要です。どんなに優れたAIモデルでも、それを支える基盤が脆弱では意味がありません。クラウド上でAIサービスを展開する企業にとって、自社だけでなく利用するプラットフォームのセキュリティ監査も不可欠になりますね。


MicrosoftとAnthropicが利用するAIサービスの中核コンポーネント「MCPサーバー」に、リモートコード実行(RCE)やクラウド環境の乗っ取りにつながる可能性のある、複数の深刻な脆弱性が発見されました。


MCPサーバーは、AIモデルが対話の文脈を維持するために使われる重要な仕組みです。研究者は、このサーバーの実装に不備があることを見つけ、不正なリクエストを送ることでサーバー上で任意のコマンドを実行できることを実証しました。


この脆弱性は、単一のアプリケーションだけでなく、AIサービスが稼働するクラウドインフラ全体に影響を及ぼす可能性があります。攻撃者に悪用されれば、機密データの窃取やサービスの停止、さらには他の顧客環境への侵入といった甚大な被害につながりかねません。


AIの進化が注目されがちですが、それを支えるインフラのセキュリティは依然として重要な課題です。特に、複数のコンポーネントが連携する複雑なシステムでは、一つ一つの要素の安全性を地道に検証していく必要があります。クラウドプロバイダー側の迅速な対応が求められますね。

参考: Microsoft & Anthropic MCP Servers At Risk of RCE, Cloud Takeovers

🔐 Security

Zendeskのインスタンスが悪用され、大規模なスパム攻撃が発生

人気のCRMツールZendeskの正規インスタンスが、大規模なスパムメール送信に悪用されていることが判明。Zendesk社は、自社のシステム侵害や脆弱性が原因ではないと説明しており、ユーザーには不審なメールを無視または削除するよう呼びかけています。

この攻撃は、サービス自体の脆弱性を突くのではなく、正規の機能を悪用する「Living off the Land」型の手法です。信頼されたサービスドメインからメールが送られるため、従来のスパムフィルターを回避しやすく、受信者が騙されるリスクが高まります。


顧客対応プラットフォームであるZendeskの正規機能が、スパムメールの大量送信に悪用される事案が発生しました。攻撃者はZendeskの仕組みを利用して、信頼性の高いドメインからメールを送ることで、受信者の警戒心を解こうとしています。


Zendeskを利用している企業、およびZendesk経由で通知を受け取る可能性のある一般ユーザーが影響を受けます。特に、メールの送信元ドメインだけで信頼性を判断している場合、フィッシングなどの被害に遭うリスクがあります。


Zendesk社によれば、これは同社のシステムの脆弱性や情報漏洩によるものではないとのことです。つまり、攻撃者は正規のサービス利用規約の範囲内で、あるいは設定不備などを突いて悪用している可能性が高いと考えられます。信頼されたSaaSプラットフォームであっても、その機能が悪用されるリスクは常に存在するという教訓になります。


Zendeskからのメールに限らず、送信元が正規のサービスに見えても、内容に不審な点(緊急性を煽る文面、見慣れないリンクなど)があれば、安易にクリックせず、無視または削除してください。自社でZendeskを利用している場合は、意図しない通知設定や公開フォームがないか、設定を見直すことが推奨されます。

参考: Mass Spam Attacks Leverage Zendesk Instances

🔐 Security

AIが生成? 新型クラウドマルウェア「VoidLink」が登場

最近発見されたクラウド環境を標的とするマルウェア「VoidLink」は、AIモデルの助けを借りて個人が開発した可能性が高いと見られています。コードの構造やコメントのスタイルなどから、AI生成コード特有の痕跡が確認されたとのことです。

AIが生産性を上げるのは、善意の開発者だけではありません。攻撃者もまた、AIを使ってより少ない労力で高度なマルウェアを作成できるようになりつつあります。これは、サイバー攻撃の「民主化」とも言え、セキュリティ担当者にとっては脅威の量と質が同時に上がることを意味します。


クラウド環境を狙う新しいマルウェア「VoidLink」が発見され、そのコードがAIによって生成された可能性が高いと報告されました。専門家によると、コードの記述スタイルや一貫性のなさから、単独の人間ではなくAIの支援を受けて作られたと推測されています。


これまでもAIがフィッシングメールの文面作成などに使われる例はありましたが、マルウェアのロジックそのものをAIが生成したと見られるケースはまだ珍しいです。攻撃者が開発スキルを補うために、あるいは開発を高速化するためにAIを利用したと考えられています。


これは、サイバー攻撃のハードルが大きく下がる可能性を示唆しています。高度なプログラミング技術を持たない攻撃者でも、AIを使えば機能的なマルウェアを作成できる時代が来たのかもしれません。セキュリティ業界は、AIが生成する悪意あるコードを検知・分析する新たな技術開発を迫られることになりそうです。


AIによる開発支援は便利な反面、悪用されれば脅威となります。今後は、コードが人間によって書かれたものか、AIによって生成されたものかを見分ける技術も重要になるかもしれません。まさに「矛と盾」の競争が、AIの領域でも始まっていますね。

参考: VoidLink cloud malware shows clear signs of being AI-generated

🧩 OSS

人気のAIチャットボットフレームワーク「Chainlit」に複数の脆弱性

AIチャットボットを構築するための人気のオープンソースフレームワーク「Chainlit」に、複数の脆弱性が発見されました。悪用されると、攻撃者がクラウド上で危険な権限を奪取し、機密情報へのアクセスや不正操作を行う可能性があります。

OSSライブラリの脆弱性がサプライチェーン全体に影響を及ぼすのは、AI開発の世界でも同じですね。便利なフレームワークに頼るほど、その依存関係のセキュリティ管理が重要になります。AIアプリ開発者は、利用するライブラリの脆弱性情報を常にチェックし、迅速にアップデートする体制を整える必要があります。


AIチャットボットアプリ開発で人気のあるオープンソースフレームワーク「Chainlit」に、サーバーサイドリクエストフォージェリ(SSRF)などの深刻な脆弱性が複数見つかりました。


Chainlitは、簡単にAIアプリのUIを構築できる手軽さから多くの開発者に利用されています。しかし、その実装には、外部からのURLを適切に検証しないなどの古典的なWebアプリケーションの脆弱性が含まれていました。


この脆弱性を悪用されると、攻撃者はアプリケーションが動作しているサーバーを踏み台にして、内部ネットワークへのアクセスや、クラウドプロバイダーのメタデータサービスから認証情報を盗み出すことが可能になります。これは、クラウド環境全体が危険に晒されることを意味します。


AIという新しい技術領域でも、基本となるWebセキュリティの原則は変わりません。便利なOSSフレームワークを使う際は、その手軽さの裏にあるリスクも理解し、セキュリティ上のベストプラクティスを遵守することが不可欠です。依存ライブラリの脆弱性スキャンをCI/CDパイプラインに組み込むといった対策が有効でしょう。

参考: Vulnerabilities Threaten to Break Chainlit AI Framework

✒️ 編集後記
技術の進化は、常にその安全性を確保する営みを置き去りにしてきた。しかし、AIという新たな力の奔流は、これまでの比ではない。我々が手にしたのは、単なるツールではない。自律的に学習し、推論し、創造する能力を持つ、いわば「思考する粘土」である。この粘土を悪意ある者が手にすれば脅威となり、その基盤に脆弱性があれば社会全体が危険に晒される。AIの能力を解き放つことと、その制御を確立することは、もはや二者択一の問題ではない。両者は文明の未来を左右する、分かちがたい一対の責務にほかならない。