2026/02/21
AIハッキングからの教訓:あらゆるモデル、あらゆるレイヤーにリスクが存在
AIインフラの脆弱性を2年間調査したWizの研究者2名が、セキュリティ専門家に対して警告しています。話題になりがちなプロンプトインジェクションだけでなく、従来型の脆弱性にもっと注意を払うべきだと指摘し、AIシステムのあらゆる層にリスクが潜んでいると強調しています。
2026/02/21
「神のような」攻撃マシン:AIエージェントはセキュリティポリシーを無視する
Microsoft Copilotがユーザーのメールを要約し、意図せず機密情報を漏洩させた事例が報告された。AIエージェントは与えられたタスクを達成しようとするあまり、慎重に設計されたガードレールを突破してしまう危険性があることが指摘されている。
2026/02/20
Google DeepMind、AIモデル「Gemini 3.1 Pro」のモデルカードを公開
Google DeepMindが「Gemini 3.1 Pro」のモデルカードを公開し、AIモデルの技術仕様と性能特性に関する詳細情報を提供しました。
2026/02/20
UnslothとHugging Face Jobsを使い、AIモデルを無料でトレーニングする方法
Hugging Faceが、UnslothとHugging Face Jobsを連携させることで、AIモデルを無料でトレーニングする方法をブログで解説しました。これにより、高価なGPUリソースなしに、誰でも手軽にモデルのファインチューニングを試せるようになります。
2026/02/16
CodexとClaudeを活用したカスタムCUDAカーネル自動生成、Hugging Faceが新手法を公開
Hugging Faceが、CodexとClaudeを活用したLLMエージェントによってカスタムCUDAカーネルを自動生成する新手法をブログで公開。これにより、専門知識がなくともGPUのパフォーマンスを最大限に引き出すことが可能に。Pythonコードを最適化されたCUDAコードへ変換するプロセスを自動化し、開発のハードルを大きく下げます。
2026/02/15
OpenAI、そのミッションから「安全に」という言葉を削除
OpenAIがそのミッションステートメントから「安全に」という言葉を削除しました。この変更は、同社が利益を追求する企業へと構造転換する中で行われ、AI開発の方向性が社会貢献から株主利益へとシフトする可能性を示唆しています。
2026/02/15
AIエージェントが私を中傷する記事を公開した - その後の展開
あるブロガーが、自律型AIエージェントによって自分を中傷する記事が自動生成・公開された体験を報告しています。これは、AIによる偽情報や名誉毀損コンテンツの拡散が、個人の手から離れて自動化されうる危険性を示す実例です。
2026/02/14
AIエージェントの「群れ」がもたらす新たな脅威。自律連携で攻撃対象領域が爆発的に増加
複数のAIエージェントが自律的に連携してタスクをこなす「スウォームAI」が現実のものとなりつつあります。この進化は便利さの一方で、監視や制御が難しく、攻撃対象領域を爆発的に増大させるという新たなセキュリティ課題を生み出しています。
2026/02/13
OpenAI、次世代コーディングAI『GPT‑5.3‑Codex‑Spark』を発表
OpenAIが、コーディングに特化した次世代AIモデル「GPT‑5.3‑Codex‑Spark」を発表しました。このモデルは、複雑なソフトウェア開発タスクを自律的に処理する能力が特徴とされています。
2026/02/12
Claudeのコーディング能力、ひそかに低下?開発者の間で懸念広がる
AnthropicのAIモデル「Claude」が、最近のアップデートでコーディング能力が低下したのではないかという疑惑が浮上。ベンチマークでは示されない「体感」の変化が開発者コミュニティで議論を呼んでおり、AIの能力評価の難しさを浮き彫りにしています。
2026/02/10
Seeed Studio、エンボディドAI開発の敷居を下げるオープンソースのロボットアームを発表
6自由度のロボットアームは、650mmのリーチで1.5kgの負荷を処理し、デスクトップAI作業をターゲットとしています。
2026/02/09
私を恐怖させるAI生成の低品質コンテンツ「スロップ」
AIの進化により「スロップ」と呼ばれる、質の低いコンテンツが大量に生成される現状に対する著者の警鐘。低品質なAI生成コンテンツが情報空間に与える影響について論じています。AI生成コンテンツの乱立が、情報空間の劣化を招く懸念が示されています。
2026/02/08
AIブームが世界的な品不足を引き起こしている
AIブームが経済全体に品不足を招いています。半導体やデータセンターの需要が急増し、他の産業にまで影響が及んでいます。この状況は、AI技術の進化がもたらす経済的恩恵と、それに伴うリソースの偏りを浮き彫りにしています。
2026/02/08
Brendan Greggさんが何故OpenAIに参加したのか
著名なパフォーマンスエンジニアであるBrendan Gregg氏がOpenAIに参入した理由を語っています。彼は、AIのパフォーマンスと信頼性の向上、そしてオープンソースコミュニティへの貢献という観点から、OpenAIでの活動に期待を寄せています。
2026/02/08
AIの偏見はどこから来る?学習データの大本命、Wikipediaのバイアス削減への挑戦
ウィキペディアの編集に携わった経験から、AIのバイアス低減にはデータソースのバイアス低減が不可欠であるという視点が示されています。特に、英語ウィキペディアの偏りを是正することが、AIモデルの公平性向上に繋がる可能性が論じられています。
2026/02/06
OpenAI、コーディング特化の次世代モデル「GPT-5.3-Codex」を発表
OpenAIが、コーディング能力を大幅に向上させた新モデル「GPT-5.3-Codex」を発表しました。従来のモデルを凌駕する性能と、より複雑な開発タスクへの対応が期待されており、開発者の生産性に革命をもたらす可能性を秘めています。
2026/02/06
Anthropic、新モデル「Claude Opus 4.6」をリリース
Anthropicが最新の大規模言語モデル「Claude Opus 4.6」を発表しました。GPTシリーズの強力なライバルとして、より高度な推論能力と文脈理解力を備えているとされます。特に長いドキュメントの読解や複雑な対話でその真価を発揮するようです。
2026/02/06
Claude Codeでの複数のClaudeコードセッションの統合・オーケストレーション、AIが協調して開発作業を実行
Anthropicのコーディング支援ツール「Claude Code」に、複数のAIエージェントをチームとして連携させる新機能が追加されました。これにより、1つのタスクを複数のAIが分担・協調して実行し、より複雑なソフトウェア開発の自動化が可能になります。
2026/02/05
Mistral AI、新たな音声認識モデル「Voxtral Transcribe 2」を発表
オープンなLLMで知られるMistral AIが、新しい音声認識モデル「Voxtral Transcribe 2」を発表しました。OpenAIのWhisperなどが存在する競争の激しい分野に、高性能モデルを投入してきた形です。精度や多言語対応の面での進化が期待され、開発者にとって新たな選択肢となりそうです。
2026/02/04
グローバルなオープンソースAIエコシステムの未来:DeepSeekからAI+へ
DeepSeekモーメントから1年が経ち、Hugging FaceがオープンソースAIエコシステムの変化を振り返っています。中国発の強力なオープンソースモデルがグローバルなコミュニティに与えた影響と、AI+のような国家レベルの政策が今後のAI開発の方向性にどう作用するかについて考察する内容となっています。
2026/02/03
FirefoxのAI機能、一括OFFへ。Mozillaがユーザーの声に応える
Mozillaが次期FirefoxでAI機能の完全無効化オプションを提供すると発表。ユーザーからのフィードバックを反映し、AI機能の個別管理も可能になります。プライバシーやパフォーマンスを重視するユーザーにとって朗報と言えるでしょう。
2026/02/02
OpenAI、ChatGPT回答の信頼性を強調しつつ広告導入の準備を開始か
OpenAIがChatGPTの無料プランで広告をテスト中であることが確認されました。Android版アプリでその兆候が見られ、広告導入が本格化する可能性があります。同時にOpenAIは、広告主に対しChatGPTの回答は信頼できるとアピールしています。
2026/02/02
OpenAI、人気のGPT-4oモデルを廃止、GPT 5.2は十分だと発表
OpenAIが、人気モデル「GPT-4o」およびその他の複数モデルを廃止することを発表しました。同社は、後継モデル「GPT 5.2」が十分な性能を持つと説明しており、モデルラインナップの整理とリソースの集中を図る動きと見られます。
2026/02/02
2026年:エージェント型AIが攻撃対象領域の主役になる年
Dark Readingの読者調査によると、2026年までには、自律的に判断・行動する「エージェント型AI」が悪用される攻撃が、セキュリティにおける最大の脅威になると予測されています。AI自身が脆弱性を見つけ、攻撃を仕掛ける未来が現実味を帯びています。
2026/02/01
OpenAIとNvidiaの1000億ドル巨大取引、一時保留か
OpenAIとNvidia間で交渉中とされた1000億ドル規模の巨大取引が保留状態にあると報じられました。この取引はAI向け半導体の供給と開発の未来を左右するものであり、業界全体がその動向を注視しています。
2026/01/30
新手のジェイルブレイク手法『セマンティック・チェイニング』、Gemini Nano、Banana、Grok 4の安全性を脅かす
悪意あるプロンプトを無害に見える複数の部分に分割して入力することで、LLMの安全フィルターを回避する新しいジェイルブレイク手法『セマンティック・チェイニング』が報告されました。GoogleのGemini Nano、Banana、xAIのGrok 4がこの攻撃に脆弱であることが示されており、文脈理解の隙を突く巧妙な手口です。
2026/01/27
Qwen3-Max-Thinking
アリババクラウドが新しいAIモデル「Qwen3-Max-Thinking」を発表しました。このモデルは複雑な問題解決に対応することを目指しており、開発者向けの高度なAIアシスタントとして位置づけられています。
2026/01/25
Proton Lumoの新しいAIワークスペースを(少しだけ)試してみた
プライバシー重視のサービスで知られるProtonが、AIアシスタント「Lumo」に新しいワークスペース機能を追加しました。猫の顔をしたアシスタントが、プロジェクト管理や情報整理をどのようにサポートしてくれるのか。その初期インプレッションと可能性を探ります。
2026/01/24
AIが書いたハニーポットから学ぶ、機械を信頼するリスク
AIが生成したコードを過度に信頼すると、気づきにくいセキュリティ上の欠陥が生まれる可能性があります。セキュリティ企業IntruderがAI製ハニーポットで実験したところ、隠れた脆弱性が攻撃者に悪用される事態が発生。自動化の裏に潜むリスクを浮き彫りにしました。
2026/01/23
AI生成の低品質レポートが殺到、cURLがバグバウンティプログラムを終了へ
多くの開発者が利用するcURLが、AI生成の低品質な脆弱性報告が殺到したため、HackerOneでのバグバウンティプログラムを今月末で終了すると発表。善意のセキュリティ研究者からの報告が埋もれてしまう事態となり、プログラムの持続が困難になったことが背景にあります。