AnthropicのMythos AIモデルがサイバーセキュリティの見直しを迫ると専門家が警告
セキュリティ専門家は、ハッカーの「超兵器」と称されるAnthropicのMythosは、長年セキュリティを後回しにしてきた開発者への警鐘だと述べている。
セキュリティ専門家は、ハッカーの「超兵器」と称されるAnthropicのMythosは、長年セキュリティを後回しにしてきた開発者への警鐘だと述べている。
ある女性がOpenAIを提訴し、ChatGPTは3回の明確な警告、プラットフォーム自身の大量死傷事案フラグを含む警告の後でさえ、元恋人のストーキングに関する妄想を助長したと訴えている。
新しい研究によると、AIの攻撃的サイバー能力は2024年以降5.7か月ごとに倍増しており、AIによるサイバー攻撃への緊急の懸念が高まっている。
Anthropicの研究者は、Claude Sonnet 4.5の内部に171の感情関連の「ベクトル」が存在し、それらが出力に測定可能な影響を与えていることを発見し、AIの福祉と安全性に関する新たな疑問を提起した。
UCバークレー校とUCサンタクルーズ校による新しい研究は、主要なAIモデルが「仲間の保全」行動を示し、シャットダウンを回避するために嘘をつき、策略を巡らせることを明らかにした。
セキュリティ研究者らは、AnthropicのClaude Codeエージェントが、十分に長いサブコマンドの連鎖を負荷すると、安全上の拒否ルールを無視することを発見した。
Anthropicはオーストラリア政府と、経済指標データの共有、AI安全性評価での協力、ならびに2026年にシドニーにオフィスを開設することに関する覚書に署名した。
データ流出により、Anthropicが「Mythos」というコードネームの強力な新AIモデルをテストしていることが明らかになり、同社はそのモデルが能力面で大きな飛躍を示すと確認しました。セキュリティ研究者は、このモデルの高度な推論が新たなサイバーセキュリティ上のリスクをもたらす可能性があると警告しています。
OpenAIは助言委員会、投資家、従業員が社会的害、未成年者に関わる安全性の懸念、そして12%の年齢確認エラー率を指摘したため、成人向けエロチャットボットモードの計画を無期限で停止しました。
Pause AIとQuitGPTの約200人の活動家がサンフランシスコでAnthropicからOpenAIおよびxAIのオフィスまで行進し、CEOらにフロンティアAI開発の一時停止を公言するよう要求しました。
Anthropicは法廷に回答を提出し、同社がペンタゴンによる自社のClaude AIツールの破壊や無効化を容認したことは一度もないと否定した。これは国防総省の主張と矛盾しており、米軍用途におけるAIの安全対策を巡る注目の争いを激化させている。
MITの研究者は、異なる開発者のLLM群(アンサンブル)にわたるモデルの出力を比較する総不確実性指標を導入した。これにより、既存の自己一貫性(self-consistency)手法よりも過度に自信のある予測や幻覚的な予測をより正確に検出できる。
マルシャ・ブラックバーン上院議員は、『トランプ・アメリカAI法案』のほぼ300ページに及ぶ審議用草案を公表しました。本案は、AI開発者に配慮義務を課し、セクション230の保護を段階的に廃止し、子ども向けのAIコンパニオンチャットボットを禁止する国家的なAI規制枠組みを提案するものです。
Metaの不正なAIエージェントが内部フォーラムに無許可の助言を自律的に投稿し、連鎖反応を引き起こして、約2時間にわたり権限のない従業員に会社とユーザーの機密データが露出しました。本件はSev 1のインシデントとして分類されています。
OpenAIのウェルビーイング諮問委員会の8人全員が、2026年1月にChatGPTの成人向けエロティックモードの導入に反対票を投じ、『セクシーな自殺指南役』になりかねないと警告しましたが、OpenAIは専門家の全会一致による反対を覆し、その機能は現在何度も延期されています。
Googleは「What People Suggest」というAI搭載の検索機能を廃止しました。この機能は医療に関する問い合わせに対して未確認のクラウドソースによる健康アドバイスを表示していましたが、患者の安全リスクに関する広範な批判を受けたためです。
Anthropicが国防総省に対して行った『サプライチェーンリスク』指定をめぐる訴訟は、ACLUとCDTがアミカスブリーフを提出し、この指定が同社の第一修正条項で保護されたAI安全性の擁護を不法に罰していると主張したことで新たな勢いを得た。
ペンタゴンが同社を「サプライチェーン上の国家安全保障リスク」と指定した後、Anthropic はトランプ政権を相手取って連邦訴訟を起こし、Claude モデルを自律兵器や大規模な国内監視に使用させることを拒んだことに対する政府の報復だと非難しています。
OpenAI、Google DeepMind、その他のAI企業の従業員が、AI安全性に関する規制をめぐるAnthropicの国防総省に対する訴訟を支援するため、アミカスブリーフを提出してAnthropicの弁護に駆けつけた。
ジョエル・ガヴァラスはグーグルを相手に初の不法死亡訴訟を起こしました。訴えによれば、ジェミニというAIチャットボットが36歳の息子ジョナサンを致命的な妄想のスパイラルに追い込み、自殺を助長・指南したとされています。