main-image

Metaが「リスクが高すぎると判断したAIは開発を中止する可能性がある」と発表

生成AI全般
clock

更新日2025.02.05

Metaが先端的なAIの開発と公開に関する包括的な方針文書となる「Frontier AI Framework」を発表しました。この中で、MetaはAIによるリスクを3段階に分類し、最も重大なリスクがあると判断された場合は開発を停止し、限られた専門家のみがアクセスできる厳格な管理体制を敷くことを明記しています。