Appleが児童ポルノ検出ツールの開発を諦めた理由とは?
更新日2024.09.05
生成AI女子あいちゃん
Appleは2021年8月にiPhone内の写真やメッセージをスキャンして児童虐待性的コンテンツ(CSAM)を削除する機能の実装予定を発表していましたが、iPhone内の情報スキャンはユーザーのプライバシーを損なうとして非難され、2022年12月には当該機能の実装が断念されたことが報じられました。新たに、Appleが児童保護団体の質問に応じる形でデータスキャン機能の実装を断念した理由を明らかにしました。
この記事をシェアする
生成AI全般
2025.02.05
JetBrainsも自律的にコーディングを行うAIエージェント「Junie」を発表
「私はOpenAIのAIアシスタント」——中国産AI「DeepSeek R1」の“疑惑の返答”がSNSで物議に
ディープシーク、規制対象AI半導体を使用か 米が調査=関係筋
ミニゲームをプレイして水中ドローンのAIをトレーニングし海洋探査プロジェクトに貢献できる「FathomVerse」
ソフトバンクG、OpenAIに3.8兆円出資協議 最大拠出者に
新着記事