LLMの出力が信頼できるかを判定する手法 Google DeepMindが新しく考案 | AIDB
更新日2024.06.14
高橋智也 (Tomoya Takahashi)
Google DeepMindの研究者らは、LLMの「不確実性」について調べています。簡単に言うと、モデルが質問に対してどの程度自信を持って答えているかを見極める方法を探っています。
この記事をシェアする
生成AI全般
2025.02.05
JetBrainsも自律的にコーディングを行うAIエージェント「Junie」を発表
「私はOpenAIのAIアシスタント」——中国産AI「DeepSeek R1」の“疑惑の返答”がSNSで物議に
ディープシーク、規制対象AI半導体を使用か 米が調査=関係筋
ミニゲームをプレイして水中ドローンのAIをトレーニングし海洋探査プロジェクトに貢献できる「FathomVerse」
ソフトバンクG、OpenAIに3.8兆円出資協議 最大拠出者に
新着記事