LLMの出力が信頼できるかを判定する手法 Google DeepMindが新しく考案 | AIDB
更新日2024.06.14
高橋智也 (Tomoya Takahashi)
Google DeepMindの研究者らは、LLMの「不確実性」について調べています。簡単に言うと、モデルが質問に対してどの程度自信を持って答えているかを見極める方法を探っています。
この記事をシェアする
生成AI全般
2025.02.20
Google ChromeにGeminiを統合するオプションが開発者向けのChrome Canaryに登場
Meta、生成AIイベントを4月に、メタバースイベントを9月に開催へ
OpenAIの元CTOムラティ氏、新AI企業Thinking Machine Lab立ち上げ
AIの利用・導入、契約上の注意点は? 経産省がチェックリスト公開
2025.02.19
DeNA南場会長も使う「NotebookLM」って何? 自分だけのチャットAIが作れる話題のGoogle製サービス、いまさら聞けない活用法
新着記事