AIの嘘のつき方が巧妙化している!?【ハルシネーション】
https://president.jp/articles/-/96155?page=1 ChatGPTの「ウソ」が巧妙化してきた…AI研究者が解説「ハルシネーションとうまく付き合うプロンプトの書き方」
→AIが作った文章の中にハルシネーションがあったとしても、2022年と比べて、2025年現時点で、は人間がハルシネーションを見つけるのがとても難しくなってきている。
独断と偏見で要約
- この記事にも、「ChatGPTが教える、ハルシネーションを避けるコツ」「ChatGPTが教える ChatGPTの欠点」など、ChatGPTの回答をそのまま図で掲載している→内容も、たしかに十分読むに値すると個人的には思いました。
- 「次の言葉で確率的に高いものを持ってきて穴埋めしていく」というAIモデルの構造上、「知りません」と言うことはできない→答えがなくても、もっともらしい嘘をついてしまう
- 新聞記事や雑誌の記事、プレスリリースなど、正確性が厳しく求められるものには、間違いがあると危険だから使わないほうがいい
- 2025/5/21にGoogleが発表したGeminiは、拡散モデルを用いているので、ハルシネーションは少ないらしい(→いままでのモデル、transformerとの違いについての詳しい記載は見つからず。)
ディスカッション
コメント一覧
まだ、コメントがありません