プロフィール
<< 2024年12月 >>
1
2 3 4 5 6 7
8
9 10 11 12 13 14
22
23 24 25 26 27 28
29
30 31
リンク集
カテゴリアーカイブ
月別アーカイブ
2024年12月 (25)
2024年11月 (59)
2024年10月 (64)
2024年09月 (62)
2024年08月 (71)
2024年07月 (61)
2024年06月 (67)
2024年05月 (71)
2024年04月 (72)
2024年03月 (61)
2024年02月 (63)
2024年01月 (73)
2023年12月 (33)
2023年11月 (43)
2023年10月 (30)
2023年09月 (33)
2023年08月 (48)
2023年07月 (52)
2023年06月 (67)
2023年05月 (72)
2023年04月 (80)
2023年03月 (108)
2023年02月 (63)
2023年01月 (17)
2022年12月 (14)
2022年11月 (24)
2022年10月 (43)
2022年09月 (33)
2022年08月 (44)
2022年07月 (15)
2022年06月 (6)
2021年12月 (1)
2021年11月 (49)
2021年10月 (60)
2021年09月 (54)
2021年08月 (54)
2021年07月 (56)
2021年06月 (50)
2021年05月 (62)
2021年04月 (44)
2021年03月 (53)
2021年02月 (48)
2021年01月 (60)
2020年12月 (51)
2020年11月 (61)
2020年10月 (54)
2020年09月 (54)
2020年08月 (60)
2020年07月 (49)
2020年06月 (48)
2020年05月 (61)
2020年04月 (48)
2020年03月 (58)
2020年02月 (31)
2020年01月 (55)
2019年12月 (54)
2019年11月 (53)
2019年10月 (54)
2019年09月 (60)
2019年08月 (54)
2019年07月 (49)
2019年06月 (63)
2019年05月 (52)
2019年04月 (55)
2019年03月 (61)
2019年02月 (49)
2019年01月 (54)
2018年12月 (50)
2018年11月 (52)
2018年10月 (55)
2018年09月 (65)
2018年08月 (48)
2018年07月 (55)
2018年06月 (56)
2018年05月 (50)
2018年04月 (57)
2018年03月 (58)
2018年02月 (51)
2018年01月 (64)
2017年12月 (53)
2017年11月 (56)
2017年10月 (61)
2017年09月 (59)
2017年08月 (65)
2017年07月 (84)
2017年06月 (57)
2017年05月 (69)
2017年04月 (76)
2017年03月 (69)
2017年02月 (72)
2017年01月 (212)
2016年12月 (236)
2016年11月 (166)
2016年10月 (239)
2016年09月 (365)
2016年08月 (222)
2016年07月 (82)
2016年06月 (56)
2016年05月 (71)
2016年04月 (69)
最新記事

2023年05月19日

【 幻覚の病理学 】(丸山先生のBlog)

ChatGPT

大規模言語モデルの「幻覚 Hallucination」という問題について、本論文のIntroductionでは詳しく説明されています。System Cardは、「幻覚 Hallucination」という言葉を使用することについて注釈をつけており、擬人化の可能性や誤ったメンタルモデルの形成につながる可能性に言及しています。幻覚はモデルがより真実味を帯びるにつれてより危険になる可能性があり、大規模言語モデルにおける社会的な病理現象を引き起こす危険性が指摘されています。また、幻覚症状は単なる「個人的(?)」病理ではなく、社会的な病理現象を引き起こす可能性があると述べられています。これまでも大規模言語モデルに幻覚が存在することは知られており、この論文では抽象的な文書要約におけるモデルの限界や幻覚の種類について分析されました。System Cardでは幻覚症状が二つのタイプに分類されており、OpenAIは成果を誇示するのではなく、幻覚が引き起こす可能性のある社会的な病理現象を議論しています。

Bing AIの説明

大規模言語モデルの「幻覚(hallucination)」とは、事実とは異なる情報を事実のように語ることです。例えば、GPT-4が「日本の首都は大阪である」と生成する場合、それは幻覚と呼ばれます。大規模言語モデルは、学習したテキストコーパスに含まれる誤りや偏りを反映することがあります。
幻覚を防ぐ方法は、大規模言語モデルの学習データや評価方法を改善することです。例えば、以下のような方法があります。
・学習データに含まれる誤りや偏りを検出して修正する。
・学習データに多様なジャンルやドメインのテキストを含める。
・評価方法に人間のフィードバックや外部知識を利用する。

https://maruyama097.blogspot.com/2023/05/blog-post.html





posted by 3chan at 13:54| (カテゴリなし)
Build a Mobile Site
スマートフォン版を閲覧 | PC版を閲覧
Share by: