プロフィール
<< 2024年12月 >>
1
2 3 4 5 6 7
8
9 10 11 12 13 14
22
23 24 25 26 27 28
29
30 31
リンク集
カテゴリアーカイブ
月別アーカイブ
2024年12月 (23)
2024年11月 (59)
2024年10月 (64)
2024年09月 (62)
2024年08月 (71)
2024年07月 (61)
2024年06月 (67)
2024年05月 (71)
2024年04月 (72)
2024年03月 (61)
2024年02月 (63)
2024年01月 (73)
2023年12月 (33)
2023年11月 (43)
2023年10月 (30)
2023年09月 (33)
2023年08月 (48)
2023年07月 (52)
2023年06月 (67)
2023年05月 (72)
2023年04月 (80)
2023年03月 (108)
2023年02月 (63)
2023年01月 (17)
2022年12月 (14)
2022年11月 (24)
2022年10月 (43)
2022年09月 (33)
2022年08月 (44)
2022年07月 (15)
2022年06月 (6)
2021年12月 (1)
2021年11月 (49)
2021年10月 (60)
2021年09月 (54)
2021年08月 (54)
2021年07月 (56)
2021年06月 (50)
2021年05月 (62)
2021年04月 (44)
2021年03月 (53)
2021年02月 (48)
2021年01月 (60)
2020年12月 (51)
2020年11月 (61)
2020年10月 (54)
2020年09月 (54)
2020年08月 (60)
2020年07月 (49)
2020年06月 (48)
2020年05月 (61)
2020年04月 (48)
2020年03月 (58)
2020年02月 (31)
2020年01月 (55)
2019年12月 (54)
2019年11月 (53)
2019年10月 (54)
2019年09月 (60)
2019年08月 (54)
2019年07月 (49)
2019年06月 (63)
2019年05月 (52)
2019年04月 (55)
2019年03月 (61)
2019年02月 (49)
2019年01月 (54)
2018年12月 (50)
2018年11月 (52)
2018年10月 (55)
2018年09月 (65)
2018年08月 (48)
2018年07月 (55)
2018年06月 (56)
2018年05月 (50)
2018年04月 (57)
2018年03月 (58)
2018年02月 (51)
2018年01月 (64)
2017年12月 (53)
2017年11月 (56)
2017年10月 (61)
2017年09月 (59)
2017年08月 (65)
2017年07月 (84)
2017年06月 (57)
2017年05月 (69)
2017年04月 (76)
2017年03月 (69)
2017年02月 (72)
2017年01月 (212)
2016年12月 (236)
2016年11月 (166)
2016年10月 (239)
2016年09月 (365)
2016年08月 (222)
2016年07月 (82)
2016年06月 (56)
2016年05月 (71)
2016年04月 (69)
最新記事

2023年05月22日

偽情報と影響力操作(丸山先生のBlog)

ChatGPT

「Cambridge Analytica事件」とは、Facebookユーザーデータが不適切に取得・使用された問題であり、大量の個人情報が政治広告に利用されたことが明らかになりました。この事件は世界的な懸念を引き起こし、個人データのプライバシーと使用方法について広範な議論が巻き起こりました。さらに、この問題が大規模言語モデルにおいて再び現れる可能性があると指摘されています。Facebookは「偽情報」の検出に取り組む技術的課題に取り組んでおり、OpenAIの研究者も大規模言語モデルが情報操作に悪用される可能性について調査を行っています。この事件はデータ管理の規制強化を促し、個人データのプライバシーと民主主義のプロセスに与える影響についての関心を高めました。

Bing AIの説明

大規模な言語モデルとは、大規模なテキストデータを事前に学習し、さまざまな言語処理タスクを実行できる言語モデルのことです。情報操作とは、人々の意見や行動を変えるために、情報を偽ったり、歪めたり、隠したりすることです。大規模な言語モデルは、情報操作に使われる可能性があります。例えば、
・嘘やデマを含む文章を生成したり、
・人間の書いた文章と区別がつかないレベルで文章を生成したり、
・人間の感情や信頼を損なうような文章を生成したりすることができます。
ジョージタウン大学のCenter for Security and Emerging TechnologyおよびStanford Internet Observatoryは、大規模な言語モデルが情報操作に与える影響やリスクについて研究しています 。彼らは、大規模な言語モデルの開発や利用に関する倫理的なガイドラインや規制の必要性を主張しています。

https://maruyama097.blogspot.com/2023/05/blog-post_19.html





posted by 3chan at 09:41| (カテゴリなし)
Build a Mobile Site
スマートフォン版を閲覧 | PC版を閲覧
Share by: