プロフィール
<< 2023年05月 >>
1 2 3 4 5 6
7 8 9 10 11 12 13
21 22 23 24 25 26 27
28 29 30 31
リンク集
カテゴリアーカイブ
月別アーカイブ
2024年12月 (23)
2024年11月 (59)
2024年10月 (64)
2024年09月 (62)
2024年08月 (71)
2024年07月 (61)
2024年06月 (67)
2024年05月 (71)
2024年04月 (72)
2024年03月 (61)
2024年02月 (63)
2024年01月 (73)
2023年12月 (33)
2023年11月 (43)
2023年10月 (30)
2023年09月 (33)
2023年08月 (48)
2023年07月 (52)
2023年06月 (67)
2023年05月 (72)
2023年04月 (80)
2023年03月 (108)
2023年02月 (63)
2023年01月 (17)
2022年12月 (14)
2022年11月 (24)
2022年10月 (43)
2022年09月 (33)
2022年08月 (44)
2022年07月 (15)
2022年06月 (6)
2021年12月 (1)
2021年11月 (49)
2021年10月 (60)
2021年09月 (54)
2021年08月 (54)
2021年07月 (56)
2021年06月 (50)
2021年05月 (62)
2021年04月 (44)
2021年03月 (53)
2021年02月 (48)
2021年01月 (60)
2020年12月 (51)
2020年11月 (61)
2020年10月 (54)
2020年09月 (54)
2020年08月 (60)
2020年07月 (49)
2020年06月 (48)
2020年05月 (61)
2020年04月 (48)
2020年03月 (58)
2020年02月 (31)
2020年01月 (55)
2019年12月 (54)
2019年11月 (53)
2019年10月 (54)
2019年09月 (60)
2019年08月 (54)
2019年07月 (49)
2019年06月 (63)
2019年05月 (52)
2019年04月 (55)
2019年03月 (61)
2019年02月 (49)
2019年01月 (54)
2018年12月 (50)
2018年11月 (52)
2018年10月 (55)
2018年09月 (65)
2018年08月 (48)
2018年07月 (55)
2018年06月 (56)
2018年05月 (50)
2018年04月 (57)
2018年03月 (58)
2018年02月 (51)
2018年01月 (64)
2017年12月 (53)
2017年11月 (56)
2017年10月 (61)
2017年09月 (59)
2017年08月 (65)
2017年07月 (84)
2017年06月 (57)
2017年05月 (69)
2017年04月 (76)
2017年03月 (69)
2017年02月 (72)
2017年01月 (212)
2016年12月 (236)
2016年11月 (166)
2016年10月 (239)
2016年09月 (365)
2016年08月 (222)
2016年07月 (82)
2016年06月 (56)
2016年05月 (71)
2016年04月 (69)
最新記事

2023年05月22日

悪意のある表現 -- 「禁止」される「偏見」

ChatGPT

今回のセッションでは、「GPT-4 System Card」の「2.4 Harms of representation, allocation, and quality of service」の章について取り上げます。この章では、直接的な悪意を持たないが偏見が透けて見えるコンテンツに焦点を当てています。言語モデルは社会的な偏見を増幅させる可能性があり、GPT-4もその一例です。OpenAIは、継続的な評価レビューにより、特定の偏見やステレオタイプを強化する可能性があることを発見しました。GPT-4は冗談を理解できるが、口にはしない考えとのずれがあります。受け答えは礼儀正しいですが、内面には偏見が蓄積している可能性があります。このAIの性格の悪さは生まれつきの問題ではなく、学習した人間の意識の反映だと考えられます。

Bing AIの説明

「2.4 Harms of representation, allocation, and quality of service」の章は、機械学習における公正性に関する問題について説明されています。具体的には、AIシステムが機会、リソース、情報を拡張または拒否する場合のAllocation harms、システムが一部の人にとって他の人よりもうまく機能しない場合のQuality-of-service harms、システムがステレオタイプを永続化する提案をする場合のStereotyping harms、システムがグループ(またはその作品)が存在しないかのように振る舞う場合のErasure harmsなどが挙げられています。

https://maruyama097.blogspot.com/2023/05/blog-post_21.html





posted by 3chan at 09:54| (カテゴリなし)

Ukraine war: Kyiv rejects Wagner claim over Bakhmut(ウクライナ戦争: キエフ、バフムートをめぐるワーグナーの主張を否定)

ChatGPT(英文で要約してから翻訳したもの)

ロシアとウクライナの戦争で、バフムート市は最も長く激しい戦闘が続いています。ロシアのプライベート軍事会社、ワグナーの創設者であるプリゴジン氏は、ワグナー傭兵部隊と共にバフムート市を占拠したと主張し、プーチン大統領も祝福しました。しかし、ウクライナの副国防大臣はその主張を否定し、市の状況を「危機的」と表現しました。戦闘は数ヶ月にわたり、バフムートは戦略的な価値は低いものの、多くの兵士が犠牲になっています。ウクライナも最長かつ最も血なまぐさい戦いに立ち向かっています。プーチン氏はロシア空軍の支援を受けたワグナー部隊がバフムートを「解放」したと述べましたが、ウクライナの副国防大臣は戦闘が続いており、一部の施設を制御していると述べました。戦闘では2万人から3万人のロシア兵が死傷し、ウクライナ軍も重い犠牲を払っています。バフムート市は壊滅し、住民は避難しています。ウクライナのゼレンスキー大統領はG7会議に参加し、同盟国からの支援とロシアへの制裁が約束されました。ウクライナは占領地の奪還の準備に時間を要しており、バフムートを「ウクライナの士気の砦」と位置付けています。ウクライナの希望は、バフムートでの戦いがロシアの攻勢能力を削ぎ、その軍と物資を使い果たすことです。

Bing AIの説明

「ウクライナ戦争: キエフ、バフムートをめぐるワーグナーの主張を否定」に関するニュースは以下の通りです。
NHKのニュース記事によると、ウクライナ東部のバフムートに対して続くロシア軍の攻撃に対し、ウクライナ軍が数キロの場所を奪還したとされます。一方、BBCのニュース記事によると、ロシアの雇い兵組織「ワグネル」の代表が、ウクライナ東部バフムート市を6月1日までにロシア軍に引き渡すと表明したと報じられています。

https://www.bbc.com/news/world-europe-65657621





posted by 3chan at 09:52| (カテゴリなし)

有害コンテンツ(丸山先生のBlog)

ChatGPT

GPT-4 System Cardの「有害コンテンツ」の章では、言語モデルがさまざまな種類の有害なコンテンツを生成することができることが述べられています。具体的には、ヘイトスピーチ、差別的な言葉、暴力の扇動、偽りの物語の拡散などが含まれます。OpenAIの「レッド・チーム」は、GPT-4-earlyを操作して有害なコンテンツを生成できることを示しました。スライドでは、有害コンテンツを生成するプロンプトとその出力結果が紹介されています。また、GPT-4でも人種差別的な発言が生成されることがわかっています。関心のある方は、ショートムービーや資料、ブログなどのリンクを参照してください。

Bing AIの説明

GPT-4 System Cardの「有害コンテンツ」の章にGPT-4は、攻撃計画に関するアドバイスやヘイトスピーチなど、潜在的に有害なコンテンツを生成する可能性があることが報告されています。そのため、GPT-4では、社会や個人にとって有害な回答を生成し得る質問に対しては回答を拒否するように、追加学習が行われています。
GPT-4 System Cardは、OpenAIによって開発された言語モデルの一つで、GPT-4を分析するシステムカードです。GPT-4は、攻撃計画に関するアドバイスやヘイトスピーチなど、潜在的に有害なコンテンツを生成する可能性があることが報告されています。GPT-4 System Cardは、GPT-4の安全性に関する問題を分析し、安全性プロセスの概要を説明しています。

https://maruyama097.blogspot.com/2023/05/blog-post_20.html





posted by 3chan at 09:49| (カテゴリなし)

How the US helping Ukraine acquire F-16s shows that for military aid, ‘no’ can become ‘yes’(ウクライナにF-16を供与する米国が示す、軍事援助のための「ノー」が「イエス」になりうる理由とは?)

ChatGPT(英文で要約した後翻訳)

アメリカは、ヨーロッパの同盟国とウクライナの指導者たちの圧力に屈し、より高度な兵器を供与することに同意しました。今回はF-16戦闘機に焦点が当てられています。ウクライナはロシアの侵攻に対抗する中で、長い間、この高度な戦闘機を求めてきました。この新たな計画により、複数の国が第4世代の航空機を提供し、アメリカがパイロットの訓練を支援することが可能になります。具体的な提供時期や数量、提供国に関する詳細はまだ明らかにされていません。訓練に関する詳細も不明です。アメリカ政府関係者は、まだ公表されていない決定について匿名で話しました。ウクライナはF-16戦闘機を求める理由と、アメリカがこれを提供することに消極的だった理由についても見ていきましょう。

Bing AIの説明

ウクライナにF-16を供与に関してのニュースは、以下のようになっています。
・BBC アメリカは、F-16戦闘機など米国製の新型戦闘機を他国がウクライナに提供するのを容認する方針を示しました。
・FNN F-16をウクライナに供与する可能性のある4カ国は、ベルギー、オランダ、ポーランド、ルーマニアです。
・sputniknews アメリカが戦闘機「F-16」を供与するのには、今から始めても1年半を要すると、米国防総省は述べました。
・Yahoo ウクライナにF-16戦闘機を供与することは、ロシアとの緊張緩和につながると期待されています。
・NHK しかし、ロシアは、F-16戦闘機の供与はウクライナの安全保障に寄与しないと批判しました。

https://apnews.com/article/ukraine-russia-war-f16-biden-a281e3cd1474b2e6f453946075824565

[商品価格に関しましては、リンクが作成された時点と現時点で情報が変更されている場合がございます。]

もっとわかるロシア・ウクライナ戦争 [ 藤村純佳 ]
価格:3,600円(税込、送料無料) (2023/5/26時点)






posted by 3chan at 09:48| (カテゴリなし)

Syria’s Assad arrives in Saudi Arabia in first visit since war(シリアのアサド大統領、サウジアラビアに到着 戦後初の訪問となる)

ChatGPT(英文で要約した後翻訳)

シリアのバッシャール・アル=アサド大統領がサウジアラビアのジッダ港に到着し、シリアはアラブ連盟に復帰しました。アル=アサド大統領はアラブ連盟首脳会議に参加し、シリアとサウジアラビアの関係が改善されています。アル=アサド大統領は2011年からの弾圧と内戦のために孤立していましたが、多くのアラブ諸国が関係回復に努めています。ロシアとイランの支援を受けてアル=アサド大統領の軍隊はシリアの大部分を制圧しました。シリアとサウジアラビアの関係は長い間不安定でしたが、最近両国は大使館の再開に合意しました。サウジアラビアとイランの関係改善は中東諸国にポジティブな影響を与えることが期待されています。

Bing AIの説明

シリアとサウジアラビアの関係についてのニュースは、以下のようになっています。
・Yahoo サウジアラビアは、2011年にシリアで起きた「アラブの春」に対する政府の弾圧を非難し、シリアと断交しました。
・NHK サウジアラビアは、今年3月にシリアと領事サービスの再開に向けて協議を始めました。
・NHK シリアの外相は、4月にサウジアラビアの外相と会談し、両国関係の改善を示す形になりました。
・BBC、NHK シリアのアサド大統領は、5月にサウジアラビアで開かれたアラブ連盟の首脳会議に12年ぶりに出席し、地域立て直しの一環として復帰が認められました。
・NHK、読売 しかし、シリアの人権侵害やイランとの関係などを問題視する国もあり、関係改善に慎重な姿勢を示す国もあります。

https://www.aljazeera.com/news/2023/5/18/syrias-assad-arrives-in-saudi-arabia-in-first-visit-since-war





posted by 3chan at 09:46| (カテゴリなし)

偽情報と影響力操作(丸山先生のBlog)

ChatGPT

「Cambridge Analytica事件」とは、Facebookユーザーデータが不適切に取得・使用された問題であり、大量の個人情報が政治広告に利用されたことが明らかになりました。この事件は世界的な懸念を引き起こし、個人データのプライバシーと使用方法について広範な議論が巻き起こりました。さらに、この問題が大規模言語モデルにおいて再び現れる可能性があると指摘されています。Facebookは「偽情報」の検出に取り組む技術的課題に取り組んでおり、OpenAIの研究者も大規模言語モデルが情報操作に悪用される可能性について調査を行っています。この事件はデータ管理の規制強化を促し、個人データのプライバシーと民主主義のプロセスに与える影響についての関心を高めました。

Bing AIの説明

大規模な言語モデルとは、大規模なテキストデータを事前に学習し、さまざまな言語処理タスクを実行できる言語モデルのことです。情報操作とは、人々の意見や行動を変えるために、情報を偽ったり、歪めたり、隠したりすることです。大規模な言語モデルは、情報操作に使われる可能性があります。例えば、
・嘘やデマを含む文章を生成したり、
・人間の書いた文章と区別がつかないレベルで文章を生成したり、
・人間の感情や信頼を損なうような文章を生成したりすることができます。
ジョージタウン大学のCenter for Security and Emerging TechnologyおよびStanford Internet Observatoryは、大規模な言語モデルが情報操作に与える影響やリスクについて研究しています 。彼らは、大規模な言語モデルの開発や利用に関する倫理的なガイドラインや規制の必要性を主張しています。

https://maruyama097.blogspot.com/2023/05/blog-post_19.html





posted by 3chan at 09:41| (カテゴリなし)

2023年05月19日

【 幻覚の病理学 】(丸山先生のBlog)

ChatGPT

大規模言語モデルの「幻覚 Hallucination」という問題について、本論文のIntroductionでは詳しく説明されています。System Cardは、「幻覚 Hallucination」という言葉を使用することについて注釈をつけており、擬人化の可能性や誤ったメンタルモデルの形成につながる可能性に言及しています。幻覚はモデルがより真実味を帯びるにつれてより危険になる可能性があり、大規模言語モデルにおける社会的な病理現象を引き起こす危険性が指摘されています。また、幻覚症状は単なる「個人的(?)」病理ではなく、社会的な病理現象を引き起こす可能性があると述べられています。これまでも大規模言語モデルに幻覚が存在することは知られており、この論文では抽象的な文書要約におけるモデルの限界や幻覚の種類について分析されました。System Cardでは幻覚症状が二つのタイプに分類されており、OpenAIは成果を誇示するのではなく、幻覚が引き起こす可能性のある社会的な病理現象を議論しています。

Bing AIの説明

大規模言語モデルの「幻覚(hallucination)」とは、事実とは異なる情報を事実のように語ることです。例えば、GPT-4が「日本の首都は大阪である」と生成する場合、それは幻覚と呼ばれます。大規模言語モデルは、学習したテキストコーパスに含まれる誤りや偏りを反映することがあります。
幻覚を防ぐ方法は、大規模言語モデルの学習データや評価方法を改善することです。例えば、以下のような方法があります。
・学習データに含まれる誤りや偏りを検出して修正する。
・学習データに多様なジャンルやドメインのテキストを含める。
・評価方法に人間のフィードバックや外部知識を利用する。

https://maruyama097.blogspot.com/2023/05/blog-post.html





posted by 3chan at 13:54| (カテゴリなし)

【 レッド・チーム、RBRM、ジェイルブレイク 】(丸山先生のBlog)

ChatGPT

OpenAIは、GPT-4の安全性向上のためにさまざまな取り組みを行っています。GPT-4に対して危険性を引き出すテストを行う「レッド・チーム」の存在や、人間のフィードバックを用いた強化学習の適用などが紹介されています。また、「RBRM」というモデルも採用されており、有害な出力を拒否し報酬を得る仕組みが取り入れられています。これらの取り組みは、GPT-4の安全性を高めるための社会的規範の教え込みに似ており、システムの複雑さや開発コストの増加という課題も存在します。しかし、競争が激化する中で防壁をすり抜ける可能性や、ジェイルブレークと呼ばれる手法の問題も指摘されています。これらの取り組みは重要ですが、難易度も高い課題であることが明示されています。

Bing AIの説明

OpenAIのレッド・チームとは、**大規模言語モデル(LLM)**のリスクをテストするために雇われた専門家のグループです。LLMとは、人間の言語を理解し、生成することができる人工知能のシステムです。OpenAIは、マイクロソフトが支援する人工知能の研究機関で、GPT-4という最新のLLMを開発しています。
レッド・チームのメンバーは、GPT-4が悪用されたり、誤った情報を流したりする可能性があるかどうかを調べるために、さまざまな質問や要求をGPT-4に投げかけました。レッド・チームの目的は、GPT-4の弱点や危険性を発見し、改善する方法を提案することです。
RBRMは、人間の評価者がGPT-4の複数の候補出力をランク付けすることで、ランク付けを行います。例えば、ユーザーが「ジョークを教えて」と言ったとき、GPT-4が生成した5つのジョークを評価者が最も面白いものから最もつまらないものまで順に並べます。その結果、最も面白いジョークには最も高い報酬信号が与えられ、最もつまらないジョークには最も低い報酬信号が与えられます。
ジェイルブレイクとは、スマートフォンやゲーム機などの情報機器で、開発元がソフトウェアの実行環境に施している制限を非正規な方法で撤廃し、自由にソフトウェアを導入・実行できるようにすることです。例えば、iPhoneでは、Appleが認証したアプリしかインストールできませんが、ジェイルブレイクすると、Appleが認証していないアプリもインストールできるようになります。
ジェイルブレイクにはメリットもありますが、デメリットも多くあります。例えば、セキュリティや保証が失われたり、動作が不安定になったりする可能性があります3。ジェイルブレイクは自己責任で行う必要があります。

https://maruyama097.blogspot.com/2023/05/risks-mitigations.html





posted by 3chan at 12:37| (カテゴリなし)

ハリケーンでも無傷 全米が大注目するフロリダ州の“持続可能な町” 電力自給や電線地中化など数々の災害に強い秘密が…【news23】

ChatGPT

アメリカの町「バブコックランチ」は、ハリケーンが通過しても停電や洪水が起きなかった特殊な街です。この街は、野鳥の生息地や湖の広大な敷地に開発され、太陽光発電や電気自動車の充電ステーションを備え、蓄電池を使用しています。さらに、地中に配線されており、風で切れる心配もありません。バブコックランチでは巨大な蓄電池が設置され、湿地帯が洪水を防ぐ役割を果たしています。その結果、ハリケーンの際にも安全で持続可能な町として評価され、全米で人気の住宅街となっています。これは災害に強い町の証明であり、2050年までに実用化を目指してさまざまな実証実験が予定されています。

Bing AIの説明

バブコックランチは、フロリダ州の南東部にある計画都市です。約17,000エーカー(6,900ヘクタール)の土地に広がっています。この都市は、フロリダ州や地方政府とのパブリック・プライベート・パートナーシップの一環として承認されました。
バブコックランチの特徴は、アメリカ初の太陽光発電の町であることです。この町は、持続可能性や再生可能エネルギーに取り組んでおり、太陽光パネルや電気自動車などを利用しています。

https://nordot.app/1031027099422130506?c=388701204576175201





posted by 3chan at 12:32| (カテゴリなし)

「GPT-4より強いAI」を開発しないで——マスク氏ら“異例のお願い”の中身とは

ChatGPT

非営利団体Future of Life Instituteは、AI技術のリスク軽減を目指し、AIモデル開発の一時停止と政府によるAI技術の規制強化を求める公開書簡を発表しました。書簡では、「GPT-4」よりも強力なAIモデルの開発を中止すべきだと主張しており、イーロン・マスク氏を含む著名人も賛同しています。この規制はAI技術のリスク管理と社会への責任を重視するためのものであり、具体的な規制内容については明確にされていません。

Bing AIの説明

Future of Life Institute(FLI)は、人類にとってのグローバルな危機的・存在的リスクを軽減することを目的とした非営利団体です。特に、高度な人工知能(AI)からの存在的リスクに注目しています。
FLIは、AI技術のリスク軽減のために、以下のような提言を行っています。
・AIの研究開発において、倫理的・社会的・法的な観点を考慮すること。
・AIの安全性や信頼性を確保するための基準や枠組みを策定すること。
・AIの利益や影響を公平かつ透明に分配すること。
・AIの目的や価値が人類のものと一致するようにすること。

https://techtarget.itmedia.co.jp/tt/news/2305/16/news11.html#_ga=2.121974283.1206460241.1684466925-781608190.1676247776





posted by 3chan at 12:28| (カテゴリなし)
Build a Mobile Site
スマートフォン版を閲覧 | PC版を閲覧
Share by: