プロフィール
<< 2024年12月 >>
1
2 3 4 5 6 7
8
9 10 11 12 13 14
22
23 24 25 26 27 28
29
30 31
リンク集
カテゴリアーカイブ
月別アーカイブ
2024年12月 (23)
2024年11月 (59)
2024年10月 (64)
2024年09月 (62)
2024年08月 (71)
2024年07月 (61)
2024年06月 (67)
2024年05月 (71)
2024年04月 (72)
2024年03月 (61)
2024年02月 (63)
2024年01月 (73)
2023年12月 (33)
2023年11月 (43)
2023年10月 (30)
2023年09月 (33)
2023年08月 (48)
2023年07月 (52)
2023年06月 (67)
2023年05月 (72)
2023年04月 (80)
2023年03月 (108)
2023年02月 (63)
2023年01月 (17)
2022年12月 (14)
2022年11月 (24)
2022年10月 (43)
2022年09月 (33)
2022年08月 (44)
2022年07月 (15)
2022年06月 (6)
2021年12月 (1)
2021年11月 (49)
2021年10月 (60)
2021年09月 (54)
2021年08月 (54)
2021年07月 (56)
2021年06月 (50)
2021年05月 (62)
2021年04月 (44)
2021年03月 (53)
2021年02月 (48)
2021年01月 (60)
2020年12月 (51)
2020年11月 (61)
2020年10月 (54)
2020年09月 (54)
2020年08月 (60)
2020年07月 (49)
2020年06月 (48)
2020年05月 (61)
2020年04月 (48)
2020年03月 (58)
2020年02月 (31)
2020年01月 (55)
2019年12月 (54)
2019年11月 (53)
2019年10月 (54)
2019年09月 (60)
2019年08月 (54)
2019年07月 (49)
2019年06月 (63)
2019年05月 (52)
2019年04月 (55)
2019年03月 (61)
2019年02月 (49)
2019年01月 (54)
2018年12月 (50)
2018年11月 (52)
2018年10月 (55)
2018年09月 (65)
2018年08月 (48)
2018年07月 (55)
2018年06月 (56)
2018年05月 (50)
2018年04月 (57)
2018年03月 (58)
2018年02月 (51)
2018年01月 (64)
2017年12月 (53)
2017年11月 (56)
2017年10月 (61)
2017年09月 (59)
2017年08月 (65)
2017年07月 (84)
2017年06月 (57)
2017年05月 (69)
2017年04月 (76)
2017年03月 (69)
2017年02月 (72)
2017年01月 (212)
2016年12月 (236)
2016年11月 (166)
2016年10月 (239)
2016年09月 (365)
2016年08月 (222)
2016年07月 (82)
2016年06月 (56)
2016年05月 (71)
2016年04月 (69)
最新記事

2023年03月30日

オープンソースでGPTベースの大規模言語モデル「Cerebras-GPT」7種類が一気に誰でもダウンロード可能に

ChatGPT

AI企業のCerebrasが、大規模言語モデル「Cerebras-GPT」をオープンソースで公開しました。このモデルは、OpenAIのGPT-3をベースに、DeepMindのChinchilla方式で学習したものであり、どのモデルよりも短い学習時間、低い学習コスト、そして少ない消費電力を特徴としています。Cerebras-GPTは、7種類のモデルがあり、パラメータ数は1億1100万から130億です。Cerebrasは、各モデルサイズに最適な学習トークンを使用し、単位計算量あたりのデータ損失を最小限に抑えることに成功しています。また、Cerebras-GPTは下流タスクでも高い学習効率を維持し、グラフによれば、他のモデルよりも優れた性能を発揮していることが示されています。

Bing AIの説明

Cerebras-GPTは、Cerebras社が開発した大規模言語モデルで、OpenAIのGPT-3をベースに、DeepMindが2022年3月にリリースしたChinchilla方式で学習したモデルです。Cerebras-GPTは、最先端の学習効率を持つ初の公開大規模GPTモデル群として、効率的な学習のためのレシピとして、またさらなるコミュニティ研究のための参考資料として役立つことを期待されています。
Cerebras-GPTは、Cerebrasが抱えるAIスーパーコンピューターの Andromeda の一部であるCS-2システムで数週間で学習が行われているとのことです。Cerebras-GPTは、7つのGPT-3モデルを111百万から130億パラメータに拡張し、精度と計算効率において新しい基準を設定しました。
Chinchilla方式とは、DeepMindが2022年3月にリリースした、GPT-3の学習に使用された方法です。Chinchilla方式は、学習データとモデルサイズを均等にスケーリングすることで、最適な学習を行うことができることが示されています。Cerebras-GPTは、Chinchilla方式で学習されたモデルの一つです

https://gigazine.net/news/20230329-cerebras-gpt/





posted by 3chan at 07:38| (カテゴリなし)
Build a Mobile Site
スマートフォン版を閲覧 | PC版を閲覧
Share by: