プロフィール
<< 2024年12月 >>
1
2 3 4 5 6 7
8
9 10 11 12 13 14
22
23 24 25 26 27 28
29
30 31
リンク集
カテゴリアーカイブ
月別アーカイブ
2024年12月 (23)
2024年11月 (59)
2024年10月 (64)
2024年09月 (62)
2024年08月 (71)
2024年07月 (61)
2024年06月 (67)
2024年05月 (71)
2024年04月 (72)
2024年03月 (61)
2024年02月 (63)
2024年01月 (73)
2023年12月 (33)
2023年11月 (43)
2023年10月 (30)
2023年09月 (33)
2023年08月 (48)
2023年07月 (52)
2023年06月 (67)
2023年05月 (72)
2023年04月 (80)
2023年03月 (108)
2023年02月 (63)
2023年01月 (17)
2022年12月 (14)
2022年11月 (24)
2022年10月 (43)
2022年09月 (33)
2022年08月 (44)
2022年07月 (15)
2022年06月 (6)
2021年12月 (1)
2021年11月 (49)
2021年10月 (60)
2021年09月 (54)
2021年08月 (54)
2021年07月 (56)
2021年06月 (50)
2021年05月 (62)
2021年04月 (44)
2021年03月 (53)
2021年02月 (48)
2021年01月 (60)
2020年12月 (51)
2020年11月 (61)
2020年10月 (54)
2020年09月 (54)
2020年08月 (60)
2020年07月 (49)
2020年06月 (48)
2020年05月 (61)
2020年04月 (48)
2020年03月 (58)
2020年02月 (31)
2020年01月 (55)
2019年12月 (54)
2019年11月 (53)
2019年10月 (54)
2019年09月 (60)
2019年08月 (54)
2019年07月 (49)
2019年06月 (63)
2019年05月 (52)
2019年04月 (55)
2019年03月 (61)
2019年02月 (49)
2019年01月 (54)
2018年12月 (50)
2018年11月 (52)
2018年10月 (55)
2018年09月 (65)
2018年08月 (48)
2018年07月 (55)
2018年06月 (56)
2018年05月 (50)
2018年04月 (57)
2018年03月 (58)
2018年02月 (51)
2018年01月 (64)
2017年12月 (53)
2017年11月 (56)
2017年10月 (61)
2017年09月 (59)
2017年08月 (65)
2017年07月 (84)
2017年06月 (57)
2017年05月 (69)
2017年04月 (76)
2017年03月 (69)
2017年02月 (72)
2017年01月 (212)
2016年12月 (236)
2016年11月 (166)
2016年10月 (239)
2016年09月 (365)
2016年08月 (222)
2016年07月 (82)
2016年06月 (56)
2016年05月 (71)
2016年04月 (69)
最新記事

2023年03月30日

進歩速すぎ…スマホだけで動く軽量LLMがたった3週間で爆誕

ChatGPT

マサチューセッツ工科大学の学生が、オープンソースの70億パラメータの大規模言語モデル「Alpaca」がiPhone14でローカルで動作することを確認した。Alpacaはスタンフォード大学のコンピュータ科学者のグループが微調整したモデルであり、同様に一般人が基礎となるソースコードにアクセスすることで自分のハードウェアで画像生成モデルを実行できる「StableDiffusion」と比較された。Metaはオープンソースで公開された新しいLLM「LLaMA」を発表し、3日後にリリースされた微調整版の対話モデル「ChatLLaMA」は、人間によるフィードバックを用いた強化学習を採用し、学習時間がChatGPTより15倍速いと主張している。さらに、軽量版の「llama.cpp」がGitHubで公開され、LLaMA7Bのチューニング版「Alpaca7B」がリリースされた。これらのモデルは、OpenAIの"text-davinci-003"に似た挙動を示すが、より性能の低いハードウェアでも動作する。

Bing AIの説明

「Alpaca」とは、Metaの大規模言語モデル「LLaMA」の7Bモデルに微調整を行った、オープンソースでよりよい命令追従性を実現した大規模言語モデルです。先日、日本の研究者が「Alpaca」を使用して、GPT-3.5に匹敵するチャットAIを構築可能であることを発表しました。
「Alpaca」は、先に述べたように、Metaの大規模言語モデル「LLaMA」の7Bモデルに微調整を行ったものであり、オープンソースでありながら、より良い命令追従性を実現しています。また、低コストで生成された命令追従型の学習データを使用して学習しています。

https://www.axion.zone/ai-38/





posted by 3chan at 07:40| (カテゴリなし)
Build a Mobile Site
スマートフォン版を閲覧 | PC版を閲覧
Share by: