您的当前位置:首页>全民健身 > 正文

微软打造 13 亿参数小型 LLM AI模型,效果胜于千亿参数 GPT-3.5

  • 2023-06-27 09:56:01 来源:IT之家


(相关资料图)

IT之家 6 月 27 日消息,AI 模型盲堆体积实际上效果并不见得更好,更多要看训练数据的质量,微软日前最近发布了一款 13 亿参数的语言模型 phi-1,采用“教科书等级”的高品质资料集训练而成,据称“实际效果胜于千亿参数的 GPT 3.5”。

▲ 图源 Arxiv

IT之家注意到,该模型以 Transformer 架构为基础,微软团队使用了包括来自网络的“教科书等级”数据和以 GPT-3.5 经过处理的“逻辑严密的内容”,以及 8 个英伟达 A100 GPU,在短短 4 天内完成训练。

▲ 图源 Arxiv

微软团队表示,比起增加模型的参数量,通过提高模型的训练数据集质量,也许更能强化模型的准确率和效率,于是,他们利用高质量数据训练出了 phi-1 模型。在测试中,phi-1 的分数达到 50.6%,比起 1750 亿参数的 GPT-3.5(47%)还要好。

▲ 图源 Arxiv

微软表示,phi-1 接下来会在 HuggingFace 中开源,而这不是微软第一次开发小型 LLM,此前,他们打造一款 130 亿参数的 Orca,使用了 GPT-4 合成的数据训练而成,表现也同样比 ChatGPT 更好。

目前关于 phi-1 的论文已经在 arXiv 中发布,可以在这里找到论文的相关内容。

标签:

推荐阅读

微软打造 13 亿参数小型 LLM AI模型,效果胜于千亿参数 GPT-3.5

IT之家6月27日消息,AI模型盲堆体积实际上效果并不见得更好,更多要看

2023电竞赛事项目现状及产业发展空间

电子竞技首次成为亚运会正式竞赛项目并被记入国家奖牌榜,从比赛项目首

环球播报:“营”在佛山②|制造业尖子生佛山“辅修”现代服务业

南方财经全媒体记者梁施婷佛山报道时至今日,佛山已然成为具有全国影响

女篮亚洲杯中国队45分大胜黎巴嫩 全球信息

工人日报-中工网记者朱亚男北京时间6月26日下午,中国女篮89比44大胜黎

我市城建十大工程二季度项目集中开工 孙建年出席活动并宣布开工

6月26日上午,我市举行2023年城建十大工程二季度集中开工活动。市委书

猜您喜欢

【版权及免责声明】凡注明"转载来源"的作品,均转载自其它媒体,转载目的在于传递更多的信息,并不代表本网赞同其观点和对其真实性负责。亚洲体育网倡导尊重与保护知识产权,如发现本站文章存在内容、版权或其它问题,烦请联系。 联系方式:8 86 239 5@qq.com,我们将及时沟通与处理。

竞技体育