菜单
(资料图)
《科创板日报》17日讯,谷歌日前发布最新通用大语言模型PaLM2。据CNBC获取的一份内部文件显示,该模型采用3.6万亿个token数据进行训练。至于去年发布的前一版本PaLM,当时其训练数据约7800亿个token,是最新一代的1/5左右。
X 关闭
Copyright © 2015-2023 华夏字画网版权所有 备案号:琼ICP备2022009675号-37 联系邮箱:435 227 67@qq.com