关闭
您当前的位置:首页 > 伙乘资讯 > 20AI大模型

乾元BigBangTransformer:超对称开源了一系列基于GPT Decoder-only架构的大规模预训练模型,包括BBT-1-1B、BBT-2-12B-Text和BBT-2.5-13B-Text,可用于回答百科类和日常生活问题,以及金融领域的问答和文本

来源:伙乘AI 时间:2024-02-28 作者:伙乘AI 浏览量:

超对称(北京)科技有限公司开源了一系列基于GPT Decoder-only架构的大规模预训练模型,包括BBT-1-1B、BBT-2-12B-Text和BBT-2.5-13B-Text。这些模型覆盖了14个高质量数据源,包括书籍、百科、论文、小说、新闻、政策文件、中文博客和社交媒体等多个数据源种类。


乾元BigBangTransformer有哪些功能?

1. 可以直接调用大模型进行对话;

2. 在基础模型的基础上使用自由语料库继续训练;

3. 对大模型进行微调训练以满足各种下游任务。


应用场景:

1. 回答百科类和日常生活问题;

2. 金融领域的问答和文本生成;

3. 自然语言处理任务的预训练和微调。


乾元BigBangTransformer如何使用?

开发者可以直接调用大模型进行对话,也可以在基础模型的基础上使用自由语料库继续训练,或对大模型进行微调训练以满足各种下游任务。


乾元BigBangTransformer:https://bbt.ssymmetry.com/


1709111530207.png

微信扫一扫分享资讯

相关推荐
暂无相关推荐
热门话题
推荐文章