关闭
您当前的位置:首页 > 伙乘资讯 > 20AI大模型

Wu Dao 1:北京人工智能研究院发布了中国首个大规模预训练模型系统“无道1.0”,包含了多个具有超强处理能力和性能的模型,可应用于自然语言处理和图形处理等领域

来源:伙乘AI 时间:2024-08-07 作者:伙乘AI 浏览量:

image.png


Wu Dao 1:China’s GPT-3? BAAI Introduces Superscale Intelligence Model ‘Wu Dao 1.0’ | Synced (syncedreview.com)


北京人工智能研究院(BAAI)最近发布了中国首个大规模预训练模型系统“无道1.0”。这个超大规模智能模型系统由BAAI研究学术副院长、清华大学教授唐杰领导,来自北京大学、清华大学、中国人民大学、中国科学院等机构的100多名人工智能科学家共同参与了研发工作。无道1.0包含了四个相关模型:无道-文源、无道-文澜、无道-文汇和无道-文速。


Wu Dao 1有哪些功能?

1. 无道-文源是中国迄今为止最大规模的预训练语言模型,具有处理主流语言(包括中文和英文)的最佳性能。它在文本分类、情感分析、自然语言推理、阅读理解等方面超过了人类平均水平。

2. 无道-文澜是中国首个公开可用的通用图形多模态预训练模型。该超大规模多模态预训练模型旨在突破基于图形、文本和视频的多模态数据预训练的理论挑战,并最终生成超过SOTA性能的工业级中文图形预训练模型和应用。

3. 无道-文汇是一个超大规模的以认知为导向的预训练模型,从认知的角度关注通用人工智能中的一系列基本问题,旨在开发和增强预训练模型的逻辑、意识和推理能力。

4. 无道-文速是一个超大规模的多模态预训练模型,旨在通过结合图形、文本和视频的方式,预训练多模态数据,并最终生成超过SOTA性能的中文图形预训练模型和应用。


产品特点:

1. 无道1.0是中国首个大规模预训练模型系统,具有超强的处理能力和性能。

2. 无道-文源在多项中文自然语言处理任务上达到了与GPT-3相媲美的性能。

3. 无道-文澜在图像描述和视觉推理任务上超过了目前最流行的模型,并在中文公共多模态测试集AIC-ICC上取得了SOTA性能。

4. 无道-文汇专注于从认知角度解决通用人工智能中的关键问题,为预训练模型的认知能力提供了强大支持。


应用场景:

1. 无道1.0可应用于各种自然语言处理任务,如文本分类、情感分析、阅读理解等。

2. 无道-文澜可用于图像描述、视觉推理等图形处理任务。

3. 无道-文汇可用于通用人工智能领域的认知问题研究和解决。

Wu Dao 1如何使用?

详细使用方式请参考官方文档和示例代码。


1.jpg

微信扫一扫分享资讯

相关推荐
暂无相关推荐
热门话题
推荐文章