阿里巴巴、智源研究院、清华大学联合发布全新AI模型,可赋予AI认知能力

  1 月 12 日,阿里巴巴、智源研究院、清华大学等联合研究团队发布面向认知的超大规模新型预训练模型“文汇”。该模型不仅能提升 AI 的理解能力,还可基于常识实现 AI 创作,未来将应用于文本理解、人机交互、视觉问答等场景。

  与传统 AI 训练需要人工标注数据不同,面向认知的预训练语言模型提供了一种全新的学习思路,即 AI 首先自动学习大量语言文字和图像数据,记忆和理解其中的信息以及人类语言表述的规律后,再进一步学习专业领域知识,从而让 AI 同时掌握常识和专业知识。

  此次发布的“文汇”是目前国内规模最大的预训练模型,参数量级达 113 亿,采用阿里自研的统一多种并行策略的高性能分布式框架,使用模型并行、流水并行、数据并行训练进行分布式训练。“文汇”突破了多模态理解与多模态生成两大难题,可轻松理解文本图像信息,并能完成创造性任务。例如,仅需输入诗歌题目、朝代以及作者,“文汇”即可自动生成仿古诗词。目前,“文汇”已支持基于认知推理的多种自然语言及跨模态应用任务,部分应用即将上线。

模型可根据诗歌题目、朝代以及作者自动生成诗歌

  达摩院 2020 十大科技趋势曾提到:AI 已经在“听、说、看”等感知智能领域达到或超越了人类水准,但其逻辑推理能力依旧处于初级阶段,多模态预训练模型是实现感知智能向认知智能跨越的关键基础。达摩院智能计算实验室负责人周靖人表示,“预训练语言模型是过去 70 多年以来最具创新的自然语言模型之一,其模型设计难度也远高于传统模型,达摩院研究团队将持续攻克算法及系统工程难题,加速人工智能走向认知智能。”

  作为国内最早投入认知智能研究的科技公司之一,阿里巴巴已有 30 多个研究成果被国际顶级会议收录,获得世界人工智能大会最高奖项—SAIL 奖,与清华大学联合获得国家科学技术进步奖二等奖,旗下图神经网络框架 Graph Learn 已面向全球开源,可减少模型的算力、存储资源消耗,同时缩短算法开发上线周期。

共有 0 条评论

Top