搜索结果: 1-5 共查到“人工智能 NeurIPS”相关记录5条 . 查询时间(0.031 秒)
ransformer架构以及自注意力机制显著提升了大模型性能,但却引入了随序列长度的二次方计算复杂度。各种线性复杂度模型,如线性Transformer(LinFormer),状态空间模型(SSM)和线性RNN(LinRNN)等,被提出作为自注意力的高效替代。在本工作中,我们首先在形式上统一了目前所有的线性模型,并总结了其自特点。接着,提出了最优线性注意力设计的三个必要条件:动态记忆能力;静态逼近能...
2021年9月29日,中国计算机学会(CCF)推荐的A类国际学术会议NeurIPS2021论文接收结果公布。中国人民大学高瓴人工智能学院师生有6篇论文被录用(2篇为spotlight)。神经信息处理系统大会(Neural Information Processing Systems,简称NeurIPS)由 NeurIPS 基金会主办,是机器学习和计算神经科学领域的顶级国际会议。NeurIPS202...
近日,中国人民大学高瓴人工智能学院师生2篇论文被国际学术会议NeurIPS(2020)录用。第34届神经信息处理系统会议(Thirty-fourth Conference on Neural Information Processing Systems)将于2020年12月6日-12月12日在线上召开。 NeurIPS是CCF推荐的A类国际学术会议,是机器学习和计算神经科学领域顶级学术会议之一。本...