• 发文章

  • 发资料

  • 发帖

  • 提问

  • 发视频

创作活动
0
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
返回

电子发烧友 电子发烧友

  • 全文搜索
    • 全文搜索
    • 标题搜索
  • 全部时间
    • 全部时间
    • 1小时内
    • 1天内
    • 1周内
    • 1个月内
  • 默认排序
    • 默认排序
    • 按时间排序
大家还在搜
  • 微软亚洲研究院把Transformer深度提升到1000层

    本周论文包括尤洋团队FastFold上线,训练时间从11天压缩至67小时;微软亚洲研究院直接把 Transformer 深度提升到 1000 层等研究

    2022-03-24 14:22

  • 美国国家标准技术研究院将采用非接触式光学仪器来检测MEMS的结构

    美国国家标准技术研究院把非接触式光学测量仪器连接在一个基于互联网的MEMS计算器上。利用简单有效的光学干涉仪。这个方法使得工程师在光学干涉仪中插入测量值,从而确定其标准的机械性能。

    2019-04-04 13:44

  • 奇虎360团队与人工智能研究院联合开发了深度学习调度平台XLearning

    资源利用率,节省硬件投入成本,奇虎360系统部大数据团队与人工智能研究院联合开发了深度学习调度平台——XLearning。

    2018-01-02 15:24

  • Adobe研究院研究者们提出了全新的通用深度网络架构CPNet

    我们将网络的核心命名为”CP模块“,其结构如下,大致分为两个部分。输入和输出都是一个THW x C的视频表征张量,我们将这两者都视为一个THW个点的带C维特征向量的点云。

    2019-05-25 09:41

  • AI 技术发展即将进入一个平缓期

    一阵凉风吹过人工智能,让这个曾是燥热的领域逐渐冷却下来,留下的是扎实地在做研究的人、机构、企业。先后在 NEC 公司中央研究所、微软亚洲研究院、华为诺亚方舟实验室从事和领导 A

    2019-10-26 11:34

  • AI Codec在应用落地方面的案例

    AI Codec自2016年首次提出以来,众多海内外高校、企业研究院等机构对此展开了广泛研究。6年时间里,AI Codec 的SOTA方案的压缩性能已经超越了H.266

    2023-06-19 09:50

  • 详细介绍三个领域中来自微软亚洲研究院的那些硬核论文

    该模型翻译精度更加接近 AT 模型,在 WMT16 En-Ro 数据集上,相比 AT 模型(Transformer)仅有 1 个 BLEU 分的差距。在翻译速度方面,相比 AT 模型(Transformer)最高有 25 倍的翻译速度提升;相比 NAT 模型(LT、NART、IR-NAT)也有速度上的提升。

    2019-01-28 09:08

  • 芯盾时代荣获2024年度百大AI产品

    近日,中国科学院《互联网周刊》、德本咨询、eNet 研究院联合评选的“2024年度百大AI产品”榜单正式发布。这份榜单汇聚了众多在AI领域取得卓越成就的创新产品,代表了行业的顶尖水平与发展方向。

    2025-02-26 14:49

  • 微软亚洲研究院视觉计算组提出高分辨率深度神经网络

    为了弥补空间精度的损失,研究者们在分类卷积神经网络结构的基础上,通过引入上采样操作和/或组合空洞卷积减少降采样次数来提升表征的分辨率,典型的结构包括Hourglass、U-Net等(如图2)。

    2019-05-25 10:43

  • 生物智能或成为解决AI瓶颈的关键钥匙

    李飞飞带领的斯坦福“以人为本AI研究院”发表文章,探讨人工智能、神经科学、心理学和认知科学,以及数学、物理和社会科学等学科过去是怎样、以及未来将如何共同合作,追求对理解和创造智能系统的探索。

    2018-12-11 09:30