• 发文章

  • 发资料

  • 发帖

  • 提问

  • 发视频

创作活动
0
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
返回

电子发烧友 电子发烧友

  • 全文搜索
    • 全文搜索
    • 标题搜索
  • 全部时间
    • 全部时间
    • 1小时内
    • 1天内
    • 1周内
    • 1个月内
  • 默认排序
    • 默认排序
    • 按时间排序
大家还在搜
  • 微软亚洲研究院把Transformer深度提升到1000层

    本周论文包括尤洋团队FastFold上线,训练时间从11天压缩至67小时;微软亚洲研究院直接把 Transformer 深度提升到 1000 层等研究

    2022-03-24 14:22

  • 美国国家标准技术研究院将采用非接触式光学仪器来检测MEMS的结构

    美国国家标准技术研究院把非接触式光学测量仪器连接在一个基于互联网的MEMS计算器上。利用简单有效的光学干涉仪。这个方法使得工程师在光学干涉仪中插入测量值,从而确定其标准的机械性能。

    2019-04-04 13:44

  • 奇虎360团队与人工智能研究院联合开发了深度学习调度平台XLearning

    资源利用率,节省硬件投入成本,奇虎360系统部大数据团队与人工智能研究院联合开发了深度学习调度平台——XLearning。

    2018-01-02 15:24

  • 鸿蒙os2.0系统报名公测方法

    不少人不知道怎么在报名公测鸿蒙2.0,那今天就来给大家讲讲怎样在报名公测。 方法一: 首先在手机浏览器上搜索“HarmonyOS

    2021-06-28 10:38

  • Adobe研究院研究者们提出了全新的通用深度网络架构CPNet

    我们将网络的核心命名为”CP模块“,其结构如下,大致分为两个部分。输入和输出都是一个THW x C的视频表征张量,我们将这两者都视为一个THW个点的带C维特征向量的点云。

    2019-05-25 09:41

  • 详细介绍三个领域中来自微软亚洲研究院的那些硬核论文

    该模型翻译精度更加接近 AT 模型,在 WMT16 En-Ro 数据集上,相比 AT 模型(Transformer)仅有 1 个 BLEU 分的差距。在翻译速度方面,相比 AT 模型(Transformer)最高有 25 倍的翻译速度提升;相比 NAT 模型(LT、NART、IR-NAT)也有速度上的提升。

    2019-01-28 09:08

  • 微软亚洲研究院视觉计算组提出高分辨率深度神经网络

    为了弥补空间精度的损失,研究者们在分类卷积神经网络结构的基础上,通过引入上采样操作和/或组合空洞卷积减少降采样次数来提升表征的分辨率,典型的结构包括Hourglass、U-Net等(如图2)。

    2019-05-25 10:43

  • 百度研究院推出了他们有关TTS的成果——ClariNet

    它是基于另一个基于注意力的卷积TTS模型——Deep Voice 3创建的。Deep Voice 3能够将文本特征(例如字符、音素、强调等)转换成波谱特征(例如log-mel声谱和log-linear声谱)。这些波普特征可以输入到训练波形合成的模型中,例如WaveNet。相反,我们直接将从注意力机制中学习到的隐藏表示输入到神经语音编码器中,用端到端的方式从零训练整个模型。

    2018-07-26 09:12

  • 嵌入式工业以太的应用研究

    以太在工业现场中的应用与uClinux嵌入式系统是两个现在研究的热点领域,以太与uClinux在工业控制领域有着非常好的应用前景。本文所完成的一些工作都将为这两部分的深入

    2014-05-21 11:21

  • 暂态稳定研究现状解析

    在传统电网中,无论是功角稳定、频率稳定还是电压稳定,同步发电机均在其研究中居于中心位置,大型传统电网的稳定性问题和同步发电机的动态行为密切相关。然而,在微中电能的主要来源是微源。逆变器接口微源的特性导致微暂态特性

    2018-02-06 11:36