• 发文章

  • 发资料

  • 发帖

  • 提问

  • 发视频

创作活动
0
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
返回

电子发烧友 电子发烧友

  • 全文搜索
    • 全文搜索
    • 标题搜索
  • 全部时间
    • 全部时间
    • 1小时内
    • 1天内
    • 1周内
    • 1个月内
  • 默认排序
    • 默认排序
    • 按时间排序
大家还在搜
  • 语言建模中XLNet比BERT好在哪里

    XLNet可能会改变语言建模,这就是为什么它是任何NLP从业者的重要补充。在本文中,我们将讨论XLNet背后的原理,它使它比BERT更好。为了更好地理解它,我们还将研究它之前的相关技术。

    2020-04-20 09:30

  • Macaw-LLM:具有图像、音频、视频和文本集成的多模态语言建模

    尽管指令调整的大型语言模型 (LLM) 在各种 NLP 任务中表现出卓越的能力,但它们在文本以外的其他数据模式上的有效性尚未得到充分研究。在这项工作中,我们提出了 Macaw-LLM,一种新颖的多模式 LLM,它无缝集成了视觉、音频和文本信息。

    2023-06-19 10:35

  • 语言建模世界:UC伯克利多模态世界模型利用语言预测未来

    直接拿来当成指令,但却蕴含着丰富的世界信息。智能体很难了解这些语言在世界上的含义。 图源:谷歌机器人团队论文「Interactive Language: Talking to Robots in Real Time」。 UC 伯克利 Dynalang 研究的关键思想是,我们可以将

    2023-08-06 22:05

  • 浅谈自然语言处理技术的应用领域

    以下七种自然语言处理的常见应用:1. 文本分类2. 语言建模3. 语音识别4. 说明生成5. 机器翻译6.文档总结7. 问题回答

    2017-12-28 17:37

  • OpenAI推出Sora:AI领域的革命性突破

    大模型的核心技术是自然语言处理(NLP)和深度学习。具体而言,它基于Transformer架构,使用了大规模无监督学习方法,例如自回归语言建模和掩码语言

    2024-02-21 16:36

  • 英伟达1小时成功训练BERT,83亿参数打造史上最大语言模型

    最近的两篇论文,BERT和GPT-2,展示了大规模语言建模的好处。这两篇论文都利用了计算机和可用文本语料库的进步,在自然语言理解、建模和生成方面显著超越了当前的最优水平

    2019-09-13 17:12

  • UML统一建模语言

    UML-Unified Modeling Language 统一建模语言,又称标准建模语言。是用来对软件密集系统进行可视化建模

    2023-05-05 10:15

  • 什么是系统建模语言SysML?

    对复杂系统的建模是架构师的基础能力之一。从这篇文章开始,笔者介绍系统建模语言SysML(OMG System Modeling Language)。 对复杂系统的建模

    2023-09-01 15:48

  • ESL事务级建模语言简介

    任何系统级建模语言,都需要具备在较高层次的抽象能力和对不同来源的IP的集成能力。建模方法的选择通常基于语言熟悉程度、建模

    2023-11-02 15:10

  • 迄今最大模型?OpenAI发布参数量高达15亿的通用语言模型GPT-2

    史上最强“通用”NLP模型来袭:今天OpenAI在官博介绍了他们训练的一个大规模无监督NLP模型,可以生成连贯的文本段落,刷新了7大数据集基准,并且能在未经预训练的情况下,完成阅读理解、问答、机器翻译等多项不同的语言建模任务。

    2019-02-16 08:43