• 发文章

  • 发资料

  • 发帖

  • 提问

  • 发视频

创作活动
0
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
返回

电子发烧友 电子发烧友

  • 全文搜索
    • 全文搜索
    • 标题搜索
  • 全部时间
    • 全部时间
    • 1小时内
    • 1天内
    • 1周内
    • 1个月内
  • 默认排序
    • 默认排序
    • 按时间排序
大家还在搜
  • 人工智能使用的数据集多存在性别歧视和种族主义

    近年来,研究人员开始由上述提取式生成转向抽象概括,这种技术使用神经语言模型来动态生成文本,缺点是模型为了“连贯性”会生成不少无意义内容。对此,斯坦福大学的See等人提出指针生成器网络,它可以为抽象模型提供一个信息提取回退的选项,有机结合了提取式和抽象概括式两种方法。

    2018-08-08 09:16

  • 人脸识别技术常见的五大误区,你入坑了吗

    人脸识别技术还可能引发歧视的问题。研究表明,人脸可以显示性倾向,且预测结果大部分正确。所以,同性倾向的人很可能会成为歧视对象。自然,歧视的领域远不只此,还包括种族、性别、民族、地域与职业等方面的

    2020-01-16 10:55

  • 关于GN-GloVe的词嵌入技术详解

    带有这样的偏见的词嵌入模型,会给下游的NLP应用带来严重问题。例如,基于词嵌入技术的简历自动筛选系统或工作自动推荐系统,会歧视某种性别的候选人(候选人的姓名反映了性别)。除了造成这种明显的歧视现象,有偏见的嵌入还可能暗中影响我们日常使用的NLP应用。

    2018-09-23 09:25

  • 基于Serverless计算场景下的FinOps问题

    以传统云资源的周期性租赁模式为例,通过周期数乘以周期单价,用户可以很容易地估计出租赁期间的总费用,形成清晰的心理账户预期,即使在云平台采用阶梯定价或价格歧视策略的情形下,计算租赁总成本也不是一件难事。

    2022-10-08 10:24

  • 科学家真正信任人工智能之前,首先需要去理解机器是如何学习的

    科学家正面临一个复杂的问题,就是算法公平到底意味着什么?像Vaithianathan这样正在与公共组织协作去建立负责、高效的软件的研究人员,必须解决的难题就是自动化的工具如何引入偏见或扩展当前的不平等性,尤其是当这种工具被应用到本来就有歧视的社会系统时。

    2018-10-29 14:59

  • 用Python爬取拉勾网不同编程语言职位信息

    这张图告诉我们,在大部分情况下,没(Ren)钱(Chou)就要多读书。不管是经验经验1年以下、经验3-5年、经验5-10年、经验不限的情况下,拥有硕士学历的平均收入都普遍高于本科,本科都高于大专。(这里完全没有歧视低学历之意)

    2018-09-29 16:51

  • 讨论在调整以长期社会福利为目标的机器学习所得决策方面的近期成果

    由于机器学习系统容易受到历史数据引入的偏见而导致歧视性行为,人们认为有必要在某些应用场景中用公平性准则约束系统的行为,并期待其能保护弱势群体和带来长期收益。近日,伯克利 AI 研究院发表博客,讨论了静态公平性准则的长期影响,发现结果和人们的期望相差甚远。相关论文已被 ICML 2018 大会接收。

    2018-06-04 14:00