谢莉·泰在 Unsplash 上拍摄的照片
你可能已经听说了,埃隆·马斯克不太高兴。当脸书的人工智能负责人杰罗姆·派森蒂决定通过在 Twitter 上就马斯克的人工智能知识呼吁来火上浇油时,这也于事无补:
杰罗姆·佩森蒂 @an_open_mind
我相信 AI 社区中的很多人都可以公开说出来。 @elonmusk 一说起 AI 就不知道自己在说什么。根本没有 AGI 这种东西,我们也远没有达到人类的智力水平。#诺阿吉
👇
埃隆马斯克@埃隆马斯克
脸书糟透了
👇
Yann le Cun@ y LeCun
特斯拉工程师和科学家会问“我们还能用 PyTorch 吗?” https://youtu.be/oBklltKXtDE
👇
埃隆马斯克@埃隆马斯克
公平点,PyTorch 很棒!
结束
扎克是这样的:
解密的
与此同时,NVIDIA 首席执行官黄先生(和他的皮夹克)在厨房发表了有史以来第一次主题演讲:
仅供参考,在过去的一周,我们发布了另一套笔记本电脑的超级骗子 NLP 回购!感谢所有贡献者:阿迪蒂亚·马尔特、卡皮尔·肖汉、维塞尔·科贾曼和萨亚克·保罗。😎
notebooks.quantumstat.com](https://notebooks.quantumstat.com)
附言——不要点这个🧐:
[## 远程黑客
telehack.com](http://telehack.com/)
流量管
嵌套 JSON
可视化人工智能模型训练
DrKIT
课文 2 关于中央处理器的演讲
T5 激发了巴特的疑问
本周实验室:T5 调谐🔥🔥
CMUs ML 视频集合
本周数据集:街景文本(SVT)
你可能已经使用了在超级 Duper NLP Repo 中找到的 Tacotron 模型进行文本 2 语音实验。现在 NVIDIA 发布了 FlowTron,它有自己的可控风格调制。事实上,如果你听到上面黄视频中的主题旁白,FlowTron 就是正在使用的模型。如果有兴趣,可以看看他们的博客页面,上面展示了 Tacotron 2 的各种风格演示。
博客:
[## Flowtron:基于自回归流的文本语音合成生成网络
nv-adlr.github.io](https://nv-adlr.github.io/Flowtron)
GitHub :
github.com](https://github.com/NVIDIA/flowtron)
这些 JSON 记录很快就会变得错综复杂,尤其是如果两个对象共享同一个键,比如人的“name”和公司名称的“name”。下面是一个快速浏览嵌套 JSON 数据的指南,它有一个隔离正确键的功能,给了我们所有人一个新的希望。😁
bcmullins.github.io](https://bcmullins.github.io/parsing-json-python/)
标题说明了一切。这是一个一步一步的指南(w/Colab ),用于灌输重量和偏见可视化和拥抱脸的变形金刚库。在本例中,CoLA 数据集上的 DistilBERT 用于观察 Mathew 的相关系数指标:
搜索大量文档通常会导致多跳问题。通常,一个问题可能需要搜索知识库的多个区域才能准确回答查询。在这项工作中,CMU 大学的作者试图梳理文档(像图表一样),而不将文档转换成图表(将文档保持在原始状态)——这比知识图表更容易构建,并提供了一个主要的速度提升。
表现如何?
在 MetaQA 任务中:
该模型在 2 跳和 3 跳问题上分别比以前的最佳模型高出 6%和 9%,同时速度提高了 10 倍。🔥🔥🔥🔥
关于 HotpotQA:
method 牺牲了一些准确性(F1 得分 43 比 61 ),在速度方面提高了 100 倍。
博客:
blog.ml.cmu.edu](https://blog.ml.cmu.edu/2020/05/15/differentiable-reasoning-over-text/)
16 核 CPU 演示:
论文:
来自脸书的新文本-2-语音模型可以在 CPU 上以 500 毫秒生成一秒钟的音频。此外,他们还包括风格嵌入,允许人工智能的声音模仿助理,柔软,快速,投影和正式的风格!
下面的链接里有演示演讲。坏消息是,这似乎不是开源的。😌
ai.facebook.com](https://ai.facebook.com/blog/a-highly-efficient-real-time-text-to-speech-system-deployed-on-cpus/)
因 DrQA 而出名的开放领域问答通常涉及两阶段模型方法,其中你搜索外部知识库(例如维基百科),然后使用另一个模型为查询检索数据。对于封闭领域的问答,就像小队任务一样,下游任务包括提供一个通用的预训练模型文本和一个问题,模型的任务是找到文本中的答案跨度。然而,在这个使用 BART-large 模型的回购中,Sewon Min 使用了一个根据知识本身预先训练的模型,然后经过微调来回答问题!这种风格被称为开放域闭卷,其灵感来自下面的 T5 论文。直射🔥🔥。
巴特 GitHub :
github.com](https://github.com/shmsw25/bart-closed-book-qa)
T5 GitHub :
github.com](https://github.com/google-research/google-research/tree/master/t5_closed_book_qa)
纸基关 T5 :
学会用 T5 进行复习分类,情感分类,常识推断!
colab.research.google.com](https://colab.research.google.com/drive/176NSaYjc2eeI-78oLH_F9-YV3po3qQQO)
来自 Graham Neubig,这个伟大的集合为您的机器学习启迪提供了 24 个讲座视频。当在第 7 个视频中讨论注意力时,你就知道这个系列是好的😁。在这些视频剪辑中,我们得到了从搜索树、文档级模型到机器阅读和 NLG 的一切:
数据集包含带有注释的街道场景图像,用于场景文本识别任务。
www.iapr-tc11.org](http://www.iapr-tc11.org/mediawiki/index.php/The_Street_View_Text_Dataset)
每周日,我们都会对来自世界各地研究人员的 NLP 新闻和代码进行一次每周综述。
如果您喜欢这篇文章,请帮助我们并与朋友分享!
如需完整报道,请关注我们的 Twitter:@ Quantum _ Stat