由 Unsplash 上的vini cius Henrique 摄影拍摄
嗯…欢迎回来!本周大量的研究结果出炉了!但是,仅供参考,由于篇幅有限,我们无法在这份时事通讯中涵盖所有的故事,所以如果你想要完整的报道,请关注我们的 twitter ,并且一如既往,如果你喜欢阅读,请给它一个👏👏与你的敌人分享。
还有…昨天,对超级骗子 NLP Repo 和大坏 NLP 数据库又进行了一次更新:我们增加了 10 个数据集和 5 个新笔记本。亮点包括 DialogRE 数据集,它可能是第一个人注释的基于对话的关系提取数据集。FarsTail 数据集,一个波斯语 NLI 数据集。😎
据网络安全专家 Alon Gal 称,过去两年来,黑客一直试图破解一个价值 6.9 亿美元的比特币钱包。钱包是。dat 文件包含一个非常强硬的加密,它是黑客和潜在的大报酬之间的所有立场。但有人说这都是胡说八道,这种说法的真实性值得怀疑,但谁知道…🤷♂️.据 Gal 称,最近暗网上出现了一个“销售未拆封钱包的繁荣市场”。可能是我们的彩票出了矩阵!
哦,我不是在开玩笑…👇
解密的
微软在 1B 对 OpenAI 的投资获得了回报。微软宣布,它将获得 GPT-3 的独家许可,用于自己的产品。🧐
[## 微软与 OpenAI 合作,独家授权 GPT-3 语言模型——微软官方…
blogs.microsoft.com](https://blogs.microsoft.com/blog/2020/09/22/microsoft-teams-up-with-openai-to-exclusively-license-gpt-3-language-model/)
上周我们提到了一篇知识图表论文,并展示了一个图表,展示了 KG 三元组与超关系图之间的区别。事实证明,Galkin 写了一篇关于它的博文(包括代码链接)。点击此处阅读:
towardsdatascience.com](https://towardsdatascience.com/representation-learning-on-rdf-and-lpg-knowledge-graphs-6a92f2660241)
解密的
伯特仍然是轻量级的
动力工作台
面向任务聊天机器人中 NLU 的一种新方法
Wav2vec 2.0
谷歌推荐
X-LXMERT
荣誉奖
本周数据集:量化宽松
pQRNN 是 Google 发布的一个新的 NLP 模型,建立在 PRADO 之上。这是一个超轻模型,仅包含 1.4M 的参数,而我们习惯的是 440M 的 BERT,并且在对 civil_comments 数据集进行基准测试时,没有损失太多的准确性。如果你关注在线推理和边缘计算,超轻模型是非常重要的。普拉多是开源的。
博客:
ai.googleblog.com](https://ai.googleblog.com/2020/09/advancing-nlp-with-efficient-projection.html)
脸书引入了一个名为 Dynabench 的新基准,它将人类和模型置于“回路”中,以测量当人类试图愚弄模型时,模型出错的频率。
基本思想是我们动态地收集数据。人类的任务是找到对抗的例子,愚弄当前最先进的模型。这提供了两个好处:它允许我们衡量我们当前的 SOTA 方法到底有多好;它产生的数据可用于进一步训练更强的 SOTA 模型。这个过程会重复多轮:每次 SOTA“解决”了一轮,我们就可以利用这些模型,在它们失败的地方对抗性地收集新的数据集。随着新样本的收集,数据集将定期发布。
如果您能够欺骗模型,该实例将被传递到下一轮数据集,以对模型的准确性施加更大的压力,并最终使该数据集/模型更加健壮。数据集不是一成不变的,您的模型会随着时间的推移而改进。🔥🔥
[## 动力工作台
Dynabenchdynabench.org](https://dynabench.org/)
我和梅根一起喝咖啡时,温度会是多少?
如果你知道如何构建面向任务的聊天机器人,你就会知道上面的问题对于你的模型来说很难准确回答。你的第一反应可能是想直接去填补空缺。但是语义机器的新论文告诉我们,有一个更好的方法…通过使用数据流图:
他们的模式是 NLU 的新方法!传统上,面向任务的聊天机器人将包括 NLU 模块、状态跟踪和对话策略,作为独立的模块,但他们的新方法预测代理行为,并在单个模型内的图形中记录它们。这是该领域的一个新方向,非常令人兴奋!
此外,他们还发布了一个名为 SMCalFlow 的新数据集,其中包含超过 41,517 个用数据流程序注释的对话!这个数据集已经被添加到大坏 NLP 数据库。
博客:
论文:https://www . mitpressjournals . org/doi/pdf/10.1162/tacl _ a _ 00333
脸书本周发布了 Wav2vec 2.0,这是一个建立在流行的自我监督学习方法基础上的框架,并使其适应原始音频数据。它包括预先训练的模型,根据他们的论文,它是健壮的:
“我们的实验显示了对未标记数据进行预训练以进行语音处理的巨大潜力:当只使用 10 分钟的标记训练数据,或 48 次平均 12.5 秒的记录时,我们在 Librispeech 的 test-clean/other 上获得了 5.2/8.6 的 WER。”
GitHub :
github.com](https://github.com/pytorch/fairseq/tree/master/examples/wav2vec)
!pip install tensorflow_recommenders
这很酷,TensorFlow 有一个新的推荐系统库:TensorFlow 推荐器(TFRS)。他们的博客文章展示了一个例子,说明如何使用该库来构建基于 MovieLens 数据集的电影推荐系统。他们的例子遵循双塔模型,其中他们使用两个子模型分别学习查询和候选的表示。
博客:
blog.tensorflow.org](https://blog.tensorflow.org/2020/09/introducing-tensorflow-recommenders.html?linkId=100309856)
GitHub :
github.com](https://github.com/tensorflow/recommenders)
在 AI2,他们新的文本到图像的模型出来了:X-LXMERT。它根据文本提示生成图像。他们的结果有点超现实主义,有一种融化的时钟大理般的品质!在参与他们的演示之前,不要服用任何迷幻药:
vision-explorer.allenai.org](https://vision-explorer.allenai.org/text_to_image_generation)
样本:
博客:
[## X-LXMERT:使用多模态变形器绘制、说明和回答问题
prior.allenai.org](https://prior.allenai.org/projects/x-lxmert)
【https://arxiv.org/pdf/2009.11278.pdf】纸 : 纸
github.com](https://github.com/Unbabel/COMET)
给定一个问题和一篇文章,QED 将答案的解释表示为离散的、人类可解释的步骤的组合:句子选择、指称相等和谓词蕴涵。数据集是作为自然问题数据集的子集构建的。
本页包含与论文相关的数据和评估脚本:https://arxiv.org/abs/2009.06354 QED:A…
github.com](https://github.com/google-research-datasets/QED)
每周日,我们都会对来自世界各地研究人员的 NLP 新闻和代码进行一次每周综述。
完整报道,关注我们的推特:@ Quantum _ Stat