士兵在山峡中,与风暴| Vernet
嘿,欢迎回来!一周又一周的会议(NeurIPS)过去了,许多事情已经慢慢进入 NLP 管道。
首先,GPT-3 纸赢得了一个奖杯:
此外,如果您需要赶上进度,这里有一个在 NeurIPS 上找到的以 NLP 为中心的论文列表:
[## NeurIPS 2020:自然语言处理(NLP)和对话式人工智能的关键研究论文
www.topbots.com](https://www.topbots.com/neurips-2020-nlp-research-papers/)
这是 Depix,一个从像素化截图中恢复密码的库。如果你使用像素化来保护敏感信息,你需要一种新的方法。图书馆已经在 GitHub 上积累了 10K 之星😭😭。此外,beurtschipper 的个人资料照片获得了本周头像提名。顺便说一句,这是很棒的工作!(另外,它要求像素化的图像是用线性盒式过滤器创建的)
GitHub :
github.com](https://github.com/beurtschipper/Depix)
如果你喜欢密码,(除了 NLP 密码😁)十二宫杀手的 340 密码本周被解密👀。作为背景,十二宫杀手是一个冷血的连环杀手,在 60 年代末至 70 年代初横行加利福尼亚,因向当局发送加密信息而闻名。他的第一个密码很早就被解密了,但是臭名昭著的 340 密码一直是个谜(准确的说是 51 年)。迄今...12 月 5 日,被破译的十二宫杀手信息被一小群公民送到了联邦调查局。想知道他们是如何破解的,请看这个:
解密的
你现在可以通过给你的闪电训练器增加一面旗帜来节省大量的内存。PyTorch Lightning 现在在其库中为那些希望在多个 GPU 上共享培训工作的人提供了这一功能。它们包括一个易于使用的用于训练语言模型的样本(顺便说一句,从 NVIDIAs NeMo library,你可以在超级骗子 NLP Repo 上找到几个笔记本😁)在 WikiText 数据集上。
[## 介绍 PyTorch 闪电碎片:火车 SOTA 模型,一半的内存
seannaren.medium.com](https://seannaren.medium.com/introducing-pytorch-lightning-sharded-train-sota-models-with-half-the-memory-7bcc8b4484f2)
如果您想要 Lightning 的技术内容和更多模型并行性:
[## 多 GPU 培训- PyTorch Lightning 1.1.0 文档
py torch-lightning . readthedocs . io](https://pytorch-lightning.readthedocs.io/en/stable/multi_gpu.html#model-parallelism-beta)
在阅读 NeurIPS merch 时发现了这个伟大的资源。它包括视频和幻灯片,都是关于机器学习的数学知识。
- 概述视频
- 整合简介视频 幻灯片
- 数值积分视频幻灯片
- 蒙特卡罗积分视频 幻灯片
- 标准化流程视频 幻灯片
- 时间序列中的推论视频 幻灯片
- 反向传播和自动微分视频幻灯片幻灯片
- 向前向后算法视频 幻灯片
- 隐函数定理视频 幻灯片
- 邻接视频幻灯片的方法
- 拉格朗日法视频幻灯片幻灯片
- 随机梯度估计器视频 幻灯片
[## 去而复返:斜坡和期望的故事
mml-book.github.io](https://mml-book.github.io/slopes-expectations.html)
一个新的微软预训练模型 MPNet,来自 NeurIPS,结合了屏蔽语言建模(又名 BERT 风格)MLM 和置换语言建模 PLM(又名 XLNET 风格)的优点。他们的 GitHub 还包括用于预训练和下游任务的脚本,如 SQuAD 和 Glue benchmark。他们的博客文章提供了一些关于培训目标和基准相对于其他模型的优缺点的背景。(在 HF 的模型轮毂上也可以找到)
[## MPNet 结合了屏蔽和置换语言建模的优势,用于语言理解…
16 个视频讲座,来自 NeurIPS 的 Google w/r/t 图形挖掘🔥🔥
他们强调了基于图的学习和图算法在广泛领域的应用,如检测欺诈和滥用、查询聚类和重复检测、图像和多模态数据分析、尊重隐私的数据挖掘和推荐以及干扰下的实验设计。
gm-neurips-2020.github.io](https://gm-neurips-2020.github.io/)
CTRLSum 是一个通用的可控摘要系统,用于在给定关键字或前缀形式的控制标记的情况下处理文本摘要。
您还可以生成现成的文本,它们还包括培训/评估脚本。
github.com](https://github.com/salesforce/ctrl-sum)
使用转换器通过服务条款(ToS)数据集进行主题变化检测。
这个回购中描述的“话题改变”是在段落层面,而不是句子层面。
github.com](https://github.com/dennlinger/TopicalChange)
针对目标导向对话任务的 GPT-2 培训报告。在报告中提到的论文中,它在 MultiWoz 2.0 数据集上针对响应生成、策略优化(act 和响应生成)、端到端建模(信念状态、act 和响应生成)和对话状态跟踪进行了基准测试。
github.com](https://github.com/TonyNemo/UBAR-MultiWOZ)
通过联合训练关系提取和知识图链接预测任务来提高关系提取模型的性能。
培训脚本包括:
github.com](https://github.com/gstoica27/JRRELP)
一个命名实体识别(NER)数据集,涵盖五个不同的领域(政治、自然科学、音乐、文学和人工智能)。
github.com](https://github.com/zliucr/CrossNER)
每周日,我们都会对来自世界各地研究人员的 NLP 新闻和代码进行一次每周综述。
如需完整报道,请关注我们的 Twitter: @Quantum_Stat