圣米迦勒压倒恶魔|拉斐尔
在以前的 NLP 密码版本中,我已经表明了我对神秘线索和谜题的渴望,作为 NLP 模型的推理挑战。其基本原理是,如果 NLP 模型可以在需要 n 阶逻辑来解决的任务上接近人类的表现,那么就可以开辟一条新的表现途径,而不仅仅是句法的模式识别(这是 SOTA 语言模型的当前缺陷)。
本周的一篇新论文提供了一个新的数据集,其中充满了神秘的纵横字谜(不要与传统的纵横字谜混淆)线索和使用 T5 模型的基准测试结果。虽然这项研究不会很快对企业中的应用深度学习产生直接影响,但任何使 NLP 模型在这些类型的任务中更接近人类水平的表现的结果都将是人工智能的重要一步。
github.com](https://github.com/jsrozner/decrypt)
如果你训练模型,这是一篇重要的文章。展示了微调的天数是如何计算的,因为快速调优可能是调优大型语言模型的一种更有效的方法。提示调优允许用户使用冻结的模型,并且只调优文本提示(与改变整个模型的模型调优((又名微调))相反)。
这意味着我们不必为每个新的 NLP 任务训练一个新的模型副本!本文展示了如何克服先前涉及快速转向的障碍,使其与传统微调不相上下或具有竞争力。此外,即时调优的简单性有助于防止畴变。🧐
这篇文章让我想起了多任务学习是怎么回事,其中适配器在使用冻结模型时有一种“类似”的方法,并且只有适配器针对每个任务进行了微调(这不是即时调优,但在使用冻结模型以提高效率/灵活性的意义上是类似的)。之后,您可以为各种任务堆叠适配器,并使用冻结模型进行嵌入。在之前的 NLP 密码中,我采访了适配器中枢的主要作者 Jonas Pfeiffer。
PyTorch Lightning 合并了变形金刚库和九头蛇框架。🥶:使用起来相当简单。
以下是电梯间推介:
- 使用 HuggingFace Transformers 模型和数据集进行训练,带有 Lightning 自定义回调、记录器、加速器和高性能扩展。
- 无缝内存和速度优化,如 DeepSpeed ZeRO 或fair scale shared Training,无需更改代码。
- 由 Hydra 支持的强大配置组合——无需接触代码即可轻松更换模型、优化器、调度器和更多配置。
- 用于快速研究和实验的 Transformer 任务抽象——该库从头开始构建,与任务无关,支持几乎没有摩擦地跨所有模态创建 transformer 任务。
代码
github.com](https://github.com/PyTorchLightning/lightning-transformers)
文档
[## 雷电变压器.雷电变压器文件
闪电变压器. readthedocs.io](https://lightning-transformers.readthedocs.io/en/latest/)
博客
[## 用 PyTorch Lightning 大规模训练变压器
pytorch-lightning.medium.com](https://pytorch-lightning.medium.com/training-transformers-at-scale-with-pytorch-lightning-e1cb25f6db29)
关于变压器最新技术的教育论文,比较不同变体的性能和使用案例。
https://arxiv.org/ftp/arxiv/papers/2104/2104.10640.pdf
这篇路孚特实验室的博客在路透社的新闻档案中强调了他们对定制预训练版本的 BERT 的思考。
perspectives.refinitiv.com](https://perspectives.refinitiv.com/ai-digitalization/using-nlp-to-unlock-value-in-financial-services-terminology/)
他们向我们承诺会飞的汽车,但我们得到的是*“每四个访问堆栈溢出问题的用户中,就有一个在访问页面的五分钟内复制了一些东西。”*
如果你想知道我们在编码方面有多糟糕,看看这个博客吧。
😭😭😭😭
[## 人们从堆栈溢出中复制粘贴的频率有多高?现在我们知道了。-堆栈溢出博客
stackoverflow.blog](https://stackoverflow.blog/2021/04/19/how-often-do-people-actually-copy-and-paste-from-stack-overflow-now-we-know/)
一个信息检索库,在内部使用基于 Java 的 Terrier IR 平台来支持索引和检索操作。以下是神经排序/密集检索的一些特征:
BERT(通过 OpenNIR)、T5、ColBERT、ANCE、DeepCT 和 doc2query。
-py terrier _ ANCE:[Github]—密集检索
-py terrier _ ColBERT:[Github]—密集检索和/或神经重新排序
-py terrier _ T5:[Github]—神经重排序
-py terrier _ doc 2 query:[Github]—神经增强索引
-py terrier _ DeepCT:[Github]—神经增强索引
github.com](https://github.com/terrier-org/pyterrier)
来自 Neural Magic 的 Mark Kurtz 介绍了 NM 针对稀疏模型的深度稀疏推理机。该引擎希望模型以 ONNX 格式接收,然后通过其引擎在 CPU 上以惊人的速度运行它们。希望 NLP 将很快到来…🤞。(我刚才描述的是视频的结尾,开头是 Nir Shavit 对稀疏性和为什么它很棒的一个很酷的介绍)。
奥赖利的调查出来了,有货:
我们收到的回复几乎是去年的三倍,推广力度也差不多。更多的人在用 AI 工作。
在过去,公司文化一直是人工智能采用的最大障碍。虽然它仍然是一个问题,文化已经下降到第四位。
今年,人工智能采用的最大障碍是缺乏技术人员和招聘困难。这种短缺已经预测了好几年了;我们终于看到了。
第二大障碍是高质量数据的可用性。这种认识是这个领域正在成长的标志。
报告“成熟”实践的应答者的百分比在过去几年中大致相同。鉴于受访者数量的增加,这并不奇怪:我们怀疑许多组织刚刚开始他们的人工智能项目。
零售业领域的成熟实践比例最高;教育程度最低。但教育也是“考虑”人工智能的受访者比例最高的领域。
相对较少的回答者对数据和模型使用版本控制。对数据和模型进行版本控制的工具仍然不成熟,但它们对于使人工智能结果可重复和可靠来说是至关重要的。
www.oreilly.com](https://www.oreilly.com/radar/ai-adoption-in-the-enterprise-2021/)
基准测试包括 17 个数据集,9 个不同领域的任务。在零发射设置中评估的 9 个 SOTA 反演模型。
github.com](https://github.com/UKPLab/beir)
连接论文 📈
适用于生物医学领域的预先训练的特定领域语言模型。它在 BC5CDR 语料库上为命名实体识别设置了最先进的结果,并在第 7 届 BioASQ-factoid 挑战的 5 次运行中的 2 次运行中提供了最佳结果。
[## GMP Li/electra med
github.com](https://github.com/gmpoli/electramed)
连接论文 📈
使用 RAG 来改进槽填充任务(即,以[实体,槽,?],任务要求生成丢失的槽)。这允许自动化知识图的创建。
github.com](https://github.com/IBM/retrieve-write-slot-filling)
连接论文 📈
基于 Transformer LMs 的通用预训练架构,用于提高密集优化就绪性。目前支持的架构包括所有采用 BERT 或 RoBERTa 架构的型号。
[## luyug/冷凝器
github.com](https://github.com/luyug/Condenser)
连接论文 📈
一个允许用户根据自然语言规范创建功能性 Android 应用程序的框架。🙈
github.com](https://github.com/Masum06/Text2App)
连接论文 📈
ProphetNet 为中文、英文对话、中文对话、多语言和代码生成提供了预训练模型。
github.com](https://github.com/microsoft/ProphetNet)
连接论文 📈
一种通用的预训练方法,利用文档的结构和内容,并考虑多媒体内容,如图像,以学习全面的多模态文档表示。
论文:https://arxiv.org/pdf/2104.08405.pdf
连接论文 📈
一个问答数据集,包含从谷歌收集的超过 500 万个问题和 300 万个答案。GOOAQ 问题是使用自动完成功能从 Google 搜索引擎半自动收集的。
{
"id": 5009708,
"question": "carbon dioxide comprises approximately what percentage of tropospheric gases?",
"short_answer": "04%",
"answer": "Carbon dioxide comprise approximately . 04% of tropospheric gases.",
"answer_type": "feat_snip"
}
[## allenai/gooaq
github.com](https://github.com/allenai/gooaq)
每周日,我们都会对来自世界各地的研究人员的 NLP 新闻和代码进行每周综述。
完整报道,关注我们的推特:@ Quantum _ Stat