首届欧洲NLP会议EurNLP2019是大道上的前行者开启了人工智能语言处理的新篇章

首届欧洲NLP会议EurNLP2019:学术界与工业界共聚,探讨真实世界NLP问题

在人工智能深度学习的热潮推动下,各个相关领域展现出活力十足的生机。今年十月上旬,在甘肃敦煌举行的以中文语言计算为特点的 NLPCC 2019 才刚刚落幕,而首届欧洲 NLP 会议 EurNLP 则于 11 日在英国伦敦举行。这次为期一天的首届 EurNLP,暨EurNLP 2019,有大约 200 人参加,共收到 179 篇有效论文投稿,接收论文 57 篇(接收率 31.8%)。会议议程包括了大会报告、四场论文报告以及一个圆桌讨论。

德国达姆施塔特工业大学的 Wei Zhao 在现场分享了他们参会见闻和亮点总结。雷锋网 AI 科技评论进行了全文翻译,有部分删改。

Vera Demberg:考虑语言处理中的具体区别

Vera Demberg 讨论了人类标注中出现不统一的问题,并研究了人类标注是否是系统性的、是否在不同的时刻保持一致、是否和特定的因素相关(如语言经验和任务知识)。Scholman 和 Demberg 的论文表明不同的参与者对连词填空问题给出的答案有很大的区别,而 Sanders 等人让参与者前后间隔几个月重复做同一个实验,表明人类标注员表现不会随着时间变化。

Dirk Hovy:层数越多责任越大

这个演讲解释了各种可能带来模型偏倚因素,比如数据选择、人类标注以及模型变化,以及过去几十年从启发式逻辑模型到统计性神经网络形式AI发展历程。他强调现代神经网络模型可以处理语言生成等真实世界复杂问题,但想要解决可信任、可解释性、可靠性公平性的问题还远未到位。

Joakim Nivre:依存句法分析快要寿终正寝吗?

这个演讲回顾了依存句法分析历史,其中包括基于图结构转换器与基于转换结构图解析器两种方法。Kulmizev 等人的论文显示这两类解析器在短期依存关系上性能相似,但随着依存关系长度增加基于转换结构分析器由于错误传播原因性能下降;同时,这两种方法在运用BERT模块时准确率差异不大。Joakim Nivre 希望未来句法分析能找到替代结构预测的一些新方法,而且希望这些方法无需显式监督。

Bonnie Webber:隐式论述关系可以与显式关系共同存在

Bonnie Webber介绍了一些显式信号和隐式推理如何影响论述关系标注。在某个例子中,不同参与者给出了不同的答案,但这些不同答案并非错误表示。

Gemma Boleda:分布式表征中的通用信息及情境信息互动

Gemma Boleda 讨论分布式表征中的通用信息及其情境下的互动,并展示两个最新成果。一是关于短期含义漂移,即通过内容变异度识别语义变化;二是LSTM语言模型中词汇模糊性的探测,可以探测出隐含单词表征及上下文信息。

Reut Tsarfaty:空元素计划

Reut Tsarfaty 引入Paul Grice提出的逻辑对话理论,然后讨论文本之间空元素,如去掉动词并列出所有可能形式。此外,她指出需要更全面的方法来应对模态文本机器翻译挑战,如当输入短小且噪声较高时使用多模态学习策略。

André Martins:超越Sparsemax - 自适应稀疏Transformer

André Martins 提出了softmax替代方案sparsemax,它将softmax得到概率映射至简单形空间内概率分布,使其输出稀疏概率。他还引入正则化argmax泛化损失函数及α-entmax变换等方向上的成果扩展 sparsemax 理念。

Angela Fan:剪枝Transformer模式应用于推理过程

Angela Fan 指出了神经网络主要挑战——过参数化、冗余过拟合,以及难以实际部署的大型模型。她提出针对Transformer剪枝策略LayerDrop,在训练阶段丢弃Transformer层,以小幅度损失保留良好性能。此外,她提到了DistilBERT、小BERT等压缩技术进展案例研究说明如何减少资源消耗而维持效果或提升效果,同时简化复杂算法使其更加易于理解和操作,为AI系统提供更好的可靠性保证:

Rico Sennrich:

Transformer 模型重要注意力头识别及其剪枝。

Transformer 表征演化对于不同目标学习所获得的情报迁移能力。

圆桌讨论环节,由来自欧洲顶尖研究人员分享他们学术界与工业界经验心得,对比工作环境差异,与会代表也就此产生热烈讨论。

猜你喜欢