首届欧洲NLP会议EurNLP2019是大幕落下的诗篇独特之处在于它为人工智能的语言世界绘制了生动的

首届欧洲NLP会议EurNLP2019:学术界与工业界齐聚一堂探讨语言世界

在深度学习的热潮下,人工智能的各个相关领域都展现出勃勃生机,学术会议也一个紧接着一个。今年十月上旬,在甘肃敦煌举行的以中文语言计算为特点的 NLPCC 2019 才刚刚落幕,首届欧洲 NLP 会议 EurNLP 就于 11 日在英国伦敦举行。这次会议关注学术界和工业界出现的真实世界 NLP 问题,让欧洲的青年学者和专家们齐聚一堂,讨论基础科研和实证研究话题。

本次为期一天的首届 EurNLP,有大约 200 人参加,共收到 179 篇有效论文投稿,接收论文 57 篇(接收率 31.8%)。会议议程包括了1个大会报告、4场论文报告以及1个圆桌讨论。除此之外,还安排了一个论文海报讨论环节,为学生、研究者们提供了展示自己的机会;这些论文主题多样化,不仅包括了多语言性、语言中的偏倚、机器学习、多模态,还有文本生成等。

德国达姆施塔特工业大学的 Wei Zhao 和哈尔滨工业大学教授 Haixia Chai 分享了他们对这次活动的心得体会。在演讲环节,他们分享了一些值得注意的话题,比如 Vera Demberg 讨论的人类标注中不统一的问题,以及 Dirk Hovy 强调的人工智能模型可能带来的责任问题。

Vera Demberg 在她的演讲中提出:“我们是否需要更多地考虑处理过程中的具体区别?”她提出了人类标注存在不统一性的问题,并通过实验表明不同参与者的回答差异巨大,但时间上的变化并不显著。

Dirk Hovy 在他的演讲中强调:“层数越多,责任越大。”他介绍了过去几十年的 AI 发展历程,从启发式到统计型再到神经网络,他特别指出了现代神经网络模型可以解决复杂问题,但如何确保它们可信赖、可解释还有待解决。

Joakim Nivre 讨论的是依存句法分析的问题。他回顾了依存句法分析历史,并指出基于图结构和基于转换结构两种方法在短期内表现相似,但随着关系长度增加后者更容易出现错误传播。同时,他呼吁未来的句法分析寻找新的预测方式,而不是依赖显式监督。

Bonnie Webber 提出了隐式推理关系与显式关系共同存在的问题,她用填空任务实验来说明这一点。她还提到了使用神经网络进行句法解析似乎简单,其实并非如此,这是 Natalie Schluter 的观点,她证明了一种正式证明显示在指数时间猜想下,这样的算法无法小于三次方时间完成解码工作。

Gemma Boleda 讨论的是分布式表示中的通用信息与特定情境信息互动。她介绍了两个最新成果:识别语义漂移,以及 LSTM 模型中词汇模糊性的探测能力。

Reut Tsarfaty 引入了一些逻辑对话理论,比如不要让产出的结果增加不必要信息量,然后她列举了文本之间空元素,如去掉动词后的各种形式。此外,她还提到了人机对话需要发展更全面的方法,这是 Lucia Specia 的观点,她强调针对模态文本机器翻译是一种有效应对噪声输入的手段。

André Martins 提出了超越 Sparsemax - 自适应稀疏 Transformer 的想法,他引入一种替代 softmax 方法 sparsemax,它可以输出稀疏概率分布,同时保持损失函数凸性可微。Angela Fan 则从Transformer模型剪枝角度出发,她提出一种名为 LayerDrop 的方法,可以减少模型资源消耗而无需损失性能。而 Rico Sennrich 关心的是Transformer模型内部重要注意力头识别,以及如何剔除没有影响性能的大部分头部,而不会影响整体效果。这也是圆桌讨论的一部分内容,其中几个顶尖研究人员分享他们在学术界及工业界经验,并就两者的区别进行深入交流。

猜你喜欢