首届欧洲NLP会议EurNLP2019:智慧盛宴展开
在深度学习的热潮中,人工智能各领域生机勃勃,学术会议接踵而至。今年十月上旬,在甘肃敦煌举办的中文语言计算大会刚落幕,首届欧洲NLP会议EurNLP就在英国伦敦11日拉开帷幕。这次为期一天的会议吸引了约200人参与,有179篇论文投稿,其中57篇被接受(接受率31.8%)。议程包括大会报告、四场论文报告和圆桌讨论,以及一个自由交流的论文海报环节。
德国达姆施塔特工业大学Wei Zhao亲临现场,与哈尔滨工业大学Haixia Chai共同撰写了参会见闻,这里我们为您总结一些亮点:
Vera Demberg探讨了人类标注中的不统一问题,并研究如何通过系统化和时间上的变化来解决这一问题。
Dirk Hovy强调了模型偏倚的问题以及过去几十年AI发展历程,从启发式到神经网络模型。
Joakim Nivre回顾了依存句法分析历史,并提出未来可能需要新的结构预测方法,不再需要显式监督。
Bonnie Webber提出了隐式论述关系与显式关系共存的观点,并通过实验表明这一点。
Natalie Schluter证明基于图神经网络解析器无法在小于三次方时间内完成解码算法,并讨论其计算复杂性问题。
Gemma Boleda介绍了一些分布式表征中的通用信息与特定情境信息互动研究成果,如短期含义漂移和词汇模糊性探测。
Reut Tsarfaty分享了逻辑对话问题,比如空元素计划,以及去掉动词后的多种形式可能性展示。
Lucia Specia谈到了针对模态文本的人机对话挑战及多模态学习解决方案之需,如ACL 2019 论文所示。
André Martins介绍超越Sparsemax - 自适应稀疏Transformer,而Angela Fan则剖析Transformer模型剪枝策略LayerDrop等减少资源消耗的手段并分享新见解,如DistilBERT、TinyBERT等压缩技术进展。
10.Rico Sennrich探究Transformer模型重要注意力头识别及其应用,以提高性能,同时考虑可靠性的考量。最后,他还分享了一些关于不同目标训练下Transformer表现差异的情况分析。
圆桌讨论部分,来自欧洲顶尖NLP研究人员分享经验心得并就学术界与工业界工作区别进行深入探讨。