当前,人工智能的计算力、识别力快速发展,但想象力、创造力仍处瓶颈。为破解这一局限,科学家设计出一套类似“猫鼠游戏”的技术,让人工智能在自动学习中变得更“聪明”。
这种技术被称为“对抗性神经网络”技术,美国《麻省理工学院技术评论》日前将其评为2018年“全球十大突破性技术”之一。
人工智能的识别能力有赖于海量样本学习,比如给它“看”数以百万计的鸟类图片,它才能“学会”辨认鸟类,而生成逼真的鸟类图像则更难。其局限性在于,有些事物缺乏海量样本,而且这种学习还依赖人类的“灌输”,缺少自主性。这限制了人工智能的发展,特别是向想象力、创造力这种更高层次的进阶。
美国人伊恩·古德费洛2014年在加拿大蒙特利尔大学读博士时想出一套设计方案:用两个神经网络,进行数字版的“猫鼠游戏”——一个负责“造假”,一个负责“验真”,从而在对抗中不断提高。
负责“造假”的神经网络称为“生成网络”,它依据所“见过”的图片来生成新图片,这需要它总结规律、发挥想象力和创造力;负责“验真”的神经网络称为“判别网络”,它需要凭训练累积的“经验”,来判断某张图片是真实事物,还是生成网络“自创”的“假货”。
生成网络并非一开始就足够“聪明”,比如它可能“认为”鸟类会有3条腿,这样的“假货”当然很容易被发现。但随着机器学习的不断深入和反复对抗练习,生成网络对事物的理解越发深刻,最终生成足以“以假乱真”的作品。
这样的神经网络具有广泛应用价值。比如在自动驾驶领域,人工智能如果创造出海量接近真实的合成图片,包含各种情形下的行人、障碍物等路况,自动驾驶系统使用这些图片展开自我训练,将有助于大幅提高应用性。
香港中文大学教授李鸿升认为,除了在机器翻译、人脸识别、信息检索等诸多方向的具体应用,对抗性神经网络的价值和意义还在于其蕴含的对抗性思想,这有助于改进现有人工智能算法。
从技术上看,对抗性神经网络已经接近成熟。来自美国芯片企业英伟达的研究人员用明星照片训练出一套系统,进而生成了数百张根本不存在、但看起来很真实的人脸照片。还有研究团队让系统生成出看起来十分逼真的梵高油画。
展现巨大潜力的同时,这项技术发展带来的负面影响也不容忽视。比如不法分子可能利用此类系统制造出图片甚至视频来混淆视听,给监管、安全带来新挑战。古德费洛就表示,他当前的研究重心就在于避免这类技术的滥用问题,希望它“不至误入歧途”。
中国科学院自动化研究所副所长刘成林介绍说,中国的研究机构目前致力于研究对抗性神经网络理论的进一步改良及优化。对抗性神经网络的理论基础、算法和应用,都还有很大的发展空间。
中国企业界则更倾向于把技术应用在服务中,并在一些领域达到了业界领先。比如,百度利用这项技术构建语音识别框架,阿里云城市大脑则借此技术生成训练数据集以优化车牌精准识别功能。(刘石磊)
(责任编辑:沈晔)