中新网首页| 安徽| 北京| 重庆| 福建| 甘肃| 贵州| 广东| 广西| 海南| 河北| 河南| 湖北| 湖南| 江苏| 江西| 吉林| 辽宁| 山东| 山西| 陕西| 广东| 四川| 香港| 新疆| 兵团| 云南| 浙江

“温度”有了,安全度如何提升
2017年07月04日 14:05   来源:文汇报  

人工智能正日渐渗入人类生活各个领域。图为上科大信息学院学生在试验自己研发的无人机。(上科大信息学院供图)

  “人工智能所涉及的安全问题,已经到了不得不考虑的时候了。”昨天,在上海科技大学举办的信息科学及技术国际学术年会上,顶尖人工智能专家认为,人工智能正日渐渗入人类生活各个领域,它会更具有情感和温度,但同时也将为人类社会带来严峻的安全挑战。

  人工智能逐步深入情感体验

  人工智能将不再是冷冰冰的。计算机视觉和图形学研究的世界级专家、美国工程院院士沈向洋介绍了微软的一款聊天软件“小冰”。目前市面上的人工智能对话软件数量并不少,但“小冰”的特点是能够感知对话者的情绪,所以可以更加深入地与人交流———甚至可以聊上两三个小时,而不只是简单完成指令。“过去六七年,科学家和工程师一直致力于将图像、语言、知识等进行融合。”他说,如今人工智能已在实现“把思想变语言”的梦想。

  曾有人说,计算机不可思议地迅速、精确,却愚蠢;而人类不可思议地迟缓、不精确,却聪明智慧;两者的结合将会获得超越现实的力量。这或许可以用来描述人工智能的发展方向。沈向洋说,如今的人工智能正在为计算机加入更多人性化的思维方式,比如,搜索“伊拉克的国土面积”,传统搜索给出的结果是一个精确的多少平方千米的数值,而人工智能则会在后面加上一句:“相当于一个加利福尼亚州的面积。”

  沈向洋说,“小冰”甚至可以理解到图片中内容所表达的情感,并将它们变成诗句。有趣的是,它已经出版了一本名为《阳光失了玻璃窗》的诗集。

  论坛上,当一些专家介绍着人工智能激动人心进展的同时,另一些专家则严肃地提出人工智能发展的瓶颈。美国工程院院士、“脸书”人工智能实验室主任杨·勒丘恩提出,现在机器学习的瓶颈在于,只会学习监督式数据,也就是说还需要靠工程师“喂养”。他认为,今后应发展“非监督学习”,让机器自动学习更多没有被处理和标记过的数据,比如随手拍下的照片等。这将会使机器的学习能力大大加强,也将解决机器不懂“人类常识”的弊病。

  未来互联网如果遭受攻击,损失的可能是真实的生命

  人工智能的发展,正不断挑战人们的想象力。当大家不时惊艳于它所带来的各种应用时,很多专家却警惕地提出了人工智能的安全问题———当由机器做决定的领域越来越多,它们是否会因为决断错误,而给人类带来伤害?如何防范人工智能系统被黑客攻破? 美国加州大学伯克利分校电子工程与电脑科学系教授宋晓冬说,这些问题应该从人工智能发展之初就加以研究考虑,解决了安全问题,才能让它更健康安全地发展。

  最近,美国食品药品监督管理局调整了审批规则,在批准新的医疗设备时,增加了对其软件和通信系统的审查。宋晓冬说,这在以前是没有的,因为有不少研究团队已经发现,越来越智能化的医疗设备中,存在不少安全漏洞,“这可能在今后造成不可想象的医疗事故,危及病人性命”。

  “在人工智能系统中,有一个以前软件所没有的层级———机器学习系统。”宋晓冬解释,这个系统究竟会出现怎样的安全问题,几乎还没人可以说清。比如,这个系统做出判断依赖于各种算法,如何确保这些算法不失误? 现在还远远没有形成标准。又如,如果黑客攻击人工智能系统,又会发生什么?现在互联网遭受攻击,遭到的损失可能是金钱、数据,可未来损失的则可能是真实的生命。她举例说,比如道路上有“停止”标记,在人眼看来没任何问题,可黑客可以动手脚,让无人驾驶汽车误以为那是“通行”标识,就可能导致车祸。

  “人工智能对人类社会提出的安全问题,与当年互联网刚兴起时十分相似。”宋晓冬说,系统安全的攻与防,犹如矛和盾,总是“道高一尺,魔高一丈”地相互较劲。好在有了互联网发展的经验,安全问题会在人工智能兴起之初就得到重视。她的研究团队目前已在构建一些具体的应用场景,模拟人工智能的学习架构,以此来寻找可能的安全问题,并加以解决。(文汇报记者 许琦敏)

注:请在转载文章内容时务必注明出处!   编辑:王丹沁

5
热点视频
阿拉微上海
上海新闻网官方微信
上海人、上海事。
专业媒体、靠谱新闻。
图片报道
本网站所刊载信息,不代表中新社和中新网观点。 刊用本网站稿件,务经书面授权。
未经授权禁止转载、摘编、复制及建立镜像,违者将依法追究法律责任。
常年法律顾问:上海金茂律师事务所