围棋人机对弈,据英国《金融时报》2月17日报道,一名人类围棋选手在比赛中以15:0的悬殊比分击败一个顶级人工智能系统。在以ChatGPT为首的人工智能大火的今天,这条消息仿佛一条fake news。
而在阿尔法狗“归隐”的数年间,新一代的人工智能竟0分落败,甚至这位战胜AI的Kellin Pelrine仅只是一位美国业余围棋选手。他在与名为Leela Zero的AI公平对弈的情况下,连胜15盘(实质上是14盘,有1盘作为测试,借助了电脑)。是Kellin Pelrine将以超凡棋艺举起人类反抗AI的大旗,还是AI技术反而退步了?
01、人类完胜AI?
在我们以为看到了一缕人类战胜AI的微光时,现实将我们打回谷底。实际上,被Pelrine打败的AI围棋机器人,棋力与AlphaGo不相上下,而Pelrine之所以能轻易以如此漂亮的战绩打败AI,其实是因为此前他用另一台计算机程序搜寻了围棋人工智能系统的弱点,找到了AI的漏洞击败了顶级AI围棋机器人Leela Zero。
简单来说,一个AI找到了另一个AI的漏洞,然后人类用这个漏洞击败了AI。像极了某些科幻电影中,一个跳反AI从其他AI手中拯救人类的桥段。
在找bug的过程中,AI会被边缘和角落的落棋吸引注意力,注意力被分散的同时棋手将中央的棋子串成一个大圈来包围AI棋手。对于人类来说,这是个难登大雅的小伎俩,但AI很难注意到自己正在一步步落入陷阱。
02、深度学习技术存在缺陷
这次事件暗示了驱动AI的深度学习技术存在缺陷。深度学习技术是人工智能的核心,是一种以人工神经网络为架构,对数据进行表征学习的算法。
通俗来讲,就是你给它什么,他学习什么。目前深度学习技术应用在大多数人工智能产品上,比如自动驾驶、视觉识别、机器人,和最近大火的ChatGPT等等。
去年一位国外人工智能研究者利用将网络上著名的喷子、粪坑论坛板块“4chan /POL/”(/POL/为Politically Incorrect的缩写,即“政治不正确”)的数据作为人工智能的深度学习模型,训练出了一个满嘴种族歧视、仇恨偏见、疯狂带节奏的“史上最糟AI”GPT-4chan。这个糟糕AI在网络上疯狂发帖1.5万条,几乎没有被网友认出这不是真人。
在围棋人机对弈中,深度学习只能让AI“理解”它们过去接触过的特定棋势,当棋盘边缘有下棋动作时,AI会同往常一样做出下一步反应,对于未接触过和训练过的人类策略和陷阱无法识别,因此无法像人类一样看穿伎俩,举一反三。
03、AI面临的安全问题
当前主流的利用深度神经网络学习等技术具有的“黑箱属性”,导致AI算法存在不可解释性,这也为人类使用AI带来了难以预知的安全风险。
随着神经网络模型结构越来越复杂,模型越来越大,参数越来越多,这些模型中的逻辑错误和漏洞就更加难以被发现。一旦漏洞遭到攻击,后果难以想象。
例如人脸识别系统的漏洞如果被发现,在人脸照片上添加少量干扰或将对抗补丁打印制作后由真人佩戴,就能欺骗人脸识别系统。在自动驾驶系统中,修改障碍物参数、加上干扰因素使系统无法识别障碍,存在巨大安全隐患。
另外,AI技术滥用也是目前存在的普遍现象。前段时间大火的AI作画将大量艺术家的绘画作品作为样本进行训练,开发者为了盈利,将AI生成画作的权限下放至每一个用户。大量拼凑的AI画作产生,无数职业插画师开始抵制甚至起诉版权问题。
美国版权局称AI作画不受版权保护,这意味着利用AI抄袭和拼凑别人的作品进行变现被默认合法。类似的还有AI换脸等应用,利用换脸入侵人脸识别系统,后果难以想象。防范AI滥用,是整个人工智能应用环节必须要关注到的安全风险。
云集众多技术大佬的OpenAI在创立之初就将防范AI危险作为自己的宗旨之一,可见AI技术背后隐藏的风险程度。
虽然AI技术尚未完全成熟,但应对措施仍应当被提前讨论。首先,安全漏洞本质上是因技术不成熟导致的,因此技术上的完善是所有举措中最庞大最艰巨的任务。其次是需要加强信息监管,建立标准化的人工智能质量管理认证体系,保障技术安全和数据安全。最后,我国在人工智能领域相关的法律仍处于缺失状态,推动立法,由法律来保障和约束人工智能在未来拥有良好的发展环境。
最后,既然AI是从现有数据,和从用户沟通过程中学习数据,那么也许我们从现在开始,就应当对AI表达出起码的善意。
如若转载,请注明出处:https://www.jiajia17.com/8048.html