围棋人机对弈,人类和AI再弈围棋

围棋人机对弈,据英国《金融时报》2月17日报道,一名人类围棋选手在比赛中以15:0的悬殊比分击败一个顶级人工智能系统。在以ChatGPT为首的人工智能大火的今天,这条消息仿佛一条fake news。

围棋人机对弈

遥想2016年,谷歌围棋人工智能“阿尔法狗”(AlphaGo)以4比1的成绩战胜世界围棋冠军李世石,那场人机大战可是人工智能史上的里程碑事件。后又有围棋高手柯洁几次大战阿尔法狗,战绩都不甚理想。

而在阿尔法狗“归隐”的数年间,新一代的人工智能竟0分落败,甚至这位战胜AI的Kellin Pelrine仅只是一位美国业余围棋选手。他在与名为Leela Zero的AI公平对弈的情况下,连胜15盘(实质上是14盘,有1盘作为测试,借助了电脑)。是Kellin Pelrine将以超凡棋艺举起人类反抗AI的大旗,还是AI技术反而退步了?

01、人类完胜AI?

在我们以为看到了一缕人类战胜AI的微光时,现实将我们打回谷底。实际上,被Pelrine打败的AI围棋机器人,棋力与AlphaGo不相上下,而Pelrine之所以能轻易以如此漂亮的战绩打败AI,其实是因为此前他用另一台计算机程序搜寻了围棋人工智能系统的弱点,找到了AI的漏洞击败了顶级AI围棋机器人Leela Zero。

围棋人机对弈

实际上,发现AI漏洞的也是AI。Pelrine背后是美国公司FAR AI,这家公司开发了一个发掘bug的围棋AI,然后让它和AI围棋机器人下了一百多万盘棋,专门寻找可以让人类棋手利用的盲点。结果真的找到了AI的盲点:AI棋手分不清“声东击西”。

简单来说,一个AI找到了另一个AI的漏洞,然后人类用这个漏洞击败了AI。像极了某些科幻电影中,一个跳反AI从其他AI手中拯救人类的桥段。

在找bug的过程中,AI会被边缘和角落的落棋吸引注意力,注意力被分散的同时棋手将中央的棋子串成一个大圈来包围AI棋手。对于人类来说,这是个难登大雅的小伎俩,但AI很难注意到自己正在一步步落入陷阱。

02、深度学习技术存在缺陷

这次事件暗示了驱动AI的深度学习技术存在缺陷。深度学习技术是人工智能的核心,是一种以人工神经网络为架构,对数据进行表征学习的算法。

通俗来讲,就是你给它什么,他学习什么。目前深度学习技术应用在大多数人工智能产品上,比如自动驾驶、视觉识别、机器人,和最近大火的ChatGPT等等。

围棋人机对弈

这种技术的特点是,虽然学习速度快,但不会判断数据准确性,也无法像人类一样举一反三。深度学习可以在不理解数据的情况下模仿数据中的内容:它不会否定任何数据,不会发现社会上的偏见,而只是“学习数据”。

去年一位国外人工智能研究者利用将网络上著名的喷子、粪坑论坛板块“4chan /POL/”(/POL/为Politically Incorrect的缩写,即“政治不正确”)的数据作为人工智能的深度学习模型,训练出了一个满嘴种族歧视、仇恨偏见、疯狂带节奏的“史上最糟AI”GPT-4chan。这个糟糕AI在网络上疯狂发帖1.5万条,几乎没有被网友认出这不是真人。

围棋人机对弈

深度学习的另一大缺点是,不懂变通和举一反三。加州大学伯克利分校计算机科学教授Stuart Russell指出AI只能“理解”它们过去遇到的特定情况,而无法像人类一样进行“概括”。

在围棋人机对弈中,深度学习只能让AI“理解”它们过去接触过的特定棋势,当棋盘边缘有下棋动作时,AI会同往常一样做出下一步反应,对于未接触过和训练过的人类策略和陷阱无法识别,因此无法像人类一样看穿伎俩,举一反三。

03、AI面临的安全问题

当前主流的利用深度神经网络学习等技术具有的“黑箱属性”,导致AI算法存在不可解释性,这也为人类使用AI带来了难以预知的安全风险。

随着神经网络模型结构越来越复杂,模型越来越大,参数越来越多,这些模型中的逻辑错误和漏洞就更加难以被发现。一旦漏洞遭到攻击,后果难以想象。

例如人脸识别系统的漏洞如果被发现,在人脸照片上添加少量干扰或将对抗补丁打印制作后由真人佩戴,就能欺骗人脸识别系统。在自动驾驶系统中,修改障碍物参数、加上干扰因素使系统无法识别障碍,存在巨大安全隐患。

围棋人机对弈

除了AI技术本身的问题外,数据安全也是发展中的难点。目前的人工智能应用往往绑定了个人隐私、商业机密信息等,在AI落地的过程中,就可能在数据应用或者流通环节造成信息泄露。

另外,AI技术滥用也是目前存在的普遍现象。前段时间大火的AI作画将大量艺术家的绘画作品作为样本进行训练,开发者为了盈利,将AI生成画作的权限下放至每一个用户。大量拼凑的AI画作产生,无数职业插画师开始抵制甚至起诉版权问题。

美国版权局称AI作画不受版权保护,这意味着利用AI抄袭和拼凑别人的作品进行变现被默认合法。类似的还有AI换脸等应用,利用换脸入侵人脸识别系统,后果难以想象。防范AI滥用,是整个人工智能应用环节必须要关注到的安全风险。

围棋人机对弈

04、提前应对AI安全隐患

云集众多技术大佬的OpenAI在创立之初就将防范AI危险作为自己的宗旨之一,可见AI技术背后隐藏的风险程度。

虽然AI技术尚未完全成熟,但应对措施仍应当被提前讨论。首先,安全漏洞本质上是因技术不成熟导致的,因此技术上的完善是所有举措中最庞大最艰巨的任务。其次是需要加强信息监管,建立标准化的人工智能质量管理认证体系,保障技术安全和数据安全。最后,我国在人工智能领域相关的法律仍处于缺失状态,推动立法,由法律来保障和约束人工智能在未来拥有良好的发展环境。

最后,既然AI是从现有数据,和从用户沟通过程中学习数据,那么也许我们从现在开始,就应当对AI表达出起码的善意。

创业项目、电商、短视频、自媒体等VIP教程,添加微信:1480998277  备注:学习

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2511786901@qq.com 举报,一经查实,本站将立刻删除。
如若转载,请注明出处:https://www.jiajia17.com/8048.html

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

My title