奇闻

作者:Agence France-Presse计算机在一场需要“直觉”的战略棋盘游戏中击败最好的凡人玩家,震撼了人类,它变得更加智能,它的制造商周三表示更令人吃惊的是,AlphaGo的更新版本完全是自学成才 - 他们在科学杂志“自然称为AlphaGo Zero”中报道了人类智能(AI)系统在几天内学会了掌握古代中国棋盘游戏的人体智能(AI)系统被称为“围棋” - 被认为是有史以来发明的最复杂的两人挑战该系统在短短几天内学会了掌握中国古代棋盘游戏“Go” - 据说是最复杂的两个人挑战有史以来发明了(法新社/马尼拉公报)它提出了自己的,新颖的举动来消除人类几千年来所获得的所有人类敏锐度仅仅三天的自我训练之后对AlphaGo的最终测试,它的前身已经取代人类最佳人类冠军AlphaGo Zero赢得了100场比赛的胜利,“AlphaGo Zero不仅重新发现了人类倾向于使用的常见模式和开口......它最终放弃了它们而不是自己的AlphaGo首席研究员大卫·西尔弗(David Silver)表示,这款拥有3000年历史的中国游戏使用黑白相间的石头在棋盘上进行游戏,其移动配置可能比原子中的原子更多

2016年3月,Universe AlphaGo以4比1的胜利震撼了世界头条,超过了18次Go冠军Lee Se-Dol,这场比赛的历史大师之一Lee的失败表明人工智能的进展比人们普遍认为的要快

时间谁呼吁规则,以确保强大的AI始终完全在人的控制之下今年5月,一个更新的AlphaGo大师计划在三场比赛中击败世界排名第一的科杰根据英国人工智能公司DeepMind的研究人员的说法,AlphaGo Zero并没有向人类学习,也不是通过与人类进行对抗来研究数千人类游戏中的数据,而不是人类约束

AI)开发系统的公司“所有以前版本的AlphaGo ......被告知:'好吧,在这个位置上,人类专家采取了这一特殊行动,而在另一个位置,人类专家在这里扮演',”Silver在一段视频中解释说提前AlphaGo Zero跳过这一步相反,它被编程为响应奖励 - 胜利的积极点与损失的负点从仅仅是Go的规则开始而没有指令,系统学习游戏,设计策略并改进因为它与自己竞争 - 从“完全随机游戏”开始,弄清楚如何获得奖励这是一个试错过程,被称为“强化l”收入“与其前辈不同,AlphaGo Zero”不再受人类知识限制的限制,“Silver和DeepMind首席执行官Demis Hassabis在一篇博客中写道,令人惊讶的是,AlphaGo Zero使用了一台机器 - 一个人类大脑模仿”神经网络“ - 与击败李的多机器“大脑”相比,它有四个数据处理单元,相比AlphaGo的48个,并且在三天内播放了4900万个训练游戏,相比之下,几个月内有3000万个训练游戏开始结束

“人们倾向于认为机器学习完全是关于大数据和大量计算,但实际上我们用AlphaGo Zero看到的是算法更重要,”Silver表示,调查结果表明基于强化学习的人工智能比那些更好

依靠人类的专业知识,密歇根大学的Satinder Singh写了一篇同样由Nature撰写的评论“然而,这并不是任何目的的开始,因为AlphaGo Zero与所有其他成功的AI一样,在它所知道的内容中非常有限与人类甚至其他动物相比,它可以做些什么,“他说AlphaGo Zero自身学习的能力”可能看起来非常自主“,牛津大学人类未来研究所的Anders Sandberg补充说但是有一个重要的区别他告诉法新社,“人类拥有的通用智能和计算机软件的专业智能之间” “DeepMind在过去几年中所展示的是,人们可以制作可以变成不同领域专家的软件......但它并不会变得普遍聪明”也值得注意的是,AlphaGo并不是自己编程,桑德伯格说道

让零更好的见解是由于人类,而不是任何软件表明这种方法会很好我会在发生这种情况时开始担心“标签:AlphaGo,AlphaGo Zero,人工智能,David Silver,人类专家,马尼拉公报,自学成才的“超人”AI现在更聪明:制造商,战略棋盘游戏