WAP手机版 RSS订阅 加入收藏  设为首页
申博正网代理
当前位置:首页 > 申博正网代理

申博正网代理:逻辑漏洞或bug导致机器人偏离了自学习的迭代过程

时间:2022/7/27 9:59:58   作者:   来源:   阅读:20   评论:0
内容摘要:冯华山表示,模型中可能存在逻辑漏洞或bug,导致机器人偏离了“自学习”的迭代过程,形成了一些棋书规则之外的游戏逻辑,偏离了人类对机器人的完全控制和常规理解。这就涉及到机器人伦理,要求人们严格监督和控制机器人的学习和进化过程。在这种情况下,机器人对人类有敌意的可能性很小。孩子手指的位置很可能就是机器人计算出的棋子的位置,...

冯华山表示,模型中可能存在逻辑漏洞或bug,导致机器人偏离了“自学习”的迭代过程,形成了一些棋书规则之外的游戏逻辑,偏离了人类对机器人的完全控制和常规理解。这就涉及到机器人伦理,要求人们严格监督和控制机器人的学习和进化过程。

在这种情况下,机器人对人类有敌意的可能性很小。孩子手指的位置很可能就是机器人计算出的棋子的位置,从而获得下一个动作。机器人形成运动轨迹指令后,孩子恰好用手指遮住棋子。因为机器人形成动作指令后,就不再根据视觉做出判断了。也就是说,机器人“认为”它拿着一个棋子,但它实际上是一个孩子的手指。这只是一个巧合。申博正网代理

马斯克和比尔·盖茨的警告

对机器人和人工智能的恐慌不仅仅来自于科幻电影。

特斯拉董事长兼首席执行官埃隆·马斯克表示:“发展人工智能就像召唤魔鬼。我认为我们应该非常小心,如果让我猜什么最有可能对我们的生存构成威胁,我会说它可能是人工智能。我越来越倾向于人工智能应该受到监管,无论是在国内还是在国际上,以确保我们不会做傻事。”

比尔·盖茨还说:“我是仍然关注超级智能发展的人之一。目前,取代我们的劳动力并完成许多任务的机器并不是超级智能。如果我们能做好管理,这样的发展会越来越好。然而,在几十年后,智能将带来新的问题。我非常同意马斯克的观点,但我不明白为什么人们现在不担心这个问题。”

马斯克还向一个专门用于人工智能领域安全研究的基金捐赠了1000万美元。

据了解,在1940年,被称为“机器人之父”的科幻作家阿西莫夫提出了机器人三大原理,并在国际上达成了共识:

首先,机器人不能伤害人类,也不能坐视人类受到伤害。

第二,机器人必须服从人类的命令,除非这些命令与人类的命令相矛盾。

第三,机器人必须保护自己,除非这种保护与上述两者相矛盾。

冯华山表示,如果违反“机器人三原则”,将人工智能应用于战争,将带来可怕的后果。更重要的是,如果机器人在自我学习的过程中失去或脱离了人类的监控,按照程序进行安排和进化,就有可能形成一种超出人类理解的内在逻辑,从而产生缺乏约束、失控、反人类的可能性。性。因此,遵守原则和国家规定对人工智能使用的安全至关重要。

如何控制人工智能的伦理安全?

从全球来看,美国政府更早关注这个问题。2016年在白宫文件中呼吁研究,在《美国国家人工智能研发战略计划》中明确提高公平性和可解释性,符合伦理和伦理设计,确保系统的安全性和可靠性等要求。

2017年,霍金、马斯克、DeepMind创始人德米斯等来自世界各地的数千名专家和企业代表签署了《Asiloma人工智能23项伦理原则》,呼吁业界遵守这些原则,共同保护人类未来的利益和安全。

中国人工智能协会基础委员会常务委员陈志成在接受中新社国实快报采访时表示,中国对人工智能伦理的重视也上升到了国家层面。

2019年2月,科技部部长王志刚宣布成立新一代人工智能治理专业委员会,并在第一届治理委员会第一次会议上讨论起草了人工智能相关技术标准和使用规范。2020年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理应遵循的8条原则:和谐友善、公平正义、包容。






本类更新

本类推荐

本类排行

本站所有站内信息仅供娱乐参考,不作任何商业用途,不以营利为目的,专注分享快乐,欢迎收藏本站!
所有信息均来自:百度一下(申博正网代理京ICP备16064127号-1