办事指南

谷歌致力于“杀戮开关”,以防止终结者风格的机器人大灾难

点击量:   时间:2019-01-03 01:16:00

<p>谷歌正在研究一种“杀戮开关”,以阻止智能机器人开启他们的人类主人</p><p>近年来,对于疯狂机器的威力的担忧一直在增长,科技先驱埃隆马斯克和斯蒂芬霍金教授都警告人类与我们的超智能硅创作之间的终结者式战争的可怕可能性</p><p>现在这家搜索引擎巨头已经发表了一篇论文,概述了英国人工智能(AI)团队Deep Mind团队正在采取的措施,以确保人类不被金属拳头冲走</p><p> Deep Mind开发算法,允许机器人直接从原始经验或数据中学习</p><p>该团队正在开发一种方法来阻止人工智能学习如何防止人类停止活动 - 例如,发射核武器 - 一个称为“安全中断”的过程</p><p>阅读更多:现实生活中的RoboCop将在街道上巡逻而不是人类警察“安全中断可能有助于控制行为不端的机器人,可能导致不可逆转的后果,或者将其带出微妙的情况,或者研究人员写道,即使暂时使用它来完成一项它没有学会执行的任务,也不一定会获得奖励</p><p>上个月,一对学者勾勒出了一个可怕的未来愿景,其中“超级智能”机器向人类宣战,然后着手将我们从地球上抹去</p><p>阅读更多:机器人大战!俄罗斯推出名为“钢铁侠”的人形超级英雄路易斯维尔大学的罗曼五世Yampolskiy和独立研究员Federico Pistono表示,计算机可以通过消灭人类来实施“杀戮”</p><p>这可以通过炸毁原子能发电厂,用我们最强大的武器来核对我们,控制世界上所有的军用无人机或进行其他一些卑鄙的破坏行为来实现</p><p> 1942年,科幻作家撰写了“机器人三法则”,这是一套防止机器人伤害人类的规则</p><p>它们是:1</p><p>机器人不会伤害人类,或者通过不作为,允许人类受到伤害</p><p> 2.机器人必须遵守人类给予的命令,除非这些命令与第一定律相冲突</p><p> 3.只要这种保护不与第一或第二法相冲突,