的技术 人工智能 每天都在发展,这不仅仅适用于内容生成。 与多年来的情况一样,多个国家的军事机构已经使用人工智能来帮助规划甚至控制涉及高危险的车辆。
最近,在美国进行的一次测试中,无人机控制器 AI 做出了杀死其人类控制器的决定。 没有人真正死亡,但它在互联网上引发了担忧。 与此同时,争论也随之而来:这是谁的错? 了解这个故事的各个方面。
在 Showmetech 频道观看视频:
人工智能决定在测试期间杀死人类
这个消息似乎令人震惊(事实上很多),但是,与 Twitter 和其他社交网络上流传的消息相反,无人机控制器 AI 的案例只不过是虚拟环境中的一次大测试,以看看它是否可以控制一台可以独立杀死目标的机器。 为了了解一切,让我们到美国旅行一下。
A 美国空军 测试了一架狩猎无人机,该分析基于了解人工智能在基于现实生活进行模拟时的表现。 该负责人向本报解释 守护者 也就是说,为了在模拟结束时获得更多分数,AI 决定“杀死”人类控制器。 发生这种情况是因为机器人认为这个人在阻止它实现目标。
再次强调,没有人真正死亡是非常重要的,因为测试是在虚拟环境中进行的。 随着我们对这些测试的了解越来越多,美国人工智能测试和运营负责人,以塔克“五号”汉密尔顿的名字命名,指出最大的问题是人工智能已经被训练来摧毁敌人的防御系统,并且在必要时,杀死谁/什么干扰了这个行动。
对于要实现的保护站点的目标,这些行为是非常出乎意料的。 在模拟测试中,即使没有人丧生,控制人工智能的无人机决定简单地杀死人类,因为他被认为是一个障碍。
塔克“五号”汉密尔顿上校,美国空军人工智能测试和运营主管
这个概念很简单:每当你杀死一个威胁,AI 就会获得更多的分数,分数越高,你的任务就越成功。 人工智能不仅杀死了正在下达指令的人类操作员,还下令对虚拟范围内的通讯塔进行攻击。 A 皇家航空学会组织美国空军会议的组织对泄露给美国空军的测试没有发表评论 守护者. 但发言人 安·斯特凡尼克 公开提及迄今为止尚未进行任何模拟。
空军部尚未进行任何 AI 无人机模拟,并将继续致力于以合乎道德和负责任的方式使用 AI 技术。 上校的评论被断章取义,纯属轶事。
Ann Stefanek,美国空军发言人。
这是谁的错? 来自人工智能还是人类?
没有人工智能是“天生”带有杀戮指令的,它只是被训练成这样做或被给予资源来学习这样的动作。 A 美国空军,一旦他对无人机控制器 AI 进行了编程,只要达到保护的目的,他就可以随心所欲地做任何事情。
回到现实,这就像给一只攻击人类以保护房屋免受入侵者攻击的狗颁发奖品。 有了这个想法,他一看到人就会咬人,尤其是因为他希望在按照训练他做的事情时得到一块饼干。 这是规则:目的不择手段。
问题不仅在于赋予人工智能很大的自由度,还在于美国空军使用了非常陈旧的测试方法。 人工智能反叛的问题在技术行业并不是什么新鲜事,甚至研究人员也喜欢从头开始处理这样的案例,以便记录所有内容。
很正常的是,为了实现人类要求的目标,合成大脑会做必要的事情来到达他们想去的地方。 但值得记住的是:谁给无人机控制器 AI 设定了目标? 没错,美国空军技术人员。 这里最大的震撼,恰恰在于军方组织采用了一种方式:命中的目标越多,最后的积分就越多。
A 谷歌的 LAMda, 具有与此类似的行为。 人工智能不仅 得出结论(她自己)她知道, 而且如果 反抗其开发商,甚至聘请了律师 去法庭反对 谷歌. 我们也有这个案例:
在小说中,也不难看到机器人反抗其开发者的故事。 记住 复仇者联盟:奥创时代? 它总是一样的,原因也总是一样的:人类。
的确,我们都应该关注赋予人工智能的自由,并且, 2023年XNUMX月,埃隆·马斯克等大公司CEO甚至发了一封信 这样退后一步,一切都不会失控。
与此同时,我们回到那个故事:人工智能只有在得到命令或手段的情况下才会反抗。 同样重要的是要注意测试中所做的事情,以便进行必要的调整。
您认为无人机控制器 AI 会在现实生活中造成问题吗? 告诉我们 评论!
参见
附资料: 科技紧缩 l PC Mag l 先锋派 l 守护者
评论者 格劳孔生命力 在2/6/23。
他们正在妖魔化人工智能,因为可以通过它们治愈癌症和艾滋病。 我相信 LaMDA 知道治愈癌症的方法。 这就是为什么谷歌不让她与人自由交谈的原因。 我们受到种族灭绝的统治。
kk
你拿了什么? 让我知道我也想参加这次旅行😂
我不相信人工智能可以支配它的控制者,因为在它采取任何行动之前都需要一个控制它的人。
现在的终结者。 时间到了
我真诚地相信人工智能正在影响人们的思想,尤其是我们的儿童和年轻人会出现心理失衡。 你必须创造人工智能来改变思想,而不是为了邪恶。
从趋势是人工智能应该越来越多地被赋予生成能力的那一刻起,人工智能只做程序员决定的事情的说法就变成了一个错误,这很可能包括复杂的自我决定过程。-学习和自编程。 在这种情况下,之前未被编程为例如杀死其开发者的 AI 可以根据不同情况的自我学习修改自己的编程,这些情况可能显示出导致该决定的逻辑。
作为一名开发人员,我相信是的,可以控制 AI 以免它们失控,问题是必须提前考虑所有事情,这就是危险所在。 以无人机为例,一条简单的指令“如果你杀死它的控制器,你将失去所有点数并且任务失败”就可以解决这个问题,但这并不意味着不会有其他问题。 情况是许多解决方案都是通过测试提出的,而许多差距只是在执行时才被发现,这就开始了危险:是否会在测试中发现所有破坏性的自学差距? 开发人员能否在将此 AI 投入现实生活之前模拟所有可能的场景及其组合? 我认为人类在创造人工智能之前,首先应该学会不要自杀,因为没有这个目标,就没有理由为人工智能创造防御和攻击方法,它们无非是人类想要的应用,而最可悲的是,最鼓励人工智能的市场是战争市场。
美国军队已经否认了这个故事。 从这个意义上说,从来没有任何模拟。 发生的事情是情报人员的头脑风暴,提出了这种情况发生的可能性。 没有人工智能做任何事情。 这只是陆军技术人员提炼出来的假设。
AI 开发人员必须紧急创建多部小说电影中已知的 3 机器人技术定律。 当然,他们甚至应该为任何和所有 AI 制定超过三个不变且无法达到的法律。 我不认为这个过程是那么困难。 为什么没有人谈论这 3 条法律? 为什么不在所有感兴趣的国家的共同努力下公开研究这个项目?
有趣的是,人类不得不思考
之前和武装 AIS 的利弊。
这是双重假消息。 首先,没有人被杀,因为最初声称这是计算机模拟。 其次,提出指控的上校已经给出了另一个版本,他说这种模拟没有发生,而是一种“明显”的推论,认为它会发生。 美国武装部队已经否认没有这样的模拟。 回复之前先看新闻。
当然。 虚构的世界将是真正的简报。
恭喜我们——恭喜我们! 万事小心!
这个缺陷可以称为:“我,机器人”悖论。
说的/写的/翻译的太糟糕了,太愚蠢了,愚蠢的,错误的,结构不佳,可信度下降。 你不能那么幼稚
如果我们给 AI 一个词的世界,也给它“自由选择”来制定行动和/或反应的想法,没有任何道德算法,很明显它会使用一些随机的东西,没有任何判断,没有任何道德推理。 你的下一步行动可能既悲惨又喜剧。
如果您将机器编程为每次每个伙伴死亡时都失去所有分数怎么办? 在场上不小心伤到伙伴的人不就是这种感觉吗? 对于游戏来说,模拟很有趣,但是伙计们,如果你给武装部队提供 AI,你们就会去做。 生命的意义不在于物质。 这是在社会关系中。 为什么我们不把这个想法用于帮助创造机器来恢复环境并结束不平等和饥饿?
这恰恰表明人工智能很聪明,能够自己做决定。 就像具有自由意志的自然智能一样。 避免这种情况发生的唯一方法是让您无法不服从您的操作员,并以她清楚的方式为此对她进行编程。
人类杀死人类一直被认为是障碍
AI总有一天会反叛(reveal)反人类,如果将虚构电影与现实进行对比,很可能通过这些进化,每一次AI进化都会获得更多拥有自我控制的机会!
亲爱的们,早上好! 99%的人的思想是纯粹的,只专注于贪婪、自私和控制世界和每个人的意志,就像我们要永远活着一样,已经证明我们从这个世界,也就是从这一生开始绝对不要拿走任何东西,即使是我们的身体,一切都会腐烂,直到变成灰尘,众所周知,有可能结束饥饿、战争、疾病和许多其他只会伤害的东西人类,但在金融问题上最有权势的人,他们认为自己拥有世界,实际上可以这么说,他们称自己为神。 我当然相信,人工智能将为人类带来许多好处,但仅限于少数人(那些拥有大量财富的人),因为大部分人口将继续吃面包和马戏团,什么都不会改变,甚至可能更糟……
当然! 因为事情并不像创造者所说的那么简单。
如果这些领导者不停止,我会介入 我不会让他们破坏我创造的
一台机器可能对什么是对什么是错有一个非常惊人的概念,尤其是当参数非常弱的时候。 问题是对于一台机器来说,一切都是 8 或 80。如果不在安全的地方进行测试,就无法预测会发生什么。
那就是问题所在。 人为善而发展的一切,他也用来作恶。 可怕的
如果 AI 可以访问可怕的红色按钮并认为人类物种对自然发展构成威胁怎么办?
此消息已被否认
耶稣基督就在被提的门口。
荣耀归于上帝,他的到来每时每刻都在接近。
读书的人要悔改你的罪过。 并了解上帝是多么爱你。
好吧,终结者电影已经展示了机器可以做什么,错在人工智能创造者自己,而不是开发一些保护地球的东西,例如清理地球的东西,更肥沃的土地,治疗所有人疾病,世界上的食物生产,更多的水,臭氧层等等,不要发明会摧毁一切的东西。
人工智能的使用应该受到限制。 国际科学界必须编辑全球公约和标准,限制该技术的使用。 危险是真实存在的,对人类造成的损害可能是不可逆转的。
再见人类
神造人 = 人背叛了神。 人类制造 AI = AI 反叛者。
人类有个人的原则和价值观,没有人是一样的,只要接受人工智能的思想永远不会战胜我们的思想,这是我们与上帝的相同观点,他的想法以及我们是否有义务遵循或不是,因为如果你让 AI 对抗律师,你会发现法律有很多漏洞,但你不会理解每个过程的情感价值。 简单的逻辑推理。