• 学园简介_真人炸金花app
  • 招生招聘_真人炸金花下载
  • 董事简介 董事简介
从而实现对人类的无限期压迫
文章来源:未知 发布时间:2021-06-03 15:31 已被浏览

人工智能武器是一种智能武器,具有高效指挥、精确攻击、自动操作和智能行为的特点,在未来军事领域将占据重要地位。它能“有意识地”发现和识别需要打击的目标,并具有识别自然语言的能力,因此是一种“思维”武器系统。智能武器的危险在于,软件工程师可以很容易地对其重新编程,使其成为杀死无辜者的机器。最近很多知名人士都表示了对人工智能武器的抵制,但他们给出的理由都比较偏颇,认为机器人总有一天会控制人类。这种说法其实是不合理的,至少短期内是这样。大卫·彼得森写了一篇文章“真正的威胁:黑仔机器人还是黑仔人类?”,表达了他的观点,他认为机器本身并不可怕,真正的威胁在于人类。AI Frontline为读者整理了这篇文章。

根据美国总统唐纳特·特朗普在推特上的声明,不如动物的阿萨德发动了令人发指的毒气袭击,造成至少40人死亡,所有人嘴里都有气泡。

对手无寸铁的平民发动的化学武器造成了他们地区所有生物的死亡。虽然这些武器被归类为大规模杀伤性武器,但我们警告不要使用继火药和核武器之后的另一种被称为“第三次战争革命”的武器:人工智能武器。

在新纪录片《你信任这台电脑吗?《你信任这台电脑吗?埃隆·马斯克警告说,人工智能的独裁时期将远远超过人类历史上任何一个政权,从而实现对人类的无限压迫。”你将有一个永远的独裁者,我们永远也逃不掉。“马斯克指出,过去那些邪恶的独裁者,比如阿道夫·希特勒,只有有限的能力,因为他们是人。如果是邪恶但超智能的电脑控制了局面,那就不是这样了。

在这部历时一个多小时的纪录片中,出现了很多人工智能方面的专家,普及了人工智能是什么,能做什么,但这部纪录片提出了错误的观点。

AI前线注意:“你信任这台电脑吗?《你信任这台电脑吗?)是电影制作人克里斯·佩恩的最新作品,讲述了AI已经开始重塑我们生活的方方面面,从工作自动化到医疗诊断,甚至军事行动,地球上的每个行业都在发生着变化。埃隆·马斯克在推特上强烈推荐它,4月初,他付费让它在网上免费提供:

人工智能可以训练成比人类更高效。这种训练可以是监督训练,也可以是无监督训练,但最终归结为“模式识别”。人脸组成的识别模式(即人脸识别模式)可以区分猫和狗,确定正确的识别路径。

在围棋和扑克比赛中,人工智能已经能够击败人类,而要做到这一点,人工智能只需要看着人类如何进行百万次的比赛。人工智能诊断肺癌的准确率比人类放射科医生高50%,但开发人员对此知之甚少。此外,人工智能还在综艺节目《危险边缘》中与人类对抗,先后击败最高奖得主布拉德·鲁特和连胜纪录保持者肯·詹宁斯赢得比赛。

然而,人工智能并不知道它在做什么。人工智能不知道系统,它只知道如何工作。它不理解“为什么”,只理解“什么”,这是本文的核心。

无人机(UAV)可以通过建筑物,定位目标个体的准确位置,精确斩首目标个体。但是如果目标戴着头盔呢?如果目标使用了面具呢?这不是简单的打败了无人机群的面部识别模式吗?人工智能可能连这些目标都认不出来是人,会错过目标,因为人工智能只能匹配它训练的数据。

人工智能没有目的,它只是一台能很好地完成人类分配的任务的机器。恶意在于那些分配任务的人。

人工智能解决的任务对人类来说几乎是不可能的。如果有人想给系统编程来解决这个任务,需要几百万行代码,需要几年才能完成。人工智能(尤其是深度学习)提供了一个捷径:受人脑工作模式的启发,这个系统其实可以自行编程。它研究数以百万计的数据,并调整它们的权重以获得最佳结果。所以,没有人真正懂得人工智能的编程,我们只是训练人工智能。这是人工智能的神秘之处之一,因为没有人知道什么是人工智能。

人工智能可以响应自然语言查询,但不能理解正在说什么。它可以做情绪分析,但不能理解情绪。现在的人工智能系统擅长完成特定的任务,但并不像人脑那样是一个整体。

虽然这不是在某些领域产生高效结果的必要条件,但我们的结论是,人工智能没有意图——只有人类才有。

“智能爆炸”理论声称,如果我们创造出一个超级智能的机器,那么这个机器可以设计出更好的机器,人类的智能就会被甩在后面。用欧文·约翰·古德的话说:“因此,第一台超级智能机器将是人类的最后一项发明。”

AI前线注意:数学家欧文·约翰·古德在1965年发表的一篇题为《关于第一台超智能机器的猜想》的文章中提出了“智能爆炸”的概念,预言计算机将在各方面超越人类智能。

但弗朗索瓦·乔莱特认为,没有所谓的“聪明爆炸”。他说:“我们的大部分智力不在大脑中;它是以书籍、计算机、数学、科学、互联网为形式的智能假体,体现在我们人类的文明中。这些是我们今天的大部分认知能力。”他接着说,“没有人,没有我们所知道的代理人,能设计出比他自己更聪明的东西。我们所做的是逐步共同构建一个比我们自己更大的外部问题解决体系。”他指出,我们解决问题的能力(尤其是设计人工智能的能力)一直在不断提高,因为这些能力并不主要存在于我们的生物大脑中,而是存在于我们外部的集体工具中。所以,智力的进化只能来自大脑、感觉和运动能力、环境和文化的共同进化,而不是简单的调整大脑的某些齿轮。单个人脑无法设计出比它本身更强大的智能。

为了防止人工智能的研究成果在军事领域被滥用,人工智能专家也在努力防止人道主义灾难的发生,这是值得尊重的,但事实上,没有人能够真正阻止人工智能走上这条不归路。当学生能够设计出一种人工智能,只需500美元就能打败战术专家时,独裁政权也能做到。而其中一个原因足以让他们亮出武器:各方都以“防御”为借口,发展人工智能。真人炒金花

结果最后人类都是自相残杀。而人工智能让这场战斗更有效率。如果有什么需要我们解决的,那就是我们:能真正思考的人,才能真正明白什么是对,什么是错。

人工智能一直被指责让人失业,最终导致暴力事件。我们在工业革命之初就目睹了类似的担忧。真的发生在我们现在的社会。但是,暴力的罪魁祸首不应该归咎于技术进步;当人们被新技术抛弃,没有明确的未来和谋生方式——这就是导致暴力的原因。如果人可以在新的环境中被照顾,甚至被训练,事情可能就不一样了。然而,当权者只看到自己的利益,而不是整个社会的利益。

把希特勒看作改变历史进程的人是错误的:人们还必须考虑当时的德国社会和世界政治环境,这种环境为希特勒的“国家社会主义”(即“纳粹”)提供了温床。在古代,个人可以发挥重要作用,但现在他们不能。时代变了。在现代社会,我们大多数人都面临着可以替代同道中人的制度。虽然个人很重要,但制度为所有人发挥其特殊作用奠定了基础。

现在,我们有一个允许独裁者逍遥法外的系统。与我们可以预见未来的人工智能武器不同,这些暴行现在正在发生。如果说有一个体系需要我们去修正的话,那就是这个:可以把任何技术变成邪恶武器的土壤。

很多电影(如《终结者》或《黑客帝国》)都描绘了人类对抗机器的未来。我们阻止不了未来:人工智能将会传播。与机器的竞争已经失败,但我们可以为人类赢得这场战争。