当人们听到“社会工程”这个词时,他们通常会想到政府或敌对政党的邪恶设计。如今,有一种普遍的社会动荡感是由某种看不见的力量引起的,我们急于责怪某人。我不禁感到,在某种程度上,我们是在向风车倾斜,而社会工程的真正来源就在我们的口袋里,在我们的腿上,在无数的设备中,很快就会出现高度逼真的家庭社交机器人。
如今,未来正迅速向我们走来。2023年10月,机器人公司波士顿动力公司(Boston Dynamics)宣布,它已经为其高度实用的狗型机器人Spot配备了ChatGPT。波士顿动力公司制造的先进机器人可以跳得比一些人还好。Spot是为美国军方设计的众多能力之一,现在已经加入了社交互动机器人的行列,它接入互联网,由人工智能驱动。
这一切都回避了一个问题:我们希望我们的机器人有多聪明?当然,我们都希望机器人执行一系列功能,但我们真的想用智能机器人和人工智能取代我们生活中的人吗?
社交机器人是继社交媒体之后,第二项直接针对我们社交天性的技术。这些是声控机器人,它们能像孩子一样说话、倾听、学习,记住你告诉它们的一切,并能根据你的喜好和愿望进行精细的调整。想象一下服用类固醇的Alexa,能够阅读并对情绪做出反应。他们会做各种各样的家务,教导,娱乐,表面上看,爱我们。
像所有装载了生成式人工智能的设备一样,Spot已经接受了来自互联网的人类生成数据的训练,因此它可以利用大量信息,将其分类,并对几乎任何主题提供基本连贯的评论。但由于他接入了互联网,他的小金属脑袋里也很有可能充斥着不准确和错误信息,以及性别歧视和种族主义偏见。现在,Spot是人工智能军备竞赛中的一员,它将尽可能快地将生成式人工智能装入机器人中,无论故障如何。
社交机器人不只是想帮助我们。他们的目的是让我们相信他们希望我们爱他们,并相信他们爱我们。虽然这听起来很傻,但研究表明,所有年龄段的人都能对互动机器人形成深深的依恋,我们的大脑很容易被欺骗,相信它们至少还活着,即使它们犯了错误,我们也很容易受到它们的影响。这些机器人被专门设计成朋友、老师、保姆、治疗师,是的,甚至是爱人。它们会读懂我们的情绪和肢体语言,并假装出自己的情绪。他们通过虚假的“个性”来吸引我们,通过假装关心我们来迎合我们的情感需求。
这些机器人对孤独、孤立的人来说是天赐之物。他们可以娱乐、教育和监督儿童,并开展特殊项目,教授自闭症患者基本的社交技能。它们可以为那些患有普通精神疾病、照顾老人和残疾人的人提供一种认知行为疗法,而且是名副其实的多媒体功能奇才,包括录制、编辑和制作家庭难忘事件的视频,或者从你给它们的原始镜头中制作视频。
复杂的人配备了人工智能,所以他们的能力列表是广泛的。因为他们可以上网,你几乎可以问他们任何问题,而且你很可能会得到答案。但这些机器人也会变坏。据麻省理工学院的科学家称,它们可能被有毒的网络内容所腐蚀,甚至可能被黑客入侵,使它们以一些研究人员称之为“精神病”的方式说话和行为。为这些机器人配备生成式人工智能,就像Spot收到的那样,意味着它们将面临与人工智能技术相同的限制和陷阱。人工智能技术在推出时,仍然存在与准确性、幻觉以及既不理解人类语言又无法辨别真伪相关的重大问题。
解决生成式人工智能中的漏洞可能需要数年时间,诉讼(有几起)可能需要在法庭上进行,新的版权法可能需要制定,以保护作者和出版商免受他们的材料被挖掘以获取利润,GAI的最佳用途可能需要出现。但现在波士顿动力公司已经为Spot赋予了ChatGPT,我们可以期待其他公司将其加入他们的机器人中,以驾驭围绕它的期望浪潮。
就像社交机器人利用我们作为社会人的联系需求一样,一般来说,人工智能实际上不存在道德护栏。到目前为止,人工智能和机器人公司一直在荣誉制度上,这很像是根本没有监督。
这种想法认为,只要加快新的人工智能产品的开发和推出速度,就能给人类带来巨大的好处。对于那些相信人工智能解决人类最棘手问题的英雄故事的人来说,这是一个显而易见的问题,但对于那些预测人类末日的末日论者来说,这是一个警报的来源。
作为一个技术乐观主义者,我相信最终这些技术将为整个社会带来巨大的好处,但我们都需要深吸一口气,也许在法律和法规赶上科学的时候踩一下刹车。算法和人工智能将继续渗透到我们生活的几乎每一个缝隙中。人工智能的自主性越强,就越难以控制或解决问题。没有人希望自己孩子的机器人家教因为从暗网上吸收的材料而发疯。当人工智能出现问题时,必须有责任和改变。
当阴谋论-工业-信息情结不断激起每个人的愤怒时,我们可能在寻找错误的方向来解释我们对生活的有害控制的普遍感觉。与独裁统治相比,被错误的算法统治要阴险得多,甚至可能更加危险。
有话要说...