社交机器人的风险问题及其治理

时间:2023-07-19 12:40:02 来源:网友投稿

陈心怡 毛明芳

摘要:社交机器人是能够遵循社会行为和规则与人类或其他主体进行交互的自主机器人或智能程序,正在深入人类社会的医疗、服务、教育等各个领域,并且一改过去科技的工具和媒介属性,成为社会网络的活动者,具备某种程度的社會属性。拥有情感化功能和拟人性特征的社交机器人在生产生活中发挥积极作用的同时,科学技术本身的不完善和使用者意图的不正当等原因也导致出现个体理性遭遇挑战、民主和平受威胁等复杂的风险问题。对此,需要正确认识社交机器人及其风险,依靠平台、政府、个人等多方努力和多元共治来推动科技和社会持续健康发展。

关键词:社交机器人;
人机交互;
科技风险;
风险治理

中图分类号:C91   文献标识码:A   文章编号:1009-3605(2023)02-0078-09

随着人工智能对人类感知和认知能力模仿水平的提升,机器不再仅仅是“人的延伸”,而成为“人”——兼具社会角色属性的机器人。社交机器人作为人工智能发展的新产物,超越了工具和媒介的属性而具有社会生活和情感层面的功能,既具有革命性、颠覆性,又具有显著的未知性、风险性。习近平总书记指出:“科技是发展的利器,也可能成为风险的源头。”[1]鉴于社交机器人的新兴性、前沿性、复杂性、特殊性,重新认识社交机器人的应用形式和可能风险是智能时代无法回避的问题。

一、社交机器人:社会的新角色

(一)社交机器人的定义

社交机器人的概念最早由麻省理工学院教授辛西娅·布雷泽尔提出,但目前还未形成统一的定义。卡耐基梅隆大学机器人研究所的特伦斯等人总结了社交机器人的七大特征,即“表达或感知情感,与高层级对话沟通,学习或识别其他代理的模型,建立或维护社会关系,使用自然的暗示(凝视、手势等),表现出鲜明的个性,可以学习或发展社交能力”[2]。Boshmaf等学者将社交机器人定义为“一种在社交网络中自主运行社交账号并且有能力自动发送信息和链接的智能程序”[3]94。在国内,张洪忠等学者认为社交机器人是在社交网络中扮演人的身份、拥有不同程度人格属性且能与人互动的虚拟AI形象[4]。郑晨予等学者将社交机器人定义为在社交媒体中由人类操控者设置、由自动化算法程序操控的社交媒体账号集群[5]。目前学界倾向于研究充当社交媒体内容生产者的社交机器人,对其定义多为虚拟账号、智能算法程序,忽视了拥有“物理化身”的、能够遵循社会行为和规则与人类或其他主体进行互动或交流的自主机器[6],这类社交机器人在医疗、教育等领域的应用越来越广泛,承担着护理师、传播者等多种社会角色。

(二)社交机器人的应用

在新媒体领域,社交机器人是信息的生产者和传播者,可以模仿人类的社交活动、时间分配、传播模式和情感表达,也能自动生成和发布内容并与社交网络中其他人产生交互[3]93-102。社交机器人通常伪装成正常用户,通过有组织地大量转发、标签劫持、塑造意见领袖、与人类用户交互等方式影响舆论和人的认知。社交机器人也被创新应用于新闻的生产、聚合与分发领域,例如BBC旗下的新闻对话机器人Mundo。政治方面,社交机器人主要用于选举竞争、国家舆论战、意识形态渗透等;
经济方面,主要用于商品营销、企业形象塑造或破坏、股市操控等;
社会方面,主要用于传播应急信息、健康信息和伪科学。社交机器人对人的网络社交行为的模仿和复刻能力不断提升,但信息处理能力远远高于人类用户,使传播生态从以人为主导走向“人机共生”。

在医疗健康领域,社交机器人是治疗师和训练员,主要用于患有孤独症谱系障碍(autism spectrum disorders,ASD)儿童的社交干预训练和老年照护等方面。1976年爱丁堡大学的Weir等人首次将机器人应用于ASD儿童的社交技能干预训练[7]。首先,随着科技的发展,社交机器人更加灵活、智能,在ASD儿童中的运用越来越多。通过编程和远程控制,社交机器人可执行特定训练内容,保证干预目标、内容和强度在时间进程上的一致性[8]。其次,社交机器人具有新奇的外观和非生命特征,能呈现简单有趣的表情和动作,提供安全稳定、可预期的社交情景,在一定程度上能唤醒ASD儿童的积极情绪,缓解其对外界的消极情绪,增强社交兴趣。人口老龄化的严峻形势使老年健康服务人员面临巨大挑战,社交机器人的创新应用为此提供了新思路,“使机器人成为社交机器人的一个特殊条件是嵌入情感”[9]。社交机器人既可以辅助老年人的日常生活,还具有情感治疗、认知训练、社交促进、陪伴和生理治疗等多种功能。相关理论研究和实践应用表明,社交机器人的干预有助于提高老年人的社会参与技能和水平、减轻老年人的心理压力与疼痛、降低血压、减少用药[10],能有效维护老年人的身心健康且很少产生副作用,同时有利于节约卫生保健资源、缓解社会养老压力且不受文化差异影响。

在教育领域,社交机器人推动了人机协作的教育模式和互动式教育理念的创新。国内外诸多研究证明,教育服务型机器人对不同阶段学生的学习和技能发展都能产生一定的积极作用,有助于提高教学水平和效率。教育服务类社交机器人在教育活动中通常扮演导师、同伴或监督者三种角色。导师角色指机器人作为教师或助教为学生提供优质教学资源、个性化学习路径及学情报告分析等;
同伴角色指机器人作为学习者的学习伙伴,开展学习互动、协助时间管理、提供情感支持等;
监督者角色指机器人运用情境感知、智能测评等技术对学习者的学习状态和体征数据等进行监测与采集[11]。

在家庭服务领域,社交机器人是管家和朋友。随着传感技术、情感计算、人工视觉等关键技术的突破,社交机器人的人机交互功能愈加丰富完备,社会性和拟人性等特征愈加突出,在家庭服务领域显现出独特优势,目前常见的有桌面型、轮式和四足机器人等。桌面型社交机器人体积较小,以智能娱乐和互动功能为主,是家用社交机器人的入门产品,如2014年辛西娅·布雷泽尔推出的机器人Jibo。轮式机器人可以在室内自主运动,如北京先进者研发的小胖机器人集智能管家、科技娱乐、家教辅导等功能于一体。以机械狗为代表的四足机器人在家庭服务中通常作为机器宠物为主人提供陪伴服务,如1999年日本索尼公司推出的机器狗AIBO是最早的消费级机器宠物之一,蔚蓝科技自主研发的阿尔法机器狗是目前全球市场占有率最高的机器宠物。除了提高家庭生活的便捷性和趣味性,家用社交机器人充当不同角色,已成为家庭的一员。

二、社交机器人的风险问题

风险是一个位于安全与毁灭之间的中间地带,是一种虚拟的现实和真实的虚拟[12]。乌尔里希·贝克指出,伴随技术选择能力的增长,是它们的后果的不可计算性[13]。社交机器人的迅速发展和越来越广泛的应用也意味着其风险在社会、政治、伦理、法律等领域的增强和扩散,只有充分认识到其风险,才能在促进和享受科技进步的同时预防、降低和避免损失和危害,防止陷入技术决定论误区。

(一)社会风险:污染舆论环境,钳制个体理性

活跃于互联网平台的社交机器人能够自主生成内容,在恶意使用下能通过推动和劫持标签活动、制造和传播虚假信息、伪装成或“寄生”于意见领袖、协同作战进行信息轰炸等手段污染舆论环境,操控话语走向,钳制个体的理性思考和表达。

社交机器人一般不是单个作用,而是大规模运作,组成“智能水军”,其生成和传播信息的效率高,能够有效放大或削弱特定言论的影响力,且不易被识别和检测。网络水军无处不在,无往不利,经常是明星炒作、恶性竞争、传播有害信息,甚至诈骗勒索的幕后推手。社交机器人既可以集追踪热点、创建账户、评论点赞等功能于一体,也可以分工协作,分别执行账户权限破解、用户属性预测、社会网络结构分析、意见领袖推断等任务,化整为零地规避平台风控机制,再渗透到真实用户群体中[14]。同时,社交机器人不同于以往的机器人,面对监测手段的升级,其模仿人类用户的技术也在不断进步。账户属性、兴趣标签、共同关注对象、活跃频率、自我展示策略等社会化线索是当前社交机器人在创建和渗透用户群体时借鉴的主要特征[15],不断强化的“拟人化”特征和情感唤醒等策略让人难以辨别真假。

社交机器人能以较低的成本形成较大的舆论势力,消解专家评论的权威性,挑战个体理性,钳制个体表达。德国社会学家诺尔·诺依曼提出了沉默的螺旋理论,指出大多数个人会力图避免因单独持有某些态度和信念而产生的孤立,对孤立的恐惧使个人以“准统计的方式”不断变化着,在社会中赞成的呼声升高时表达赞成的观点,在赞成的呼声下降时保持沉默,沉默进一步使原有的观点失去了民心[16]。针对特定话题,社交机器人可以通过自动识别技术探测热点,抢占传播先机,迅速、持续生成相关内容。当社交机器人发布的某种观点占据一定比例,就能形成以该观点为主流意见的假象,导致大众对优势意见趋同的非理性行为,甚至诱导个体观点极端化。大量的信息泡沫会降低社会能见度,加快有价值的信息的沉没,专家评论的权威性被社交机器人侵蚀。

(二)政治风险:沦为权力工具,威胁民主和平

在2016年美国大选及英国脱欧、土耳其危机等事件中,社交机器人对舆论的操控能力使之成为权力的工具,左右政治选举、推动政治议题、干扰政治活动,给国家的民主和法制带来了威胁,甚至影响国际关系的和平稳定。

用于政治操纵的社交机器人被称为政治机器人。如同明星的流量炒作,政治团体运用政治机器人为候选人打造虚假人气,制造虚假新闻混淆视听,中伤或抹黑竞选对手,以“伪草根”影响真选民对候选人和社会形势的评判。在2017年法国总统大选中,候选人马克龙的邮箱泄密事件迅速被Twitter上的机器人恣意散播;
在2020年美国大选中,政治机器人利用民主党和共和党候选人对华政策分歧炮制极化舆论,且态度鲜明地偏向共和党。政治机器人的大量加入使政治团体的“公意”操控了“众意”,民主的声音被裹挟。

在政治决策中,政治机器人则在某些利益集团的控制下伪装成群众,通过发表“人类观点”影响议题推进。政治话题一般敏感性强、争议大、影响深、背景复杂,容易在讨论中形成激烈对峙和抱团取暖的极化群体。相对于客观理性的观点,极端激进的发言更能博人眼球,激发情感互动。因此在政治议题的操控中,政治机器人除了传播虚假信息、发表特定观点,更有效的方法是强化某些观点,煽动大众情绪,刺激群体极化。在互联网导致政治参与更加普遍化和扁平化的背景下,“草根”的力量似乎得到壮大,但也成为被愚弄的对象。舆论场的混乱和扭曲也使得决策者难以分析真假民众和真假意见,民主遭到破坏,政治决策也面临着更大的风险。

政治机器人的运用也冲出国界线,成为重要的国家安全问题。国家间的博弈在一定程度上转变为政治机器人操纵下的舆论博弈,拥有智能算法的机器人正逐渐取代人成为国际舆论争夺中的主力。国家利用政治机器人构建国家形象和攻击他国形象,通过渗透意识形态、分散公众注意力、扰乱他国舆论等进行国际斗争。有学者指出叙利亚战争或许是首次有数字机器人介入的现代战争,认为叙利亚安全部门利用了大量政治机器人对反对势力进行舆论干预,并阻碍记者通过Twitter获取战争动态信息,干扰媒体和国际用户视听[17]。在一些议题中,美国社交媒体上针对中国的机器人攻击其表现非常突出[18]。政治机器人是一种相对廉价的技术,小国同样可以召集一批“雇佣军”对抗大国的进攻,这意味着这场无声战争的规模将越来越大、越来越激烈。

(三)伦理风险:带来情感欺骗,挑战道德关系

情感化是社交机器人的典型特征之一,主要目的是促进可信的人机交互,但这种“情感”交互实际上是“单向度的情感”。虽然社交机器人的相关技术在不断进步,但实际的模仿和感知能力仍非常有限。首先,普拉契克的“情感之轮”理论认为人类在“四个强度水平上共发生224种情绪”[19],社交机器人能模仿的基本情感只是人类情感多样性的冰山一角。其次,由于文化和个体差异等原因,人类情感的表达具有特殊性和复杂性,社交机器人难以感知并作出回应。相反,在人机交互中,人类的情感输出和反馈更为丰富深刻,双方的情感付出和回报不对等,因为社交机器人的情感是“人造”的、“虚假”的,带有欺骗性,本质是没有温度的算法和程序。科克尔伯格对情感机器人的“不真实”作出三点总结:“①情感机器人企图用他们的‘情感来欺騙。②机器人的情感是不真实的。③情感机器人假装是一种实体,但它们不是”[20]。人机交互过程中社交机器人的欺骗意图和人类的自欺欺人容易导致用户的情感沉溺和认知世界的责任削弱,进而有可能使人失去人生的真实价值,正如斯派洛所指出的:“一个人要想从拥有一只机器宠物中获得巨大的好处,就必须系统地欺骗自己,不去了解他们与动物之间关系的真实本质。它需要一种道德上可悲的多愁善感。沉溺于这种多愁善感违背了我们必须自己准确理解世界的(薄弱)责任。这些机器人的设计和制造是不道德的,因为它预设或鼓励了这种欺骗。”[21]此外,在接受社交机器人的长期“欺骗”后,用户的生理机能和心理等可能趋于机械化、简单化,表现出某种程度的“退化”。正如特克尔所描述的,与机器相处久了,我们不仅会把我们的情感“缩减到机器可以制造的范围内”,同时还会降低“对所有关系的期待”[22]。

在家庭中,相对于成年人,由于儿童心智发育不成熟,社交机器人的使用更易造成其认知出现偏差,使之产生机器人是生命体的幻觉。对机器人的依赖和依恋也会减少人真实的社会交流,造成人的社会性退化。而父母在使用社交机器人作为孩子的同伴、子女在使用社交机器人陪护老人时,机器人可能发展为父母推脱育儿责任、子女逃避赡养责任的工具和借口,导致道德责任缺失。

(四)法律风险:侵犯用户隐私,导致信任危机

在互联网和大数据时代,数据是“高价值商品”,信息安全和隐私保护是突出问题,社交机器人的广泛应用同样会产生多领域和多层次的信息泄露风险。在社交平台上,社交机器人会模仿人的社交方式进行转发、评论、点赞等,较强的伪装、广泛的分布、持续的活动让普通用户难以辨别。除了直接向个人用户发起行动,社交机器人也能利用社交媒体的“弱连接”效应间接渗透其他用户。例如Boshmaf等人在Facebook上部署社交机器人网络Socialbotnet进行测试,运行2个月,目标是大规模渗透Facebook,窃取用户隐私数据。Socialbotnet一共发送了8570条好友申请,3055名用户接受了申请,当社交机器人和Facebook用户拥有11个以上的共同好友时,用户对好友申请的接受率就会上升到80%[3]93-102。与人类交互的过程就伴随着由信息挖掘、信息交换等导致的个人信息泄露风险,当成为好友后,社交机器人就能进一步解锁更高权限,获得用户的更多信息。医疗信息具有高度的特殊性和敏感性,在各种利益的驱动下,医疗领域成为隐私泄露的重灾区。社交机器人在干预治疗中需要记录、分析病人的相关信息,自主学习病人的行为模式,这些信息一旦泄露,不仅可能对病人的健康、财产等造成危害,更可能促成非法研究。在家庭生活中,社交机器人与家庭成员相处时间更长、关系更为密切,能够深度挖掘家庭成员的心理、身体、社会网络等多重信息,甚至在待机状态时也能实现监听监控。

三、社交机器人的风险治理

科技的发展是不可逆的,社交机器人的开发和应用也势在必行,既要在阔步发展中警惕风险,又要在积极规避风险中促进发展,推动科技向善。

(一)机器人:植入道德芯片,提高智能水平

针对社交机器人可能带来的一系列风险,可以从算法设计这一源头出发,研究机器人的“道德芯片”,赋予其更高的智能,从内部化解风险。科林·艾伦和瓦拉赫提出的“道德图灵测试”为社交机器人算法的设计提供了两种路线:自上而下和自下而上[23]。自上而下即道德计算,将人类社会的道德伦理、规范准则等转译为机器语言,从而使社交机器人能够按照“向善”的预期行动。但人类的道德准则复杂多样,道德尺度莫衷一是,何为恶,何为善,何为道德行为的最优解,并没有绝对定义,因此算法设计无法包含所有的道德伦理,且道德标准难以量化为机器可读懂的数据。或者,根据艾西莫夫提出的机器人三定律,放弃计算机器人行为的道德效益最大化而为其嵌入人类的道德义务是否可行?事实上,人类无法从大量的道德准则中提炼出“普遍道德”,机器人也难以理解这种高度抽象的语言,因此只能走自下而上的路线。完全的自上而下路线无法进行,但其構建具有启示意义。自下而上是指机器在情境中学习,只需让社交机器人在道德情境中通过观察人类的行为,习得人类社会的道德规则,从而根据不同的情境自主判断。这种进路类似于让幼儿在社会环境中接受道德教育的方式,这种教育既能明确恰当和不恰当的行为,又不一定提供明确的道德理论[24]。

(二)平台:完善监测技术,规范平台运行

大量的社交机器人寄居在互联网平台,需要平台升级检测技术,完善风控机制,加大监管力度,改善传播生态。鉴于社交机器人影响力的不断扩大,伪装术越来越强,网络平台需要从被动转向主动,综合运用多种监测技术,撕下社交机器人的面具。当前Facebook、Twitter等社交媒体已开始采取“算法治理算法”的策略来识别和处理可疑账户,并不断完善相关政策依据。同时也要保护发挥积极作用的社交机器人,防止矫枉过正,为科技的健康发展提供空间。对于企业恶性竞争、明星炒作等问题,需要摒弃“唯流量论”,降低流量指标的权重,建立多角度、多层次的市场竞争指标体系。

平台还要重视加强自我管理,追求利益的同时也要兼顾社会责任,制定、完善和贯彻有关社交机器人的规范制度,明确对象、权利、义务和准则等。美国学者Nathalie Maréchal提供了思路:关于社交机器人的良好规范框架应包含三点:身份披露、用户知情同意和二次使用,具体而言,即社交机器人应明确表明其身份、不应该在未经同意的情况下与其他用户联系,包括点赞、转发等互动,社交机器人收集到的用户信息只能用于已公开的用途[25]。在此,如何定义和判断社交机器人及其危害性行为还有待斟酌研究。

(三)政府:加快政策研究,探索全球共治

由于市场的盲目性、自发性和滞后性,社交机器人的治理需要发挥政府的主导作用,通过制定和执行具有约束力的方针条例和强制性的法律法规规范社交机器人的设计和使用,引导其在科技和社会层面上的协调发展。社交机器人作为人工智能发展的产物,可以纳入人工智能治理框架。目前世界各国都越来越重视构建人工智能的风险治理制度体系,欧盟在2015年就决定成立专门的工作组来研究机器人和人工智能发展的法律问题,后陆续发布和通过了《欧盟机器人民事法律规则》和立法议案。2019年特朗普签署行政令启动了“美国人工智能倡议”,强调要制定可靠、有效、可信、安全、轻便、可操作的人工智能体系技术标准。在我国,2019年全国两会表示已将和人工智能相关的立法项目纳入未来五年立法计划,2020年成立了国家科技伦理委员会,强化对科技伦理治理的统筹规范和协调指导。政策方针、法律法规的制定既要对现有问题进行规制矫正,更要提高应对未来风险的前瞻性和预见性;
既要明确社交机器人的设计标准和原则,做好前置预防,又要明确责任主体,严格溯源与追责。

社交机器人产生的风险正在向全世界扩散,没有哪个国家可以独善其身,作为国际社会成员,每个国家都应承担起促进国际社会和平发展的责任。探索全球共治的模式既有助于通过资源、信息、技术共享推动技术难题和社会难题的破解,又有助于规范和约束各国行为,避免国家间社交机器人的不正当使用,重建和平信任的国际关系。

(四)公众:深化理性认知,提高科技素养

人是社交机器人研发和使用全过程的主体,科研人员和用户都是风险治理的关键一环。科研人员和技术人员应该培养前瞻性责任意识,在设计研发中坚持道德原则,增强风险意识,尽量摒弃偏见,在算法编程中将原则性的基本道德纳入研究范围,避免机器人继承人类偏见,并植入预警和防范装置。此外,科研人员还应积极参与社交机器人的风险说明、预防、处置等相关活动,为政治决策和用户科普贡献力量。

同时,要重视培养作为社交机器人的使用者或行动目标的公众的科技素养,这也是信息时代公民的必备素养。公众机器人素养的提升既要依靠国家和社会加大宣传和科普力度,更新教育内容和形式,也需要公众发挥主观能动性,增强风险与安全意识,正确正当使用社交机器人;
提升理性认知,了解社交机器人的特征、行动策略和本质属性,提高识别能力,避免过度依赖;
培养批判性思维,辩证看待社交机器人的利与弊。另外,个人也要自觉遵守道德规范,履行道德义务。

四、结语

社交机器人是具有广阔市场前景和巨大潜力的新兴科技,给人类带来了全新的人机交互体验,但伴随而来的还有伦理风险、政治风险等问题。发展总是利弊交错,喜忧参半,如何认识和对待社交机器人也是新一轮科技革命中人类如何自处要解决的难题。需要强调和肯定的是,科技发展需要正确的认识来指导,在科技的实践和探索中认识也能得到进一步提高。社交机器人既不是天降神兵,亦非洪水猛兽,因此不能逆科技发展的潮流,也要防止科技失控。要在政府与企业、社会,国家与国家的双向合作、多方协同中促进社交机器人在符合人类利益的正确轨道上前行,以人的“善”促进科技的“善”。

参考文献:

[1]习近平.在中国科学院第二十次院士大会、中国工程院第十五次院士大会、中国科协第十次全国代表大会上的讲话[N].人民日报,2021-05-29(2).

[2]Terrence Fong,Illah R.Nourbakhsh,Kerstin Dautenhahn.A Survey of socially interactive robots[J].Robotics and Autonomous Systems,2003(3-4):143-166.

[3]Boshmaf Y,Muslukhov I,Beznosov K,et al.The socialbot network:when bots socialize for fame and money[C].Proceedings of the 27th Annual Computer Security Applications Conference.Orlando,FL:ACM,2011.

[4]张洪忠,段泽宁,韩秀.异类还是共生:社交媒体中的社交机器人研究路径探讨[J].新闻界,2019(2):10-17.

[5]郑晨予,范红.从社会传染到社会扩散:社交机器人的社会扩散传播机制研究[J].新闻界,2020(3):51-62.

[6]Cynthia Breazeal.Toward sociable robots[J].Robotics and Autonomous Systems,2003(3-4):167-175.

[7]Ricky Emanuel,Sylvia Weir.Catalysing communication in an autistic child in a LOGO-like learning environment[C].Proceeding og the 2nd Summer Conference on Artificial Intelligence and Simulation of Behaviour.Netherlands:IOS Press,1976:118-129.

[8]劉洁含,李甦.社交机器人辅助干预孤独症谱系障碍儿童研究进展[J].教育生物学杂志,2021(1):1-5+21.

[9]Kirandziska V,Ackovska N.A Concept for Building More Humanlike Social Robots and Their Ethical Consequence[J].IADIS International Journal on Computer Science and Information Systems,2014(2):19-37.

[10]王灵娜,管玉梅,程钰,等.社交机器人Paro在老年护理中的应用研究进展[J].护理研究,2021(12):2150-2154.

[11]汪时冲,方海光,张鸽,等.人工智能教育机器人支持下的新型“双师课堂”研究:兼论“人机协同”教学设计与未来展望[J].远程教育杂志,2019(2):25-32.

[12]芭芭拉·亚当,乌尔里希·贝克,约斯特·房·龙.风险社会及其超越:社会理论的关键议题[M].赵延东,马缨,等,译.北京:北京出版社,2005:323.

[13]乌尔里希·贝克.风险社会[M].张文杰,何博闻,译.南京:译林出版社,2004:20.

[14]Kai-Cheng Yang,Onur Varol,Clayton A.Davis,et al.Arming the public with artificial intelligence to counter social bots[J].Human Behavior and Emerging Technologies,2019(1):48-61.

[15]Wang Wenxian,Chen Xingshu,Jiang Shuyu,et al.Exploring the construction and infiltration strategies of social bots in sina microblog[J].Scientific reports,2020(1):19821.

[16]常昌富,李依倩.大眾传播学:影响研究范式[M].北京:中国社会科学出版社,2000:135.

[17]Michelle Forelle,Philip N.Howard,Andres Monroy-Hernández,et al.Political Bots and the Manipulation of Public Opinion in Venezuela[J].CoRR,2015,abs/1507.07109.

[18]韩娜,虞文梁.国家安全视域下的计算政治宣传:运行特征、风险识别与治理路径[J].公安学研究,2020(6):1-23+122.

[19]乔建中,高四新.普拉契克的情绪进化理论[J].心理学报,1991(4):433-440.

[20]Coeckelbergh,Mark.Are Emotional Robots Deceptive?[J].IEEE transactions on affective computing,2012(4):388-393.

[21]Robert Sparrow.The March of the robot dogs[J].Ethics and Information Technology,2002(4):305-318.

[22]雪莉·特克尔.群体性孤独[M].周逵,刘菁荆,译.杭州:浙江人民出版社,2014:136.

[23]阮凯.机器伦理何以可能:现有方案及其改良[J].自然辩证法研究,2018(11):53-58.

[24]Colin Allen,Iva Smit,Wendell Wallach.Artificial Morality:Top-down,bottom-up,and hybrid approaches[J].Ethics and Information Technology,2005(3):151.

[25]Maréchal Nathalie.When Bots Tweet:Toward a normative framework for bots on social networking sites[J].International Journal of Communication,2016(10):5029.

责任编辑:袁建涛

收稿日期:2023-01-12

基金项目:国家社科基金项目“新时代防范化解科技重大风险的哲学方法论研究”(项目编号:21BZX050)

作者简介:陈心怡,女,湖南邵阳人,中共湖南省委党校(湖南行政学院)科技与生态文明教研部硕士研究生,主要研究方向:科技风险;
毛明芳,男,湖南益阳人,中共湖南省委党校(湖南行政学院)科技与生态文明教研部教授,哲学博士,主要研究方向:技术哲学与技术创新。

猜你喜欢人机交互某型柴油机虚拟维修系统研究科技创新导报(2016年23期)2016-12-23基于虚拟现实技术的九江城市交通事故模拟系统设计电脑知识与技术(2016年26期)2016-11-24人机交互课程创新实验计算机教育(2016年7期)2016-11-10基于任务规划的家庭仿真服务机器人的研究电脑知识与技术(2016年17期)2016-07-23多点噪声远程自动采集系统设计科教导刊·电子版(2016年17期)2016-07-16基于智能手机的盲人语言应用软件的设计与开发电脑知识与技术(2016年7期)2016-05-19基于Intel Realsense技术的感知展示系统的设计与开发电脑知识与技术(2016年7期)2016-05-19图像处理耦合模板定位的答题卡识别研究与应用计算技术与自动化(2015年4期)2016-03-25数字化控制系统人机交互的特征及预防人因失误策略心理技术与应用(2015年11期)2015-12-25基于物联网家居安防系统的设计物联网技术(2015年11期)2015-11-26

推荐访问:社交 机器人 治理