人工智能设计的风险及其避免
时间:2019-04-05 00:56:10 来源:南少林农业网 作者:匿名


人工智能设计的风险及其避免

作者:未知

[摘要]随着人工智能的发展,其引发的风险和责任引起了学术界的广泛关注。

人工智能带来的风险与人工智能的设计密切相关。

理论上,人工智能设计应考虑人工智能是否具有道德行为者的地位和“道德嵌入”的合理性。

人工智能设计的目的与实际结果不一致。人工智能设计的目的不符合用户的需求,人工智能设计技术的不完整性将带来风险。

为了解决人工智能设计的风险问题,其设计目的应突出“好”的概念。设计过程应注重正义与公平,并强调设计师的责任感。

[关键词]人工智能,设计风险,道德嵌入,责任意识

[中国图书馆分类号] N031 [文件识别码] A [商品编号] 1004-4175(2018)05-0022-05

在21世纪,人工智能不断取得理论和实践的突破,已成为最有前途的新兴技术之一。

但是,有些智能机器在实际应用过程中产生了意想不到的后果,带来了很多风险。

由于技术的双重性和人工智能技术的不确定性,人工智能的应用可能违反了人工智能设计者的初衷,这可能导致人工智能风险。

例如,无人驾驶汽车用于解放他们的手,但他们可能有隐藏的安全问题;云计算便于数据挖掘,但存在隐私泄露等风险。

人工智能可能带来的风险与设计主体的意愿,设计目的和设计结果的偏差密切相关。

一,人工智能设计的理论基础

人工智能设计和制造的结果是生产具有自推理能力的智能机器。其风险研究应基于人工智能设计理论基础的挖掘。我们主要关注的是人工智能是道德行为者还是人工智能。分析的合理性。

(1)思考人工智能是否具有道德行为者的地位。

随着智能机器不断在技术上取得新的突破,智能机器加深学习,面部表情,语音识别,大数据和云计算处理速度的能力不断得到加强和应用。智能机器具有社交性,自觉性,创造性,在理解自然语言能力方面不断突破,可以说机器越来越像人。那么,智能机器是否具有像人类一样的道德主体地位?人工智能的功能由人工智能算法决定。智能机通过算法分析环境中的数据,从而做出相应的决策并表现出相同的行为。

“可以看出,这种方法并不假设计算机和大脑之间在'硬件'上的相似性将超出两者都是通用符号处理设备的思维范围,并且可以为一些基本信息做出一些基本信息。计算机改变程序。处理使它们的功能与大脑非常相似。

[1] 9人工智能不仅是道德规则的被动传递,而且还与现有道德生态学中的其他实施者相互作用。

权衡机器人及其生物的生存状态等伦理问题将成为规范和约束人工智能设计的重要方面。

人与机器之间存在本质区别。人有理解的能力,而且机器没有理解的能力。

人是有意的,机器没有意向性。

“意向性被视为区分个人的人和机器的基本特征之一:机器和人可以做同样的事情,但人是故意的,机器则不是。

“[2] 10意识只是大脑的一种属性。机器和人类可以具有相同的功能,但机器没有意图。

即使人工智能不是道德主体,人工智能和人类也可以有共同的行为。

如果人工智能获得类似或相同的思维和推理能力,那么定义人工智能和人类道德状态也可能是一个问题。

例如,机器学习和图像识别技术使无人驾驶汽车很容易上路,但却给机器设计伦理带来了道德困境。

人类行为很复杂,不能简单地恢复到大脑的结构。到目前为止,人类大脑仍然是一个未知的“黑匣子”。

人工智能技术改变了传统人与技术之间的关系。

在书《技术与生活世界》中,美国技术哲学家唐·艾德尔从人类对技术的看法出发,运用“人,技术,世界”的结构来分析三者之间的关系,并提出人与技术。在四种技术情境中,物理关系,解释关系,其他关系和背景关系构成了人,技术和世界的互动模式[3] 72-112:个人关系:(人 - 技术)→世界

解释学关系:人→(技术 - 世界)

其他关系:人→技术 - (“世界”)

背景关系:人(“技术/世界”)

Ide认为:“技术所允许的隐蔽性和透明度越接近,它就越能扩展人体感觉,技术就越好。

值得注意的是,设计的改进不仅与机器有关,而且与机器和人的组合有关。

机器在身体的方向上完善,并且由人类感知和行为塑造。

“[3] 74位设计师在人工智能方面占有重要地位,因此我们必须注意智能机器的设计。

(2)人工智能设计“道德嵌入”的合理性分析。

人工智能与其他技术工件不同。人工智能研究不仅要关注设计和制造主体的责任,还应该考虑人工智能是否具有道德意识,应该注意如何在人工智能中嵌入类似人类主体的行为伦理。 。

因此,人类道德应该嵌入计算机程序中,以限制人工智能的行为和人类行为。

人工智能设计不是闭环系统。人工智能的价值反思和伦理质疑正处于发展阶段。

如何使人工智能像道德主体一样,如何编写人工智能的道德准则也包含在哲学家的视野中。

例如,在他的书《人工道德:虚拟游戏的道德机器人》(人工道德:虚拟机器人的虚拟机器人)中,丹尼尔森将道德问题注入工程智能;在2007年,霍尔写了《超越AI:让机器产生良知》(超越人工智能:创造机器的良心)书,专注于设计伦理机器:瓦拉赫和艾伦的《道德机器:如何让机器人明辨是非》(道德机器:从错误的教学机器人),试图讨论道德问题道德,效果理论和美德伦理学中的人工智能。老式技术哲学家大多是被动反应,新一代技术哲学家已经主动让工程师意识到技术设计带来的设计过程的价值,并希望影响技术的价值和设计。

人工智能的价值可以从外部性和内在性两个层面进行分析。

人工智能的外在价值体现在人工智能对公益事业的贡献上。内在价值体现在人工智能技术如何形成其对人类的意义。

人工智能设计有两种不同的规范方法:一种是职业道德方法,一种是“外部主义方法”,另一种是荷兰技术哲学家Ibo van de Poel等人。提出的“内部主义方法”,即人工智能设计,“致力于更加内部主义,对技术发展的实证观察,考虑设计过程本身的动态,并探索在该背景下出现的伦理问题”[4]。

学者们还寻求从内在主义的道路上解决传统伦理问题或新伦理问题的方法。

例如,Batya Friedman和Peter Kahn在1992年提出了价值敏感设计。

设计师在设计时应保持对技术价值的敏感性,并将道德规范嵌入技术设计中。

人工智能设计还需要“道德嵌入”。

所谓的“道德嵌入”是将特定群体认可的价值观和道德标准编入道德准则,嵌入人工智能系统,同时为道德决策方案制定指导标准。

智能系统的道德培训,具有类似人类的道德推理能力,并使用机器学习算法来预测用户的道德偏好。

设计师越来越意识到他们的价值观对设计过程的影响以及他们对过程中其他人价值观的敏感性。

设计师应该在设计想象阶段加载价值,保持对技术价值的敏感性,并在技术设计中嵌入道德。

在人工智能设计之初,应该给出“好”的设计理念,在设计之初,智能机器中嵌入了“好”的概念。

二是人工智能设计带来的风险分析设计是一个解决问题的过程,或决策过程。这是设计主体根据自己的需要有意识地创造技术工件的过程。

设计不仅是科学知识的获取和应用过程,也是新对象的技术发明和创造过程。

休伯特·西蒙(Hubert A Simon)说:“(设计)考虑哪些工件应该是什么,也就是说,什么样的工件可以达到他们的目的,以发挥他们的作用。

[5] 4-5人类技术行为的主要结果是各种工件的设计和制造。

该设计有两个属性。

首先,设计是为了实现设计师的某个方面。

望远镜的设计是为了观察广阔的夜空;情感机器人旨在满足人类的情感需求;无人驾驶汽车的设计是为了安全,并在驾驶过程中释放人手。

其次,设计反映了主题的意图。

在设计主体设计之前,有设计概念和设计思路。

Von Wright还建议从设计主题的目的和意图来解释设计逻辑。

赖特认为,如果x被称为目的,而y就是实现目的的手段和行动。

然后设计可以用下面的表达式表示:“除非得到y,否则有人想得到x,否则得不到x,所以必须得到y”[6]。

根据赖特的观点,设计是为了达到主题的目的而进行的一系列活动。

设计必须遵循自然法则,并且不得违反物理法则创建工件。人工智能的设计不能违反自然规律。

人工智能的设计是工程师,程序员,设计程序和算法的输入。旨在突出设计者目的的人工智能产品必须遵循设计和制造过程中的这些科学规律。

人工智能设计不当会给个人和社会带来风险,而小损失将导致经济损失,同时对社会稳定和生命安全构成巨大威胁。

人工智能风险与设计密切相关,可以作为人工智能的风险来源。

人工智能设计的风险主要体现在以下几个方面。

(1)人工智能设计目的与实际结果不一致造成的风险。人工智能在制造之初就具有设计理念和设计理念。为了实现这一目标,设计师在设计中结合了人工智能的工具理性和价值合理性。

换句话说,人工智能已经在设计之初就满足了设计师或设计团队的意愿和愿望。

人工智能产品的设计离不开设计师的努力。设计程序和算法体现了设计师的努力和智慧,但并非所有设计师都“完整”。

由于设计人员的影响或设计团队的偏见,误解,价值判断和利益追求,以及设计算法的技术缺陷,设计的人工智能产品可能存在一定的缺陷。

人工智能风险通常源于设计开始时的程序错误或算法错误。

例如,特斯拉的自动驾驶汽车由于其设计程序存在漏洞而造成人员伤亡,人工智能系统设计阶段的错误导致人工智能风险。

除了需要探索与客观真理的关系外,人工智能技术还包括人类社会建构活动。

伽达默尔曾经说过:“20世纪是第一次以技术发挥决定性作用的方式重新确定,并且已经开始将技术知识从掌握自然力量扩展到掌握社会生活。这一切都是成熟的标志,或者也是我们文明的标志。

“[7] 63设计是有目的的,但设计师的初衷和设计产品的实际使用并不完全相同,有时甚至非常不同。

例如,汽车的设计者和使用者并不认为汽车的使用可能导致交通事故和环境污染,但汽车的设计和使用确实会导致交通事故和环境污染。

(2)人工智能设计目的与用户需求不符的风险。

技术不仅促进了人类的进步,也改变了人们的生活和生产方式。

人工智能技术作为一种新兴技术的不确定性可以理解为人工智能技术后果的不可预测性和定量评估的难度。

人工智能的技术风险也可能是由于人类的合理性有限。人类风险预测,评估与风险发生的客观概率之间存在差异。人工智能的风险源于设计师的有限理性。

人工智能产品的设计通常基于市场需求,设计者能力和用户需求等因素。

设计师和用户通过人工智能产品实现一种特殊的“互动”,设计师可以有意引导用户使用某些功能或避免某些功能。

例如,该公司的产品在人机界面中是首选。

设计人员通过用户反馈和反馈修改算法和程序,以实现良性互动。

但是,这种交互往往不能反映用户的意图。相反,它是设计者意图的强化。由于所谓的“设计黑匣子”,设计师无法准确预测和评估人工智能。

(3)人工智能设计技术不完备带来的风险。

人工智能的功能与设计者的目的有关。设计者的目的是设计人工智能的物理结构,使智能机具有一定的功能,以满足人类某个方面的需要。

“功能描述本身??和结构描述本身不能完全描述技术工件的设计;虽然功能设计忽略了结构设计,但结构设计也缺乏功能设计特征,这表明在描述人工制品时的结构和功能特征。它在工程实践中至关重要。

“[8]其他设计遵循结构功能关系,人工智能设计的特殊性,他们自己的推理能力,具有前所未有的自主权的智能机器,以及独立决策的能力。

美国机器伦理学家Patrick Lin认为该机器具有“自我控制能力”。他说:“一旦机器的一部分启动,机器将根据外部环境进行自我反馈操作,并且在一段时间内不会外部控制。能力。

“[8]智能机器并不完全受人类自治的影响,人工智能算法和程序可能会带来风险。

Wendell Wallach和Colin Allen在《道德机器:如何让机器人明辨是非》中提到:“今天有100到200人死于医疗事故,其中许多医疗事故与计算机有关。” 。这些错误,例如错误的药物,错误的药物剂量,每天导致100至200人死亡。

我不确定你们当中有多少人将计算机归咎于死因,但这个原因有一定的比例。可以肯定地说,我们每两到三个月就会死于计算机错误和医疗事故。上次'9.11'。

[9] 22根据上面的例子,人工智能算法错误或程序错误可能会带来风险。

三,人工智能设计风险规避思路

(1)人工智能设计的目的应该突出“好”的概念。

智能机器旨在满足人类的某些方面。人工智能设计应首先确保智能机器更好地工作和服务于人类,这比智能机器的效率和功能更重要。

人类与智能机器之间的关系不再是过去简单的人类和技术工件之间的主客体二分法,而是更具协作性和更亲密的关系。

由于人类思维和情感的复杂性和多样性,人机关系不是一个简单的主题。

为了处理人与世界的关系,机器人技术必须嵌入机器人的设计,开发和制造过程。

智能机器必须以“好”的概念设计,以约束和规范智能机器的发展。

IsaacAsimov首先提出使用“机器人的三个法则”来规范智能机器的发展:“机器人不能伤害人类;或者,通过无所作为,让任何人受到伤害;机器人必须遵循人类的指示,除非那个命令它与第一定律;机器人必须保护自己的存在,只要它不与第一和第二定律冲突。

“[10] 2后来增加了第四条规则:机器人不得伤害人类,或因无所作为而造成不人道的伤害。

阿西莫夫的机器人法则是一种康德式的道德法则,认为人类应该制定一个需要遵守智能机器的道德准则。这是一种自上而下的道德规范。

所谓的自上而下的道德规范方法是将规范价值视为主体活动中隐含的,而不是抽象地表现。

除了自上而下的道德规范外,还有必要根据人工智能的具体情况设计相应的道德规范。通过自上而下和自下而上的道德规范来标准化人工智能的设计。

人工智能在很大程度上取决于程序和算法学习模型的设计水平,并且必须将该值转换为设计中的特定设计要求。

“实现设计价值的一种方法是将它们转换为规范和设计要求。

[11] 253设计的具体要求包括性能,效率,灵活性,成本和安全性。

设计过程需要遵循价值观,规范和成功等标准。

(2)在设计过程中应注意正义和公平。

1980年,Langdon Winner通过罗伯特摩西在美国长岛设计的低悬架立交桥描述了设计的公平性。这座桥只能通过富人的私家车,而不能通过公共汽车和其他公共汽车。交通运输,涉及用于乘坐公共交通工具的黑人的差异。

通过这个例子,Winner提到了设计公平的问题,并应该关注人工智能设计中的公正和公平。

人工智能设计应注重平等机会。

机器人不再是简单的工具。在机器人的设计中,应该注意责任伦理。正义原则是机器人设计始终需要贯穿的重要原则。

机器人的设计应注重公平和正义。

机器人设计不应导致主体间权利和地位差距的扩大,从而导致实际的不公平和不公正。

如果无人机的技术设计和生产需要大量的成本,导致价格高昂,并不是每个人都能享受到技术的成果,这将导致公平性的丧失;使用无人机发送快递将导致现有快递员工的就业机会不公平。

约翰罗尔斯说:“所有值得我们注意的道德理论必须在当时判断结果。不这样做的道德理论是奇怪和不合理的。

“[12] 23

人工智能设计还应在技术成果中追求公平和公正。

它包括获取技术的公平和公正。人工智能涉及不同人群的不同利益。机器人的设计必须确保机器人的设计是为了人类的利益而不是某些个人或团体的利益。人工智能致力于大的一些人的利益不是少数人的利益。人类有责任和义务制定人工智能设计规则,限制设计人员在设计之初考虑人工智能的社会影响,避免由于人工智能应用造成的人与人之间的差距,导致人与人之间的不公平人。避免社会风险。

(3)人工智能设计应强调设计者的责任感。

人工智能技术设计必须注重设计师的信念,行为和设计师在技术实践中的角色和责任的研究主题。设计师不能忽视人工智能技术的发展,并不能袖手旁观。

“随着技术的发展,设计师需要参与整个过程,寻找道德反思的应用,并期待技术设计的社会影响。

这种道德规范涉及技术的发展,而不是将自己置于技术范围之外。

[13]智能机器的设计者应该对技术可能产生的负面影响提出充分的论据,并充分考虑人工智能技术发展带来的伦理困境,考虑到智能机器的使用将不可避免地面临道德问题。困境。

如何让智能机器在面对类似情况时为人类做出最有益的选择是设计师应该提前考虑的问题。

因此,人工智能的设计和制造应遵循职业道德和社会道德。

除了强调个人的责任感外,它还扮演着行业协会和国际组织的角色。

电气和电子工程师协会(IEEE),美国专业工程师协会(NSPE),美国机械工程师协会(ASME)和美国伍斯特理工学院机器人专业伦理学(WPI)都提出专业建议人工智能设计的伦理学。

在这些行业规范中,工程师应该具有诚实和公平等专业美德,并应注意安全,健康和公共福利。

例如,在2002年,电气和电子工程师协会给出了机器人的道德规范:第一个分支是机器伦理,研究的重点是“提供机器人道德原则或促进机器人解决可能的道德困境。当机器人做出自己的决定时,他们会增加他们的道德考虑。 [14] 1;第二个分支是机器人伦理,其重点是在设计和使用操作时与机器人交互的伦理。问题。2017年1月,在美国举行的“Asiloma Conference”提出了《阿西洛马人工智能原则》,(Asilomar AI Principles)来规范人工智能的发展。

《阿西洛马人工智能原则》人工智能设计的伦理应追求技术成果的公平与公正,包括人工智能技术获取方法的公平与公正。人工智能涉及不同人群和不同利益相关者的不同利益,必须首先确保公平和公正。避免社会风险。

人工智能设计主要涉及三个方面:“第一,人类创造和使用机器人的伦理;第二,人类伦理嵌入机器人;第三,人类如何看待智能机器人的伦理。

“[15]处理人工智能开发,设计和人工智能产品的正确处理之间的关系可以有效地避免风险。

人工智能设计应侧重于设计和制造传入情报时应遵循的道德准则。

荷兰技术哲学家Verbeek(P.P)提出技术对人类行为具有调节作用。设计活动自然包含道德取向和道德意义。因此,人工智能的设计也包含道德和伦理因素。

在人工智能设计过程中,正义等道德因素需要嵌入到机器人的设计过程中。 “如果道德是关于人们如何行事,设计师帮助塑造技术来规范人们的行为,那么设计应该被视为'做'一种物化的道德形式。

“[16] 91首先,使人工智能的设计符合人类的社会价值;其次,人工智能设计还必须研究如何充分利用和防止人工智能的使用,使人工智能对人类有益。

综上所述,在智能机器的设计,开发和发展过程中,要注重科学与道德的协调发展,求真务实,注重设计伦理和过程监控,规范和约束智能化的发展。机器,并确保智能机器。人类更好地利用技术使智能机器人更好地服务于人类社会。

同时,在机器人发展过程中,设计等应与伦理密切相关,重构人工智能责任制,建立人工智能伦理规则,注重程序正义和结果公正。在人工智能发展之初,就应注入“好核心”,有效避免人工智能技术的风险和社会风险。

引用:

[1] Allen Newell,H.A。西蒙。胡人思维的计算机模拟(M)。圣莫尼卡:兰德公司,1961年。

[2]玛格丽特博登。人工智能哲学[M]。刘希瑞,王汉琪,Trans。上海:上海译文出版社,2001。

[3] Ihde D.技术与生活世界:从花园到地球[M]。布卢明顿:印第安纳大学出版社,1990年。

[4] Poel I V D,Verbeek P P.Ethics and engineering design [J]。科学技术