主页 > 日报发明 >人工智慧决策也会产生「偏见」,人类该如何用法律做好把关? >

人工智慧决策也会产生「偏见」,人类该如何用法律做好把关?

2020-06-16 日报发明 569 ℃
正文

人工智慧决策也会产生「偏见」,人类该如何用法律做好把关?

人工智慧(Artificial Intelligence)已成为现今全球产业必谈的话题,各行各业不断发想如何藉由人工智慧提升效率、增加产能。目前人工智慧已发展到第三波浪潮,此可归功于半导体技术与运算能力的精进,第三波人工智慧是以大数据(big data)为基础,发展机器学习(machine learning)与深度学习(deep learning)技术。透过人工智慧技术,企业似乎不费吹灰之力就能推估人的行为和偏好,进而更精準地提供产品和服务。近年来,不光是企业组织,各国政府亦发现利用人工智慧的好处,纷纷将其应用在决策上,不过争议案例却层出不穷。

纽西兰想打造大数据演算模型受惠国家,但最后却变成一个带有「偏见」的无情机器

2014 年中国大陆国务院提出《社会信用体系建设规画纲要》,为在  2020 年达成全面实施社会信用体系的目标,各地政府陆续广泛蒐集人民的资料,利用大数据分析方式,从政务诚信、商务诚信、社会诚信、司法公信四大领域,对个人和企业组织进行评分。据  2018 年  3 月澳洲广播公司报导,已有民众在不明原因的情况下被列入失信名单,以至于旅行严重受阻或无法借贷,甚至资产被冻结。

无独有偶地,据  2018 年  4 月纽西兰媒体报导,纽西兰移民署( Immigration New Zealand)从十八个月前开始实行一项实验计画(pilot programme),藉由国家签证申请程序蒐集移民的年龄、性别、种族、犯罪纪录、医疗费用欠缴纪录等资料,目的在建立一个演算模型 — 伤害模型( harm model),用以预测居留在纽西兰的移民如果续留是否从事犯罪行为或带来更多医疗支出。一旦模型显示某些移民可能对国家造成治安疑虑或增加医疗负担,这些移民将无法重新申请签证,更甚者,将直接被驱逐出境。

纽西兰移民署表示这个实验计画有利于政府及早採取行动,然而不少移民质疑演算模型带有偏见。一位印度裔移民的家属向纽西兰移民署申请居留被拒,原因在于,移民署透过演算模型相信该印度裔移民的母亲过去曾经患有乳癌,但实际上,他的母亲不曾患过任何关于乳房组织的病变。此外,一些律师与人权团体亦因为演算模型纳入种族资料,强烈抨击移民署的计画背后隐藏着种族歧视。

人工智慧的演算是不是应该纳入人伦道德?

由于人工智慧演算模型设计可能带有偏见进而导致歧视,美国已有大型科技公司试图在人工智慧发展过程中将伦理因素纳入考量,希望人工智慧的应用更贴近社会期待。

2018 年微软( Microsoft)在官方网站上公布人工智慧开发应考量的六大伦理原则,包含公平性(Fairness)、可信赖性与安全性(Reliability and Safety)、隐私与安全(Privacy and Security)、包容性(Inclusiveness)、透明(Transparency)以及课责(Accountability),并透露微软已成立「人工智慧与工程及研究伦理委员会」(AI and Ethics in Engineering and Research(AETHER) Committee)(简称AETHER 委员会),负责研究人工智慧产品研发对人类和社会的影响,并提出适切的政策建议或最佳实务典範。 AETHER 委员会也会进行个案伦理审查,审查结果将会影响微软的决策。

脸书(Facebook)针对旗下相关产业研究,在管理流程中设计一套伦理审查程序。先从人员的教育训练开始,分别针对一般员工、研究者与审查者进行隐私和研究相关训练。接着,在研究构想形成后,将计画书提交给该研究领域的主管进行第一阶段审查,判断研究是否涉及较敏感的人口群或个体,进而需要谘询其他专家之意见。

如是,则由跨功能团队研究审查小组(cross-functional research review group)进行审查;如非,则依标準审查程序即可。无论採何种审查程序,皆须通过审查后才能开始执行研究计画。另外,在审查评估标準方面,除了参考美国有关保护人体试验的联邦政策(Federal Policy for the Protection of Human Subject)(通称 the Common Rule),以该政策中关于伦理审查之规定为基础外,脸书又根据公司需求订立四项标準,评估(1)研究是否能改善社会;(2)研究结果是否有潜在负面影响且已尽力降低该影响;(3)研究是否合乎一般人的期待;(4)是否採取适当预防措施以保护个人资料。

欧盟的 GDPR 怎幺应对大数据与人工智慧浪潮?

人工智慧的偏见问题不仅反映在企业产品研发上,公务机关和民间机构每天作出成千上万个影响个人生活的决策,倘若一味追求绩效而完全信赖人工智慧判读,会造成什幺样的不良后果可想而知。前述只是美国企业藉由自律方式,使人工智慧产品研发尽量不背离伦理道德,并没有任何法律拘束力;但实际上,在欧洲地区却有相关法律规定。

为了因应大数据与人工智慧时代对个人资料保护之冲击,欧盟一般资料保护规则( General Data Protection Regulation, GDPR)针对自动化决策(automated decision-making)和资料剖析(profiling)已明文规定。依据 GDPR 第 22(1)条规定,纯粹基于自动化资料处理(包括资料剖析)所作成的决定,对于资料当事人(data subject)产生法律效果或类似重大影响时,资料当事人应有权免受该决定的拘束。所谓「纯粹基于自动化资料处理所作成之决策」,指的是在没有人为参与的情况下,透过技术方式作出的决策。

然而, GDPR 并不是完全禁止纯粹基于自动化资料处理所作成的决策,前提是这种决策必须对资料当事人产生「法律效果或类似重大影响」。例如:人才招募系统使用预先排程的演算法与标準进行性向测验,并纯粹依此结果决定是否面试特定人时,当事人可能不明究理地被阻挡在求职大门之外,严重影响就业机会,这样的决策将被欧盟所禁止;而借助演算法了解客户收视习惯进而推荐电视节目的情况,因可能不会产生法律效果或重大影响,则不在  GDPR 第  22 条禁止之列。

此外,如果是基于以下三种情况:(1)签订或履行契约所必要(2)经过欧盟或其会员国法律所授权(3)经过资料当事人明示同意,仍可藉由纯粹自动化资料处理方式作决策。但是,资料控制者(data controller)和资料处理者(data processor)必须尽到以下义务:(1)主动将自动化决策和资料剖析一事通知资料当事人;(2)实施适当安全措施,例如预先进行资料保护影响评估(Data Protection Impact Assessment, DPIA)并做好风险管理;(3)提供资料当事人权利行使管道,例如当事人异议或申诉程序。

人工智慧无论怎幺发展都应抱持着一颗「以人为本」的心

不可否认,人工智慧为人类生活带来许多方便,无论行销、金融服务、健康照护、教育等各领域,一旦遇到需要分析处理大量资料时,人工智慧总是能导出更快速而一致化的决定。然而,在效率与便利性的背后,却伴随着一些不为人知的风险。

当人工智慧发展已逸脱于传统自动控制模式,机器不再只是单纯按照人类预设的指令动作,而是具备探索推论与学习的能力时,似乎更应该重新思考「发展人工智慧究竟是为了什幺?」,否则人工智慧很容易沦为侵害他人权益的工具,甚至最后导致人类被机器完全取代。倘若发展人工智慧的根本目的是为了改善人类生活福祉,那幺在其发展与应用过程中,似乎没有理由将伦理、道德及其他与人的权利、自由相关因素排除在外,这也是美国知名科技公司建立伦理审查程序以及欧盟制定  GDPR 规範的原因之一。

以人为本的观念已逐渐在科学技术专家中成为共识,国际性电子工程专业技术组织 —电机电子工程学会( Institute of Electrical and Electronics Engineers, IEEE)在 2016 年发表的《以伦理为基準的设计(Ethically Aligned Design)》,就强调伦理研究对人工智慧的重要性,认为应将人的伦理与价值观设计到人工智慧系统中,才能符合社会期待,进而在追求商业经济效益和社会利益之间达到平衡。

儘管我国政府与产业亦跟随世界潮流,正如火如荼地推动人工智慧发展与应用,但关于人工智慧与伦理关係议题仍处于探讨阶段,尚未形成明确的制度或规範。为了人工智慧发展的永续性,如何建立良善的环境使技术发展既能改善经济又同时符合人民的期待,将是当前必须重视的课题之一,美国企业与欧盟  GDPR 相关规定,或许能作为我国企业自律与法律规範调整之借镜。