会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 品牌食药网欢迎您!
当前位置:主页 > 三农 > 正文

引技术向善,驭智能之“火”

时间:2021-02-05 15:01 来源:网络整理

  日前,全国政协双周协商座谈会召开,关注人工智能发展中的科技伦理与法律规制—— 

  引技术向善,驭智能之“火”

  受新冠肺炎疫情影响,英国取消了A-levels考试(类似中国的高考)。英国教育部门同英国资格与考试监督办公室合作, 中国资源推介网,决定使用算法自动生成学生的A-levels成绩。算法估分方案出台之后,由于考生认为所得分数不公,最终英国政府不得不叫停了这一方案,回到由各校教师提供预估成绩来评定的方案。

  英国算法估分方案被叫停,可以说是一次影响广泛的对“算法”的对抗,从一定程度上说明人工智能并非万能,算法也会“失算”。

  随着人工智能技术的极大进步,人们对“算法”已不再陌生。商家越来越多地使用算法为客户提供精准服务,政府、学校、医院等机构也会利用算法来帮助其日常工作。以算法与数据为基石的人工智能正深刻地改变人们的生产生活方式。但人工智能作为一项渗透性、实用性极强的崭新技术,具有技术属性和社会属性高度融合的特点,在加速应用推动社会生产力跃升的同时,也带来伦理和法律挑战。

  注重技术与伦理的平衡,通过多元协同治理确保“人工智能向善”,逐渐成为社会关注的焦点和人工智能产业健康可持续发展的关键。

  人工智能向善需要迈过几道坎?

  据报道, 中国质检周刊网,有上班族反映,公司给员工发了一批智能坐垫,结果没几天自己就被公司的人事部门“盯”上了,被质问为什么某个时间段不在工位上。没想到坐垫上的数据不只员工自己手机可看,人事部门也看得一清二楚。有网友评论,“代入感太强,已经感到不适了”。

  从公司智能坐垫、社区“刷脸”,到各类网站、手机App,个人信息泄露已经成为普遍现象。虽然对此深恶痛绝,但个人想要切断数据流,并没那么容易。有人形容大数据时代的人为“有用的透明人”。人们每天有意无意地在互联网上留下大量个人信息,人工智能技术将这些碎片化信息进行整合,并在不同算法模型中调用这些信息,从而创造出价值。

  “加强隐私保护,应当是人工智能开发、应用中的伦理道德底线。”重庆医科大学校长黄爱龙说。上海众人智能科技有限公司董事长谈剑锋提到, 社会瞭望网,尤其需要保护的是不可再生性数据,比如人脸、指纹、DNA等生物特征数据,以及个人医疗档案数据等。这些数据具有唯一性,是无法更改的,一旦被采集到不安全的网络上,极有可能带来灾难性后果。“必须提前设防, 中国热点快报网,在使用规范上有更加严格的要求,防范各类风险。”

  基于人工智能的发展特性,过于严苛的数据保护可能会阻碍其发展。如何兼顾数据保护和科技发展, 教育文摘网,是实现人工智能向善的第一道关卡。

  人工智能的核心是数据与算法。众所周知,算法正在以前所未有的速度渗透到我们的工作生活中,算法偏见、算法歧视也越来越被人们感受到。

  算法偏见有其客观原因,比如原始数据不完整或被污染;算法本身的局限性,有时算法过于复杂,难以及时发现其漏洞;设计者无意识的偏见或价值观的偏差等。但算法的有意“歧视”更值得高度关注,比如那些进行大数据“杀熟”的商家、倾向于给男性推荐高薪岗位的招聘网站等。由于算法的不透明和难以理解,有时候人们很难看出其中的歧视属性。因此很多人在毫不知情的情况下,承受着各种微妙的歧视和精准的不公。

  如何通过技术升级和规范治理,最大程度消除算法偏见和歧视,是人工智能向善的又一道关卡。

  除了数据保护和算法伦理,人工智能向善还应考虑人工智能发展可能带来或已带来的社会问题,比如如何缓解人工智能可能加剧的不平等现象、如何平衡人工智能的发展与失业问题、如何防范人工智能犯罪、如何应对人机交互式产品广泛应用对人类情感体验和家庭关系的冲击等。

  在中国社科院哲学所科学技术哲学研究室主任、研究员段伟文看来,对技术的伦理追问不应仅关注已存在的价值冲突或被动地等待伦理难题的出现,而应该积极地对其进行前瞻性评估,全面权衡可能的伦理影响。技术伦理审度的关键在于揭示技术对世界、社会和未来的建构中固有的不透明性,不断提高洞察新技术及其运作机制的能力,使其中可能存在的不确定性风险、不公正的情况乃至失控的危险得以及时纳入伦理辨析与考量之中。

  “以技制技”成为共识

顶一下
(0)
0%
踩一下
(0)
0%
推荐内容