发展可持续人工智能的突破口

作为一项基础技术,人工智能(AI)有潜力在社会生活的许多领域上取得突破。联合国大会最近通过第一项关于促进安全、保密及可靠的人工智能系统的决议被认为是人工智能管理的重要转折点,将这一先进技术纳入有效治理人工智能的法律框架,实现可持续发展目标。
附图。
附图。

凭着人工智能决议的通过,联合国大会强调了在人工智能的设计、开发和使用中尊重、保护和促进人权的重要性。联合国大会呼吁联合国所有会员国和有关各方克制或停止使用不符合国际人权法或对践行人权构成不当风险的人工智能系统。

联合国还敦促各国、私营部门、研究组织和媒体制定和支持以安全、保密及可靠的方式管理人工智能使用的方法。决议要求各方合作并支持发展中国家,使其能够获得全面、公平的接入,缩小差距,提高数字技术水平。

该决议承认人工智能在促进和实现17项可持续发展目标方面上的潜力,同时指出了如果缺乏适当的治理机制,特别是被滥用的风险,如出于不良目的,侵蚀信息的完整性,在经济社会、环境等方面上阻碍可持续发展,不平等现象加剧,人工智能会产生负面影响。

紧急问题

在世界面临管理人工智能、而不是让人工智能支配人类的机遇和责任的背景下,这是联合国大会关于人工智能的第一份正式文件,旨在调整与该技术相关的活动。这是一个日益紧迫的问题,需要各国有适当的思维和战略,旨在主动、负责任、可持续、公平、有效地开发和应用人工智能技术,造福所有人。

经过研究和发展,人工智能取得了长足的进步,在经济社会生活中的应用日益广泛。值得注意的是,随着ChatGPT工具的出现,人工智能技术持续强劲发展。据经济合作与发展组织(OECD)统计,到2030年,人工智能有可能拉动全球GDP增长14%,劳动生产率提高40%。仅生成式人工智能就可以贡献4.4万亿美元,帮助减少60-70%的工作时间。

人工智能改变社会主体之间的关系以及人们的生活和工作方式,从而对治理和建立调整各项问题和新关系的法律框架提出新的挑战。主要挑战之一是确定人工智能应用中的责任和法律地位,特别是在发生与人类生命或知识产权相关的错误或争议的情况下。人工智能大力支持社会管理,但也引发了对个人自由、滥用控制权的担忧等。

利用人工智能制造虚假、故意带有偏见和有害内容的能力增加了舆论被引导和引导服务于政治目的的风险,从长远来看,这可能会导致公众舆论对新闻的信任度下降。“人工智能失控”是大多数政府都担心的问题。此外,人们对在遥远的未来人工智能可能会发展出与人类相似的智能表示担忧。

全球行动

在国家和全球层面构建人工智能治理框架的过程面临着许多挑战,因为法律建设跟不上技术乃至人工智能的发展速度。许多国家,包括美国和欧盟成员,正在寻找限制这项技术风险的方法。中国已经完善了生成人工智能领域的首个规则。欧盟正式通过人工智能控制法。

美国政府近期公布了政府机构应用人工智能技术时的具体保护措施,声称将成为全球应用人工智能行动的典范。美国副总统卡马拉·哈里斯强调,美国所有联邦机构都必须透明地公布其使用的人工智能系统清单,以及应用技术时的风险管理解决方案,例如监测、评估和检查人工智能对公众的影响,降低算法歧视的风险。

此外,美国所有联邦机构还必须选举一位具有专业知识的“首席人工智能官”,以确保这项技术得到负责任的使用。根据计划,12月1日将是美国联邦政府各机构应用上述人工智能使用政策的最后期限。白宫还计划聘请100名人工智能领域的专家,以在联邦层面促进这项技术的安全使用。

联合国大会通过第一项人工智能决议是具有里程碑意义、及时的里程碑,对世界具有重大意义。人工智能给经济社会发展和人类生活带来了巨大的好处,但一些人工智能应用也带来了风险,可能在国家、地区和全球层面损害个人、企业和社会。这一现实要求国际社会特别是发达国家表现出高度责任感,推动人工智能技术朝着安全、公平、可持续的方向发展。

面对落实联合国大会通过的人工智能新决议的艰巨任务,各国须继续共同努力,为人工智能治理建立法律框架并开发技术。拥有平台、基础设施和投资战略的国家将超过刚融入人工智能的国家。因此,需要建立一个机制来支持发达国家向发展中国家应用和转让技术。只有这样才能实现决议提出的人工智能安全、可靠、可持续的期望,面向可持续发展,不让任何人掉队的目标。(完)