除了享受人工智能给人类带来的卓越进步外,负责任地管理和利用人工智能也是每个国家面临的一大挑战。
发展突出 风险隐患
这一年来,世界见证了人工智能能力的巨大飞跃,以及通过聊天机器人、语音克隆、视频应用等技术的使用。这项具有突破性技术集中在部分公司、国家,并在公共卫生、教育、应对气候变化等领域得到有效利用。
然而,人工智能的潜在危害引起了人们对错误信息、歧视性意识形态、侵犯隐私、欺诈和许多侵犯人权行为的严重担忧。
美国斯坦福大学的科学家得出的结论表明,关于AI模型如何运作的信息很少,通常缺乏透明度。研究结果显示,Meta集团(Facebook和Instagram的所有者)的开源AI语言模型Llama 2的透明度指数最高,但只达到54%的透明度标准。
其次是OpenAI的GPT-4模型和Google的PaLM 2模型。研究人员表示,没有一家人工智能技术公司根据其创建的人工智能模型提供有关用户数量的信息。此外,大多数人工智能公司不会披露在建立和运行人工智能模型时使用的受版权保护的材料的数量。
人工智能公司需要实现更高的透明度指数,达到80-100%的标准。
研究家里希·博马萨尼
透明度问题是欧盟国家以及美国、英国、中国、加拿大和许多其他国家人工智能技术管理政策制定过程中的首要优先。研究家里希·博马萨尼表示,人工智能公司需要实现更高的透明度指数,达到80-100%的标准。
这是策划者可以在管理人工智能技术方面制定有效政策的一项措施。据此,透明度指数越低,政策制定的难度就越大,反之亦然。其他应用领域也是如此。
自从OpenAI的生成式人工智能模型推出以来,美国亿万富翁埃隆·马斯克等知名学者和大企业领导人都对人工智能相关风险发出了警告,甚至呼吁在六个月内停止开发强大的人工智能系统。
人工智能开发先锋者之一、加拿大多伦多大学的科学家杰弗里·辛顿警告说,这项技术对人类构成的威胁比气候变化更紧迫。辛顿先生还敦促世界各国政府采取行动,防止机器控制人类社会。
加快工具管理发展进程
研究人员正努力指导世界各地的策划者如何制定管理快速发展的人工智能技术的规定。欧盟正在率先进行人工智能监管工作,并希望在2023年底之前推出世界上第一部监管人工智能的法案。
与此同时,以成为世界人工智能技术领域的领先者为目标,英国将于11月1日至2日举办首届人工智能安全峰会。此次峰会预计将吸引约100位嘉宾参加,其中包括美国副总统卡马拉·哈里斯、谷歌首席执行官德米斯·哈萨比斯,以及人工智能领域的学者和率先者。
会议重点讨论犯罪分子和恐怖分子可能利用这项先进技术制造大规模杀伤性武器的风险。峰会议程还重点讨论不可预测的技术进步,以及人工智能超越人类控制的可能性。
峰会召开前夕,英国首相里希·苏纳克通报该国将成立全球首个人工智能安全研究所。该研究所将检查、评估和测试新型人工智能,以了解每种新模型的能力,识别对社会产生有害影响的所有风险,例如从偏见观点和错误信息到最高风险。
他表示,英国政府并不急于控制人工智能,而是将在国内建立世界领先的能力来掌握和评估人工智能模型的安全性。
AI发展的奠基人之一尤舒亚•本吉奥先生表示,当今最先进的AI模型太强大,影响力也很大,需要在开发过程中进行监督。
当今最先进的AI模型太强大,影响力也很大,需要在开发过程中进行监督。
人工智能发展的奠基人之一尤舒亚•本吉奥
因此,政府和企业需要快速投入人工智能安全,因为该领域的发展速度远远快于当前的预防措施,只有各国政府才能正确评估人工智能对国家安全的风险。人工智能的领先研究人员表示,人工智能公司和政府应将至少三分之一的预算用于人工智能研发,以确保系统的安全和正确使用。
在英国人工智能安全峰会上提出的呼吁中,专家们提出了政府和企业可以采取的应对人工智能相关风险的措施。专家强调,各国政府还应该让各家公司对其人工智能系统造成的可预防和可预见的损害承担法律责任。
联合国秘书长设立的人工智能咨询委员会由约40位在各所学院、政府机构和私营部门从事技术、法律和个人数据保护领域的专家组成。
专家包括联合国秘书长技术特使阿曼迪普·辛格·吉尔先生,谷歌和 Alphabet 人工智能副总裁詹姆斯·曼尼卡,OpenAI公司技术总监、“著名”ChatGPT聊天机器人的开发者米拉·穆拉蒂女士,阿联酋人工智能部长奥马尔·阿尔·奥拉马。
联合国秘书长表示,人工智能可能会破坏对体制的信任以及社会凝聚力,并威胁民主制度。面对人工智能带来的挑战,他呼吁人工智能顾问委员会争分夺秒,在今年年底前及时就如何管理人工智能的使用,认别这项技术带来的风险和机会提供建议。(完)