G7努力控制风险,有效而安全地管理和使用人工智能

全球领先的工业国家(G7或七国集团)最近就人工智能(AI)发展原则草案达成一致,显示出在降低新兴技术相关风险方面迈出积极一步。制定有效、安全、负责任地管理和使用人工智能的战略目前是每个国家的紧迫任务。
附图。
附图。

近日在日本举行的会议上,G7国家代表就人工智能发展的11项原则草案达成一致。G7也正在推动制定人工智能工具开发者国际行为准则,以及对人工智能服务提供商和用户的指导。

这被评价为是G7在努力构建更加安全、保密和可靠的人工智能系统方面向前迈出的一步,特别是在对这一技术潜在风险的警告日益增加的背景下。

人工智能的快速发展和在各个领域的广泛“覆盖”给立法者和科技界带来了一个难题,即如何在不影响技术发展和创新进程以及不扼杀创造精神的情况下有效控制人工智能带来的风险。

11月初,英国将举办首届人工智能安全高级别会议,约100名嘉宾将出席会议。会议重点讨论了恐怖分子利用这一先进技术制造大规模杀伤性武器的风险。

分析人士表示,这次高级别会议将有助于强调英国作为世界领先技术中心之一的地位。

科技公司本身虽然从人工智能产品中获益匪浅,但也就如果这项技术朝错误的方向发展、被用于不良目的将会产生严重后果敲响了警钟。

微软集团董事长重申,人工智能有潜力成为有用的工具,但如果超出人类控制范围,也存在成为反人类武器的风险。他同时强调,各国需要鼓励科技企业做正确的事,并制定法规和政策以确保所有情况下的安全。

针对众多大型科技公司(Big Tech)加入人工智能这一潜在领域的激烈竞争,德国联邦反垄断局主席安德烈亚斯·蒙特警告说,人工智能可以增强大型科技公司的市场力量,并呼吁监管机构对任何反竞争行为提高警惕。

不可否认人工智能带来的好处,但从人工智能的“获利”到为不正当目的“滥用”这项技术的距离也很短。

英国伦敦政治经济学院的一项调查结果显示,人工智能给新闻活动带来好处和风险。高达85%的受访者使用过生成式人工智能工具(通常是ChatGPT或Google Bard)来撰写新闻摘要和标题。

然而,60%的受访者表示担心人工智能对新闻价值的道德风险,包括准确性、公平性、透明性等。

此前,荷兰AI Sensity公司进行的研究结果显示,网络上传播的使用deepfake技术的视频中约有96%含有不健康内容,且大多数造假受害者是女性。

加强人工智能管理需要与鼓励投资相结合,以最大限度地发挥技术潜力,例如推动投资建设人工智能研发中心等。

若得到合理控制,这项先进技术将有利于促进社会经济发展,成为人类生活的“得力助手”。(完)