拜登政府考虑对ChatGPT等AI工具进行审查
据《华尔街日报》4月11日报道,出于对人工智能(AI)技术可能造成危害的担忧,拜登政府已开始研究是否需要对ChatGPT等AI工具进行审查。作为潜在监管手段的第一步,美商务部当天正式就相关问责措施公开征求意见,包括新AI模型在发布前是否应该通过认证程序等问题。“看到这些工具即便在相对初级的阶段也能做到的事情,真是令人惊讶。”美国商务部下属国家电信和信息管理局局长艾伦·戴维森(Alan Davidson)说,“我们知道,我们需要设置一些护栏,以确保它们能够被负责任地使用。”戴维森说,公开征求意见的期限为60天,美国政策制定者能从中获得如何处理AI工具的建议。他补充道,他领导的机构的法定任务是向总统提供科技政策建议,而不是编写或执行法规。自去年11月发布以来,ChatGPT掀起了一股科技热潮,包括微软、谷歌和Meta在内的几乎所有科技巨头都参与到了该领域。企业纷纷将ChatGPT或类似技术集成到自己的应用程序和产品中。然而,行业内和政府官员已对AI技术可能引发的一系列危害表示担忧,比如人们可能利用这种技术犯罪或传播虚假信息。从去年11月至今年2月,ChatGPT的访问量快速攀升 CNBC报道截图科罗拉多州民主党参议员迈克尔·贝内特(Michael Bennet)担心,冒充年轻人的儿童可能会从AI聊天机器人中获取有害信息。为此,他上月曾致信几家AI技术公司询问相关公开实验的进展。康涅狄格州民主党参议员理查德·布鲁门塔(Richard Blumenthal)表示,当下人们正在非常积极地讨论AI技术的利弊,“对国会来说,这是一项紧迫又极其复杂、牵扯非常重大的利害关系、含有技术性的巨大的终极挑战。”就在上周,拜登在白宫与一个科学家咨询委员会讨论了人工智能话题。当被记者问及AI技术是否危险时,拜登说,AI是否危险还有待观察,但他强调,科技公司有责任确保其产品在公开之前是安全的。拜登表示,AI可以在气候变化和应对疾病等领域发挥重要作用,但同时也可能给社会经济和国家安全带来风险,这些都是需要考量的问题。谷歌、微软等发布AI系统的公司在讨论会上表示,他们正在不断更新安全护栏,例如通过编程限制聊天机器人回答某些特定的问题。ChatGPT的对话界面(图自美国科技网站How-To-Geek)《华尔街日报》称,在某些情况下,科技公司欢迎并支持制定针对AI技术的新法规。OpenA最近在一篇博客文章中写道:“强大的人工智能系统应该接受严格的安全评估,需要受到监管......我们积极与政府就制定最佳的监管方式进行接触。”今年3月,美国国会众议院监督委员会技术小组主席、共和党众议员南希··梅斯(Nancy Mace)就人工智能问题举行了听证会,并发表了三分钟的开场白,讨论了人工智能的风险和好处。当梅斯发表讲话后,她特别补充了一句:“你们猜对了,我在开场白中所说的一切都是由ChatGPT写的。”谷歌前首席执行官埃里克·施密特(Eric Schmidt)表示,“每个人都认为,我们正在构建的AI是他们在《终结者》电影中看到的那样,而我们确实不能搞那些东西。”施密特说,国会应该把重点放在培养人才发展和创新上,只有这样才能获得想要的东西。数月来,已有多国相继出台措施试图加强对AI技术工具的监管。去年10月,美国白宫发布了《人工智能权利法案蓝图》,旨在指导自动化系统的设计、使用和部署,保护美国公众个人数据不被人工智能算法滥用。3月29日,英国政府发布了针对AI产业监管的白皮书,概述了针对ChatGPT等AI治理的五项原则,包括安全性和稳健性、透明度和可解释性、公平性、问责制和管理,以及可竞争性。3月31日,意大利个人数据保护局表示,已就OpenAI聊天机器人ChatGPT涉嫌违反数据收集规则展开调查,即日起禁止使用ChatGPT,并暂时限制OpenAI处理意大利用户数据。3月31日,联合国教科文组织呼吁各国立即执行其《人工智能伦理问题建议书》。这个规范性的全球框架由教科文组织193个会员国一致通过,能提供所有必要保障。联合国教科文组织总干事阿祖莱表示,世界需要加强人工智能伦理规范,这是我们这个时代面对的挑战。
页:
[1]