近日,美国人工智能公司 OpenAI 推出的新型聊天机器人 ChatGPT 风靡网络,它强大的功能引起了社会的广泛关注,被称为 AI“里程碑式”应用。各大企业纷纷投身于类 ChatGPT 应用的开发浪潮之中,但 ChatGPT 的“走红”也引发了人们对于人工智能监管问题的讨论。
ChatGPT 仅发布两个月,其月活跃用户数就已达到 1 亿,一跃成为史上用户增长速度最快的消费级应用。一时间,微软、腾讯、百度、阿里等多家互联网科技公司先后发布了在 ChatGPT 领域的成果和技术布局。ChatGPT 快捷的回复和简单的操作,使得大量用户将其运用于查资料、写论文,而不仅仅是当作一个聊天工具使用。
然而,随着 ChatGPT 的应用范围越来越广,其隐含的风险也开始进入大众视野。尽管 ChatGPT 如今并不完美,但它仍然在刷新我们对人工智能发展的认知,AI 安全需要立法监管。ChatGPT 已经证实了人工智能获得了令人难以置信的发展,但同样也带来了法律与道德问题。
在知识产权方面,ChatGPT 可能被用于生成论文与代码,引发知识产权侵犯及归属争议。在个人信息保护方面,ChatGPT 对信息、数据来源无法进行事实核查,可能存在个人数据泄露、虚假信息传播等隐患。在数据安全方面,由于 ChatGPT 能够学习人类语言,在编写“钓鱼邮件”时,能够在语法和表达习惯上更具有迷惑性,如果利用不当,其造成的危害性后果难以估量。
从全球范围来看,各国政府均已开始关注人工智能发展过程中的种种伴生问题,人工智能领域法律法规的制定与实施也被提上日程。生成型人工智能系统创造了机会,同时也让我们面临具有历史意义的“十字路口”—— 究竟是人工智能控制人类,还是人类控制人工智能。
2022 年 12 月,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》,并于 2023 年 1 月 10 日起施行。《规定》对类似 ChatGPT 等利用人工智能技术生成内容的应用服务提供者、技术支持者提出了一系列要求。
欧盟近期也计划更新尚未出台的人工智能法规 ——《人工智能法案》,预计该法案将于 2025 年生效。英国政府发布的《国家人工智能战略》指出,政府制定的治理和监管制度需要跟上人工智能快速变化的形势。
由于这项人工智能技术的两面性,我们不仅需要对算法进行监管,同时也要与数据监管相结合。如何保证生成式 AI 数据来源的准确性和隐私性,如何保护知识产权,如何及时修正 AI 不道德的言论导向,都是人工智能领域亟待解决的问题。
目前来看,人工智能的安全辅助作用仍需要相关部门进行审查和批准,ChatGPT 的应用范围也应被限定。国家应当加强对人工智能的伦理规制,增强全社会的人工智能伦理意识和行为自觉,使人工智能既符合道德法律,符合公序良俗。在此基础上,采取逐步放开使用领域与应用深度的方式,探索人工智能的健康发展之路。
正如英特尔 CEO 帕特・基辛格所说,人工智能已经催生了全球变革,并为我们提供了强大的工具。技术本身是中性的,我们必须不断地把它塑造成一股向善的力量。
最新评论