两维护如何管控ChatGPT与Bard等AI机器人

在ChatGPT和Bard等生成式AI机器人日益普及的时代,如何确保这些工具的使用符合伦理标准和法律要求成为了全球关注的话题。研究显示,这些通用人工智能工具的快速发展给监管机构带来了前所未有的挑战。它们能够通过关键字生成内容,并接受大量知识训练,这使得评估风险尤为重要,特别是在内容可能被用于不良目的时。

自从ChatGPT发布以来,它已经成为历史上用户增长最快的消费产品。在短短两个月内,它吸引了超过1亿活跃用户。这一现象促使科技巨头如微软、谷歌以及其他公司加速推进对话式AI技术,以将其融入到浏览器、搜索引擎以及更广泛的产品系列中。此外,一些初创企业也开始将生成式AI和对话式AI带入主流市场。

尽管这项技术带来巨大的机会,但它也伴随着潜在风险,如错误信息传播、网络钓鱼攻击,以及医疗信息误诊等问题。如果数据不够多样化,模型还可能存在高偏差风险。虽然某些提供商正在努力验证生成内容与实时数据的一致性,但仍然存在“看起来真实但完全不准确”的响应风险。

欧盟内部市场专员Thierry Breton表示,将要出台的一项新法案将包括针对ChatGPT和Bard等生成型AI系统的条款。他强调:“我们需要一个坚实的监管框架,以确保基于高质量数据的值得信赖的AI。”

分析软件提供商SAS在报告中指出,采用这种技术速度远超监管步伐,因此必须采取措施减少软件所代表的风险,并确保开发遵循道德框架。此外,还有专家认为,只有面临最高风险活动才会受到严格监管。

美国瑞格律师事务所(RopesGray)助理Edward Machin提醒,对于像ChatGPT这样的新兴技术,其应用速度将快于监管法规,这是不可避免的情况,而且这一领域难以监管。除了整体监制之外,还需考虑其生成内容涉及版权和隐私问题,如个人的删除或更正请求,以及第三方网站服务条款是否允许抓取大量数据。

加强算法透明度可能是一种解决方案,也有人提出,在全球范围内进行合作以理解如何让这些决策过程更加开放和透明。一位教授指出,大型科技公司可能会游说,使得实施额外义务变得困难,而处理这个问题的一个方法是让底层算法更加透明,从而获得激励朝向开放方向发展。

此刻,我们正处于一个转折点,每个人都需要认识到通用性质的问题,即大型语言模型(LLM)很难匹配现行法律规定。而且,加强日志记录可以帮助追踪并管理这类系统,同时也有必要定义哪些目的不能使用该技术,比如在用户登录之前发布法律免责声明,将其置于基于风险的行动范围之外。此外,还需要更多投入来改善这些系统,使它们更加负责任地运行。这是一个迅速发展中的新兴领域,其中许多工作尚未完成,而很多公司却没有帮助定义它们。