科技时代如何管控这般神通广大的生成式AI机器人

在科技的洪流中,如何管理像ChatGPT和Bard这样的生成式AI机器人?这已经成为了全球政策制定者们共同面对的问题。这些工具可以通过关键字生成各种内容,并接受大量知识的训练。他们解决方案将涉及评估风险,尤其是那些应该受到严密监控的某些内容。

自从ChatGPT推出以来,它就成为了历史上用户增长最快的消费产品。在短短两个月内,就有超过1亿人使用了这款AI聊天机器人。这不仅促使全球大型科技公司关注或加快AI系统的推出,还为对话式AI领域带来了新的活力。微软正在将对话式AI嵌入其浏览器、搜索引擎和更广泛的产品系列;谷歌计划在聊天机器人Bard以及Gmail和谷歌云中的其他集成方面做同样的事情;百度等其他科技巨头也在推出自己的聊天机器人;Jasper和Quora等初创企业也在将生成式AI和对话式AI带入主流消费者和企业市场……

生成式AI加速了监管需求,因为它可能会传播错误信息并难以发现网络钓鱼电子邮件。如果用于医疗信息,它可能导致误诊甚至医疗事故。如果模型填充的是非多样化数据,那么偏差风险就会很高。

虽然微软已经重新训练了一个更准确的模型,而且如同提供商艾21这样的公司正努力验证生成内容与实时数据之间的一致性,但仍然存在“看起来真实但完全不准确”的响应风险。

欧盟内部市场专员Thierry Breton近期表示,将要发布的一项新法案将包括针对ChatGPT和Bard等生成型AI系统的条款。他说:“正如ChatGPT展示给我们的那样,基于高质量数据值得信赖的人工智能对于企业与公民都具有巨大的机会,但也可能带来风险。这就是为什么我们需要一个坚实而合乎道德框架。”

分析软件提供商SAS发布了一份名为《负责任创新:艺术与科学》报告,其中指出了由Kirk Borne博士撰写,他说:“现在,我们不得不考虑到越来越难以分辨哪些内容是真实哪些是假象,以及它们是否真正有益。”他还强调,政府机构必须采取行动,以确保这些技术被用于有益于社会而非有害的事务。

此外,还有一些专家认为,只要软件开发商能降低所代表风险,只有那些最高风险活动才会面临更严格的监管措施。而美国瑞格律师事务所(RopesGray)一位数据、隐私及网络安全顾问Edward Machin则提醒,即使监管政策即将出现,这种技术发展速度之快,将超越任何法规之上,这在目前这种难以监控的情况下尤为明显。

除了整体监管之外,对于其产生内容的问题,如版权、隐私还有GDPR法规,也需要得到处理。此外,加强算法透明度也有助于解决这个问题,因为这样可以让人们了解决策过程,从而增进理解。

标签: 智能互联网