科技文明引领智慧革命监管生成式AI新纪元

在科技文明的引领下,监管生成式AI机器人成为全球政策制定者的紧迫课题。ChatGPT等工具因其广泛应用和接受大量知识训练的能力,引发了对风险评估的关注,尤其是在内容严密监控方面。仅在ChatGPT推出后两个月,它就成为了用户增长最快的消费产品,其活跃用户已超过1亿人,这促使全球科技巨头加速AI系统的推出,并为对话式AI领域带来了新的活力。

微软正在将对话式AI嵌入其浏览器、搜索引擎及更广泛产品系列;谷歌计划在聊天机器人Bard以及Gmail和Google云中的其他集成方面做同样的事情;百度等其他科技公司也在推出自己的聊天机器人;Jasper和Quora等初创企业则将生成式AI与对话式AI带入主流消费者市场。

然而,这种技术加速了监管需求,因为错误信息、网络钓鱼电子邮件以及填充模型数据多样性的偏差风险,为医疗信息使用带来误诊与医疗事故潜在威胁。如果未能妥善处理,则可能导致无法预见的后果。

欧盟内部市场专员Thierry Breton近日表示,将要出台的一项欧盟法案将包括针对ChatGPT和Bard这样的生成型AI系统条款。他强调:“正如ChatGPT展示给我们的那样,基于高质量数据且值得信赖的是我们所需的一个坚实框架。”

分析软件提供商SAS发布了一份名为《AI与负责任创新》报告,该报告概述了由Kirk Borne博士撰写,他指出:“采用这项技术速度远远超过了监管步伐。”Iain Brown博士表示政府和行业都有责任确保这些模型被用于有益而非有害的事业,而不是单纯地追求利润。这涉及道德框架指导开发并严格治理,以确保公平透明决策,以及新数据可用时优化它们。

Edward Machin认为,即使政策会陆续制定,但由于这些技术发展迅猛,其应用速度难以匹配,因此挑战依旧存在。他提醒开源开发者及其下游伙伴需要考虑到这一点,不然可能会面临法律义务之外的额外压力。此外关于版权隐私问题,也是需要解决的问题,比如个人的删除或更正请求如何处理,以及如何不违反第三方服务条款抓取大量数据的问题。

Lilian Edwards教授指出了通用性质的问题,使得这些模型难以根据面临风险进行监管。而加强算法透明度也是一个可以考虑的手段。她说:“大型科技公司将开始游说,他们说‘你们不能把这些义务强加于我’。”Adam Leon Smith首席技术官认为,与实际使用情况相结合才能有效管理,而只有特定目的部署的大型语言模型(LLM)系统才能够了解风险并实施缓解措施。

标签: 智能化方案