科技馆探索ChatGPT与BardAI监管之道
在科技界,ChatGPT等生成式AI工具的快速普及引发了监管机构面临的新挑战。这些AI能够通过关键字生成各种内容,并接受大量知识训练,这为其潜在风险带来了新的关注点。例如,它们可能会产生错误信息或网络钓鱼电子邮件,对医疗信息处理造成误诊和医疗事故。此外,如果模型没有使用多样化数据,那么偏差风险也很高。
微软、谷歌、百度等科技巨头正在将对话式AI嵌入他们的产品系列,而初创企业如Jasper和Quora也推动了这一技术进入主流市场。尽管如此,欧盟内部市场专员Thierry Breton表示,将出台一项针对ChatGPT和Bard等生成型AI系统的法案,以确保基于高质量数据的值得信赖的AI。
分析软件提供商SAS发布了一份名为《负责任创新》报告,该报告指出采用这项技术速度远快于监管步伐。政府和行业必须共同努力,确保AI被用于有益而非有害方面。这涉及使用道德框架来指导模型开发,并实施严格治理,以保证公平、透明且公正决策。
美国瑞格律师事务所(RopesGray)助理Edward Machin认为,即使监管政策将会出台,但方法和时机仍需观察。此外,关于生成内容的版权、隐私问题,以及是否能轻松处理个人删除或更正请求,都需要解决。此外,还存在GDPR法规的问题,这可能导致发布删除训练数据甚至算法本身命令的情况。
加强算法透明度是解决方案之一。纽卡斯尔大学教授Lilian Edwards认为,大型科技公司将游说监管机构,说不能强加义务,因为无法预知未来的每种风险或用途。不过,有些方法可以帮助大型科技公司,如让底层算法更加透明,这对于理解如何做出决策至关重要。
全球监管机构越来越意识到,要真正理解并有效地管理通用语言模型(LLM),需要考虑它们实际使用情况。在此背景下,只有特定目的操作部署LLM用户才能了解风险,并实施缓解措施。而随着监管机构越来越关注这一问题,AI提供商可能开始列出“不得使用”该技术目的,包括法律免责声明,将其置于基于风险的行动范围之外。