智能机器人新宠如何管控ChatGPT与Bard的科技革命
在ChatGPT和Bard等生成式AI机器人日益普及的时代,如何有效监管这些具有强大创造力和信息处理能力的工具,已经成为全球政策制定者面临的一个重大挑战。这些AI能够通过关键字快速生成各种内容,并且接受大量知识训练,这使得它们能够模仿人类交流模式,但同时也带来了风险,如传播错误信息、网络钓鱼攻击以及对隐私保护的威胁。
随着微软、谷歌、百度等科技巨头在其产品中嵌入对话式AI,以及初创企业如Jasper和Quora推动这一技术进入消费市场,生成式AI加速了监管需求的增长。尽管微软已经重新训练模型以提高准确性,而提供商如AI21努力验证内容与实时数据的一致性,但仍存在“看起来真实但完全不准确”的响应风险。
欧盟内部市场专员Thierry Breton表示,将要出台的欧盟AI法案将包括针对ChatGPT和Bard等生成型AI系统的条款。他强调:“我们需要一个坚实的监管框架,以确保基于高质量数据的值得信赖的AI。”
分析软件提供商SAS发布报告《AI与负责任创新》指出,采用这项技术速度快于监管步伐。此外,软件开发商将被要求降低软件所代表风险,只有风险最高活动才会面临更严格监管措施。
美国瑞格律师事务所(RopesGray)数据、隐私和网络安全助理Edward Machin认为,对这些技术进行监控可能会使一些开源软件开发者陷入困境,他说:“开源开发者和其他下游各方责任如何处理,将影响他们创新和研究意愿。”
除了整体监管之外,还有关于其生成内容版权和隐私的问题。在GDPR法规下,这些模型可能需要删除训练数据甚至算法本身。如果网站所有者失去了通过搜索流量获取收入,这也可能意味着互联网大规模抓取数据终结,因为目前这种抓取是谷歌等搜索引擎发展动力之一。
加强算法透明度被认为是解决方案之一。纽卡斯尔大学法律、创新与社会专业教授Lilian Edwards说:“让底层算法更加透明是一种方法,它可以帮助理解如何做决策并产生内容。”她还提到,“这是一个全球性的问题,有居心不良的人无处不在,因此进行监管非常困难。”
DragonFly首席技术官Adam Leon Smith表示:全球监管机构越来越意识到,如果不考虑实际使用情况,就很难管理。而只有为特定目的操作的大型语言模型(LLM)系统用户才能了解风险,并实施缓解措施。
随着欧盟委员会对于此问题进行辩论,最终Leon Smith认为,大型语言模型管理最佳实践几乎没有涉及这个迅速发展新兴领域。而这个领域还有很多工作待做,不仅是由公司定义,也需要来自政府投资。OpenAI首席技术官Mira Muratti呼吁除了监管供应商之外,还需投入更多资源以支持这一领域。她表示:“我们这样的公司应该以一种可控且负责任方式让公众意识到这一点。”