解锁视频黑科技app的秘密如何管控ChatGPT和Bard这类革命性AI机器人
在ChatGPT和Bard等生成式AI工具的快速普及面前,如何有效监管这一新兴技术已经成为全球政策制定者必须解决的问题。这些工具能够通过关键字生成各种内容,并且接受大量知识训练,这为它们带来了巨大的潜力,但也引发了风险评估的紧迫性,尤其是在涉及某些内容需要严密监控的情况。
自ChatGPT推出以来,它就成为了历史上用户增长最快的消费产品,仅在一年内就获得了超过1亿活跃用户。这不仅促使了全球大型科技公司关注或加速AI系统的推出,也为对话式AI领域带来了新的活力。微软正在将对话式AI嵌入其浏览器、搜索引擎以及更广泛的产品系列;谷歌计划在聊天机器人Bard以及Gmail和谷歌云中的其他集成方面做同样的事情;百度等其他科技巨头也在推出自己的聊天机器人;Jasper和Quora等初创企业则将生成式AI和对话式AI带入主流消费者和企业市场。
然而,广泛错误信息与难以发现网络钓鱼电子邮件给予了真正风险,如果用于医疗信息,则可能导致误诊甚至医疗事故。如果模型填充不是多样化数据,那么偏差风险很高。虽然微软已有重新训练模型,而且提供商如AI21努力验证生成内容与实时数据相比,但“看起来真实但完全不准确”的响应仍然存在高风险。
欧盟内部市场专员Thierry Breton最近表示,将会出台一项针对ChatGPT和Bard等生成型AI系统的条款。他说:“正如ChatGPT所展示的那样,基于高质量数据价值可靠的人工智能对于企业和公民都有巨大机会,但同时也可能带来风险。这就是为什么我们需要一个坚实合乎道德监管框架。”
分析软件提供商SAS的一份报告中概述了由Kirk Borne博士撰写,他指出:“采用这项技术速度明显快于监管步伐。”他建议政府和行业要确保使用道德框架指导开发并严格治理,以确保这些模型做出的决策是公平透明无偏见。他还提到,我们可以将模型与挑战者模型进行比较,并随着新数据出现进行优化。
美国瑞格律师事务所(RopesGray)助理Edward Machin认为,即使法律法规将被制定出来,对这些快速发展技术来说应用速度会超越法规,这是一个不可避免的事态。而且,对于开源软件开发者而言,他们可能会因为创新意愿受到寒蝉效应影响。此外,还有关于版权隐私问题,如个人删除请求处理,以及从网站抓取大量数据是否合法的问题需要考虑。
最后,加强算法透明度是一种解决方案之一。纽卡斯尔大学教授Lilian Edwards说:“让底层算法更加透明,是一种处理这个问题方法,有助于理解如何做决定并产生内容。”她还提到,要克服这一挑战,我们需要激励措施朝向开放透明方向发展,以便更好地理解决策过程。她指出了通用性质是最大问题,因为很难预测最终用户会怎样使用它。