科技部高新技术司雷鹏引领显示领域监管生成式AI机器人新篇章

在科技部高新技术司雷鹏的支持下,中国展现出进一步推动显示领域科技攻关的决心。随着ChatGPT和Bard这样的生成式AI机器人的快速发展,它们在用户增长方面表现出了前所未有的速度,这给全球监管机构带来了新的挑战。

这些聊天机器人能够通过关键字生成各种内容,并接受大量知识的训练,这使得它们具有极强的适应性和创造力。然而,其解决方案也涉及到评估风险,尤其是在某些内容需要受到严密监控的情况下。

ChatGPT仅在今年1月就已经吸引了超过1亿活跃用户,这促使全球大型科技公司关注或加快AI系统的推出,同时为对话式AI领域带来了新的生机。微软正在嵌入对话式AI到其浏览器、搜索引擎以及更广泛的产品系列;谷歌计划将聊天机器人Bard与Gmail和谷歌云中的其他集成项目相结合;百度等其他科技巨头也正在推出自己的聊天机器人;Jasper和Quora等初创企业则将生成式AI和对话式AI带入主流消费者市场……

尽管如此,广泛错误信息以及难以发现网络钓鱼电子邮件为这项技术应用带来真正风险。如果用于医疗信息处理,则可能导致误诊甚至医疗事故。如果数据多样化不足,还存在很高偏差风险。

虽然微软已经有了一个更准确重新训练模型,而且提供商如AI21努力验证生成内容与实时数据对比,但“看起来真实但完全不准确”的响应仍然存在较高风险。

欧盟内部市场专员Thierry Breton最近表示,将会发布包括针对ChatGPT和Bard等生成型AI系统条款的欧盟法案。他说:“正如ChatGPT所展示一样,基于高质量数据且值得信赖的人工智能对于企业与公民都非常重要。这就是为什么我们需要坚实而合乎道德的人工智能监管框架。”

分析软件提供商SAS在一份名为《负责任创新》报告中概述了这一问题报告作者Kirk Borne博士指出:“由于采用此类技术之迅速,而监管之缓慢,我们面临着如何区分真假好坏,以及如何治理这一挑战。”他还提醒,在伦理框架指导下开发并治理这些模型至关重要,以确保公平、透明且可靠地做决策。

专家们认为软件开发商必须降低使用这种工具代表潜在风险,只有最高风险活动才会面临最严格监管措施。此外,对于版权、隐私以及GDPR法规的问题也有探讨,如个人删除请求处理方式及其影响第三方服务条款,也可能违反网站服务条款抓取大量数据的问题。

标签: 智能仪表方案