3一6年级科技小制作手工解锁生成式AI机器人的未来

在ChatGPT和Bard等生成式AI机器人日益普及的时代,如何监管这些智能工具成为了全球政策制定者面临的一个挑战。这些AI模型能够通过关键字生成内容,并接受大量知识的训练,这些特点使它们具有广泛的应用潜力,但也带来了风险。

ChatGPT自推出以来迅速获得了1亿多用户,成为历史上增长速度最快的消费产品。这促使科技巨头们加快对话式AI领域的发展,如微软正在嵌入其浏览器、搜索引擎和产品系列;谷歌计划在聊天机器人Bard以及Gmail和云中的其他集成方面做同样的事情;百度等其他公司也推出了自己的聊天机器人。

然而,这些技术带来的错误信息、网络钓鱼电子邮件以及医疗信息填充模型不够多样化的问题,为AI应用带来了真正的风险。如果不加以监管,可能会导致误诊和医疗事故。此外,由于数据偏差风险较高,即便是经过重新训练或验证,也难以保证内容完全准确。

欧盟内部市场专员Thierry Breton近期表示,将会出台一项针对ChatGPT和Bard等生成型AI系统的法案。他强调:“我们需要一个坚实的监管框架,以确保基于高质量数据值得信赖的人工智能。”

分析软件提供商SAS在《AI与负责任创新》报告中指出,采用这项技术速度远超监管步伐。因此,我们需要使用道德框架来指导AI模型开发,并实施严格规则,以确保公平、透明且公正决策。在某些情况下,只有最高风险活动才会面临更严格监管措施。

除了整体监管之外,还有关于版权、隐私以及GDPR法规的问题。例如,对于个人的删除或更正请求,以及从第三方网站抓取大量数据的问题尚未得到解决。此外,加强算法透明度也是解决方案之一,因为大型科技公司可能会游说政府,不愿承担无法预见未来所有潜在用途和风险的情况下的义务。

总之,在这个困难时刻,我们需要激励措施朝向开放和透明方向发展,以便更好地理解AI如何做出决策并生成内容。

标签: 智能互联网