自动适应大小的图片广告
广告图片
首页 AI资讯“ChatGPT式胡说八道”引发关注:准确性漠视挑战公共服务人员,法律责任成难题

“ChatGPT式胡说八道”引发关注:准确性漠视挑战公共服务人员,法律责任成难题

分类:AI资讯
字数: 858
评论: 0
阅读: 88
自动适应大小的图片广告

两支研究团队发布的论文引发了广泛关注,它们直言生成式人工智能(AI)产品的输出内容基本可以被视为“胡说八道”。一篇题为“ChatGPT是胡说八道”的论文指出,生成式AI在产出信息时,对于准确性表现出的漠视给公共服务人员带来了诸多挑战,特别是那些肩负法律责任必须讲真话的官员们。

1000039051.png

论文作者Michael Townsen Hicks、James Humphries和Joe Slater强调,生成式AI产生的错误信息,不应简单地归类为“谎言”或“幻觉”。与故意欺骗的谎言不同,胡说八道是一种不在乎真相的表达方式,旨在给听众留下某种印象。他们认为,将AI的错误称为“幻觉”可能会误导公众,使人们误以为这些机器在某种程度上试图传达它们所“相信”的内容。

 

他们表示:“称这些错误为‘胡说八道’而不是‘幻觉’,不仅更加准确,还有助于提高公众对科技的理解。”这段话强调了使用更精确的术语来描述AI错误的重要性,特别是在当前科技传播亟待改进的背景下。

 

与此同时,另一篇关于大型语言模型(LLMs)的研究论文则集中讨论了欧盟在此问题上的法律与伦理环境。论文的结论是,当前关于AI的法律法规还不足以有效防止由这些AI所产生的“胡说八道”带来的潜在危害。作者Sandra Wachter、Brent Mittelstadt和Chris Russell建议引入类似出版领域的法规,强调避免可能造成社会危害的“随意发言”。

 

他们指出,这种义务强调,没有任何单一实体,不论是公共还是私营部门,应当成为真理的唯一裁决者。他们还表示,生成式AI的“随意发言”可能将真理转变为频率和多数意见的问题,而非基于真实的事实。

文章发布于: 2024-08-12 02:37:00
自动适应大小的图片广告
发表评论
😁 😅 🤣 😂 🙂 😊 😇 😍 🤩 😙 😘 😋 😛 🤪 😝 🤔 😮‍💨 😎 🤓 😓 😱 😭 👽