转载请注明出处: CHATWEB
本文的链接地址: https://chatweb.com.cn/post-22.html
两支研究团队发布的论文引发了广泛关注,它们直言生成式人工智能(AI)产品的输出内容基本可以被视为“胡说八道”。一篇题为“ChatGPT是胡说八道”的论文指出,生成式AI在产出信息时,对于准确性表现出的漠视给公共服务人员带来了诸多挑战,特别是那些肩负法律责任必须讲真话的官员们。
论文作者Michael Townsen Hicks、James Humphries和Joe Slater强调,生成式AI产生的错误信息,不应简单地归类为“谎言”或“幻觉”。与故意欺骗的谎言不同,胡说八道是一种不在乎真相的表达方式,旨在给听众留下某种印象。他们认为,将AI的错误称为“幻觉”可能会误导公众,使人们误以为这些机器在某种程度上试图传达它们所“相信”的内容。
他们表示:“称这些错误为‘胡说八道’而不是‘幻觉’,不仅更加准确,还有助于提高公众对科技的理解。”这段话强调了使用更精确的术语来描述AI错误的重要性,特别是在当前科技传播亟待改进的背景下。
与此同时,另一篇关于大型语言模型(LLMs)的研究论文则集中讨论了欧盟在此问题上的法律与伦理环境。论文的结论是,当前关于AI的法律法规还不足以有效防止由这些AI所产生的“胡说八道”带来的潜在危害。作者Sandra Wachter、Brent Mittelstadt和Chris Russell建议引入类似出版领域的法规,强调避免可能造成社会危害的“随意发言”。
他们指出,这种义务强调,没有任何单一实体,不论是公共还是私营部门,应当成为真理的唯一裁决者。他们还表示,生成式AI的“随意发言”可能将真理转变为频率和多数意见的问题,而非基于真实的事实。
转载请注明出处: CHATWEB
本文的链接地址: https://chatweb.com.cn/post-22.html