智快网
快讯 行业 产业 汽车 科技 AI+ 热点

斯坦福学者法庭文件出错,ChatGPT辅助工作引发可信度争议

2024-12-05来源:ITBEAR编辑:瑞雪

近期,斯坦福大学社会媒体实验室的创立者及错误信息领域的专家杰夫·汉考克,在一项涉及明尼苏达州选举法案的法庭文件中,承认借助了人工智能工具ChatGPT来辅助整理文献资料。然而,这一行为却引发了关于文件可信度的广泛争议。

汉考克提交的这份宣誓证词,旨在支持明尼苏达州一项旨在规范使用深度伪造技术影响选举的法案。然而,该法案正面临来自保守派YouTuber克里斯托弗·科尔斯及明尼苏达州众议员玛丽·弗兰森等人的挑战。在审查过程中,他们的律师发现汉考克的宣誓证词中引用了并不存在的文献,质疑其可靠性,并请求在审议过程中将其排除。

面对质疑,汉考克坦然承认了自己使用了ChatGPT这一事实,但坚决否认用它来撰写证词内容。他强调,证词的全部内容均出自他之手,并且每一项主张都基于最新的学术研究,同时反映了他作为专家对于人工智能与虚假信息社会影响的深刻见解。

关于引文错误的问题,汉考克给出了详细的解释。他表示,在准备证词时,他利用Google Scholar和GPT-4来搜索可能与证词相关的文章,以便将已知知识与新研究相结合。在创建引文列表的过程中,他使用了GPT-4,但并未意识到该工具生成了两个错误的引文,即所谓的“幻觉”,并且为另一个引文错误地添加了作者。

汉考克对此表示深感抱歉,他强调自己无意误导法院或律师,并对由此造成的混乱表示诚挚的歉意。尽管如此,他依然坚持认为宣誓证词中的所有实质性观点都是站得住脚的。

这一事件再次提醒我们,在利用AI辅助工作时,必须高度重视人工审核和验证的重要性。尽管AI工具能够为我们提供便捷和高效的服务,但其生成的内容仍需经过严格的审查,以确保其准确性和可靠性。