ChatGPT为什么会引发信任危机?(无法验证知识的真实性)

ChatGPT为什么会引发信任危机?(无法验证知识的真实性)

  • 一位政治学教授表示,ChatGPT可能看起来只是另一个信息来源,但它产生输出的方式引发了对可靠性的质疑。
  • 机器学习模型看起来很复杂,但它们基本上只是复杂的自动完成机器,将其他人的工作重新打包,就好像它是新事物一样,而不了解它们产生的结果。
  • 这就是为什么虽然ChatGPT可以创建明显连贯的书面作品,但将其输出误认为科学知识是不可取的。

    在ChatGPT引发的所有反应中,美国营利性公司OpenAI的聊天机器人能够对自然语言查询做出语法正确的反应,但很少有人能与教育工作者和学者的反应相提并论。

    学术出版商已开始禁止将ChatGPT列为合著者,并发布严格的指导方针,概述其使用条件。世界各地的主要大学和学校,从法国著名的巴黎政治学院到许多澳大利亚大学,都禁止使用它。

    这些禁令不仅仅是担心他们无法抓到作弊者的学者的行为。这不仅仅是要抓住没有注明出处就抄袭来源的学生。相反,这些行为的严重性反映了一个问题,一个在OpenAI的ChatGPT聊天机器人无休止的报道中没有得到足够关注的问题:为什么我们应该相信它输出的任何东西?

    这是一个至关重要的问题,因为ChatGPT和类似程序可以很容易地在构成我们社会基础的信息源中使用,无论是否得到承认,尤其是学术界和新闻媒体。

    根据我在知识治理政治 经济学方面的工作,对ChatGPT使用的学术禁令是对ChatGPT对我们整个信息生态系统构成的威胁的相应反应。记者和学者应谨慎使用 ChatGPT。

    根据其输出,ChatGPT 可能看起来只是另一个信息源或工具。然而,实际上,ChatGPT——或者更确切地说,ChatGPT产生输出的方式——是一把匕首,直接瞄准了它们作为权威知识来源的可信度,不应掉以轻心。

    信任和信息

    想一想为什么我们认为某些信息源或知识类型比其他的更值得信赖,自欧洲启蒙运动以来,我们就倾向于将科学知识等同于一般知识。

    科学不仅仅是实验室研究:它是一种思维方式,它优先考虑基于经验的证据,并追求关于证据收集和评估的透明方法,它往往是判断所有知识的黄金标准。

    例如,记者具有可信度,因为他们调查信息、引用消息来源并提供证据,尽管有时报告可能包含错误或遗漏,但这不会改变该行业的权威。

    意见社论作家也是如此,尤其是学者和其他专家,因为他们——我们——从我们作为某一学科专家的地位中获得权威,专业知识涉及对我们领域中公认的合法知识来源的掌握。

    大多数专栏文章的引用并不多,但负责任的学者将能够向您指出思想家和他们所借鉴的工作 ,这些来源本身是建立在读者应该能够自己验证的可验证来源之上的。

    真相与输出

    因为人类作家和ChatGPT似乎产生相同的输出——句子和段落——所以有些人可能会错误地将这种科学来源的权威授予ChatGPT的输出,这是可以理解的。

    ChatGPT和记者都产生句子是相似性的终结点,最重要的——权威的来源——不是他们生产什么,而是他们如何生产。

    ChatGPT不会像记者那样造句,ChatGPT和其他机器学习大型语言模型可能看起来很复杂,但它们基本上只是复杂的自动完成机器,只是他们不是在电子邮件中建议下一个词,而是在更长的包裹中产生统计上最可能的词。

    这些程序将其他人的作品重新包装,就好像它是新事物一样,它不“理解”它产生的东西。

    这些输出的理由永远不可能是事实,它的真实性是相关性的真实性,“句子”这个词应该总是完成短语“我们完成彼此的……”,因为这是最常见的情况,而不是因为它表达了任何已经观察到的东西。

    因为ChatGPT的真相只是一个统计真相,所以这个程序产生的输出永远不能像我们可以信任记者或学者的输出那样被信任,它无法得到验证,因为它被构建为以不同于我们通常认为的“科学”方式产生输出。

    您无法检查ChatGPT的来源,因为来源是统计事实,即大多数时候,一组词倾向于相互跟随。

    无论ChatGPT的输出看起来多么连贯,简单地发布它产生的内容仍然等同于让自动完成功能失控。这是一种不负责任的做法,因为它假装这些统计技巧等同于来源丰富且经过验证的知识。

    同样,将ChatGPT纳入其工作流程的学者和其他人冒着将整个科学知识大厦从他们自己的脚下踢出去的生存风险。

    因为ChatGPT的输出是基于相关性的,作者如何知道它是准确的?他们是否根据实际来源对其进行了验证,或者输出是否仅符合他们的个人偏见?如果他们是各自领域的专家,为什么他们首先要使用ChatGPT?

    ChatGPT为什么会引发信任危机?(无法验证知识的真实性)

    知识生产与验证

    关键是ChatGPT的流程让我们无法验证其真实性,相比之下,记者和学者拥有一种科学的、基于证据的知识产生方法,可以用来验证他们的工作,即使结果可能与我们先入为主的观念背道而驰。

    考虑到我们在创造知识方面的核心作用,这个问题对学术界来说尤为尖锐,依靠ChatGPT来撰写专栏的一部分意味着他们不再依赖经过验证的来源中嵌入的科学权威。

    相反,通过求助于统计生成的文本,他们实际上是在根据权威进行论证,这样的行为也会误导读者,因为读者无法区分作者和人工智能的文本。

    ChatGPT可能会产生看似清晰的知识,就像变魔术一样,但我们最好不要将其输出误认为是实际的科学知识。永远不要将连贯性与理解混为一谈。

    ChatGPT承诺可以轻松访问新知识和现有知识,但它是一个有毒的酒杯,读者、学者和记者要小心了。

本站是提供个人分享的知识,所有内容均来源于网络,不代表本人观点。如有侵权,请告知!

发表评论

邮箱地址不会被公开。