如果ChatGPT能让我们不那么容易上当受骗怎么办?

如果ChatGPT能让我们不那么容易上当受骗怎么办?

  • 人工智能可能是一种认知威胁,”ChatGPT说,它不区分可靠信息和可疑信息。
  • 美德认识论者在deepfakes方面的工作的见解有助于思考ChatGPT的可能影响。
  • ChatGPT可以帮助提高我们的“数字敏感度”,使我们能够准确辨别网上流传的大量图像和视频的真假

ChatGPT由OpenAI于2022年11月30日发布,几乎可以完美地模拟整个讨论或通过生成似乎直接来自人脑的文本来回答复杂的问题。

这一突破引发了一系列担忧,包括经济、伦理和“认知”(可靠知识和信息的生产或获取)问题,因为这种类型的人工智能在现阶段无法区分可靠和有问题的信息。

“人工智能可能是一种认知威胁,”ChatGPT说

“人工智能可能是一种认知威胁,因为它可以产生令人信服但虚假的信息。这可能会挑战我们对世界的理解,甚至危及我们知识的有效性。这引发了人们对使用人工智能传播虚假信息或操纵人们信仰的可能性的担忧。”

不是我说的,是……ChatGPT本身!当被问及以下问题时,它生成了上一段:“人工智能如何成为一种认知威胁?” 从这个例子中我们可以看出,它的答案可能非常有说服力——但也很愚蠢。有时虚假内容很明显,有时更难发现。

在我们的例子中,虽然第一句话没有什么错误,但第二句话是毫无意义的陈词滥调:“挑战我们对世界的理解”或“危及我们知识的有效性”到底是什么意思?第三句话没有多大意义:这些人工智能不传播任何东西,它们也不是最适合操纵的(因为我们对它们产生的东西没有太多控制)。

但这就是问题所在:我们必须思考才能弄清真相。

ChatGPT丝毫不关心其回复的真实性—Erwan Lamy,ESCP商学院信息与运营管理副教授

我们必须了解的是,ChatGPT的编程目的不是回答问题,而是生成听起来似是而非的文本。当有大量文本可供它“阅读”时,它尤其强大,在ChatGPT的案例中,这是惊人的。

当给定一个特定的单词序列时,ChatGPT可以确定最有可能完成它的单词序列。因此,ChatGPT可以以一种必然可信的方式“回答”问题,因为它会计算出最有可能的回答。但是没有涉及逻辑或思维。无非就是概率的计算。ChatGPT丝毫不关心其回复的真实性。换句话说,即使对于像普林斯顿大学计算机科学家Arvind Narayanan和Sayash Kapoor这样的学者来说,它也是一个“废话生成器”。

自从Harry Frankfurt在2000年代将“胡说八道”作为一篇文章和一本书的主题以来,它已经成为一个哲学概念。心理学、哲学、神经科学和管理科学领域的认真研究人员现在正在研究这个主题。这个词变得更加复杂,但在这里我们可以参考它最初的定义:对真相的冷漠。这不是谎言:说谎者关心的是真相,因为他们试图歪曲事实。另一方面,胡说八道者不顾事实,只是想吸引人——他们说的有时是对的,有时是错的,但没关系。

才华横溢的ChatGPT正是这种情况。当它出错时,它并不明显——至少不会立即出现。每个人都可以使用功能强大、易于使用的单词生成器,但没有义务展示事实?确实有理由担心。不难想象,无良内容的编辑如何能够轻易地使用这个工具来生产“信息”,尤其是因为ChatGPT甚至似乎有能力在自己的专业领域愚弄学者。

认知上的恶习和美德

危在旦夕的是知识分子的伦理意识。与流行的看法相反,知识(科学或其他)的产生和获取不仅仅是方法问题。这也是一个道德问题。哲学家谈论智力上的恶习和美德,这可以定义为阻碍或促进可靠信息的获取和生产的人格特质。

思想开放是认知美德的一个例子,而教条主义是恶习的一个例子。自1990年代初以来,越来越多的哲学文献都在讨论这些概念:美德认识论。由于其目标是正确定义知识,因此这项研究从一开始就本质上是技术性的,但现在它也关注我们这个时代的认知问题:虚假信息、假新闻,当然还有人工智能带来的危险。

直到最近,讨论 AI 认知后果的美德认识论者还特别关注“deepfakes” ——完全由AI生成的视频,例如OpenAI 的DALL·E,可以以惊人的真实度展示真实的个人在完全虚构的、可耻的情况下。这项工作的见解有助于思考ChatGPT可能产生的影响,并且可能有助于消除可能有些过度的悲观情绪。

deepfakes 的制作显然是一个问题,但此类视频的广泛传播可能会导致公众对图像的作用产生一种普遍的怀疑,一种“知识分子犬儒主义”。提出这个建议的作者(2022年)将其视为认知上的恶习,因为它会导致人们怀疑虚构的信息和基于证据的信息。但我不确定愤世嫉俗会是一件坏事:这相当于回到了一个时代,不是很久以前,那时图像在信息获取中没有发挥如此重要的作用。在我看来,这一次(1930年代之前)从认识论上来说并不是特别恶毒。

提高我们的数字敏感性

无论如何,这种愤世嫉俗可能反过来导致一种认知美德的发展:某种“数字敏感性”,使我们能够在网上流传的大量图像和视频中准确辨别真假。

ChatGPT也可以提升这种数字敏感性。由这个 AI 生成的文本的读者,可能会被它可能喷出的大量废话吓跑,在在线阅读文本或面对图像时可能会变得更加谨慎(因为害怕被deepfake愚弄)——而不会跌倒变成一种普遍的怀疑主义。

本站是提供个人分享的知识,所有内容均来源于网络,不代表本人观点。如有侵权,请告知!

发表评论

邮箱地址不会被公开。