使用AI搜索网络

使用AI搜索网络

  • 新一代基于人工智能的信息访问系统正在颠覆传统的互联网搜索引擎模式。
  • 这些系统建立在大型语言模型之上,这是一种机器学习技术,使用大量可用文本(例如维基百科和PubMed文章)来学习模式。
  • 一位信息科学家警告说,虽然他们提供风度翩翩的定制答案,并结合互联网知识的广度和深度,但也有缺点。
  • 他说,其中包括缺乏准确性、透明度以及可能削弱学习者的能力。

在搜索引擎成为常态之前,信息访问的主要模式——图书馆员和学科或搜索专家提供相关信息——是互动的、个性化的、透明的和权威的,搜索引擎是当今大多数人访问信息的主要方式,但输入几个关键字并获得按某些未知功能排名的结果列表并不理想。

包括微软的Bing/ChatGPT、谷歌/Bard和Meta/LLaMA在内的新一代基于人工智能的信息访问系统正在颠覆传统搜索引擎的搜索输入输出模式,这些系统能够将完整的句子甚至段落作为输入并生成个性化的自然语言响应。

乍一看,这似乎是两全其美:风度翩翩的定制答案与互联网知识的广度和深度相结合。但作为研究搜索和推荐系统的研究人员,我认为情况充其量是混合的。

ChatGPT和Bard等人工智能系统建立在大型语言模型之上,语言模型是一种机器学习技术,它使用大量可用文本(例如维基百科和PubMed文章)来学习模式。简而言之,这些模型根据一组单词或短语计算出下一个可能出现的单词。通过这样做,他们能够生成与用户查询相对应的句子、段落甚至页面。2023年3月14日,OpenAI宣布了下一代技术GPT-4,该技术可同时处理文本和图像输入,微软宣布其会话式必应基于GPT-4。

得益于对大量文本的训练、微调和其他基于机器学习的方法,这种信息检索技术非常有效,基于大型语言模型的系统生成个性化响应以完成信息查询。人们发现结果令人印象深刻,以至于 ChatGPT达到1亿用户的时间仅为TikTok达到该里程碑所需时间的三分之一,人们不仅用它来寻找答案,还用来进行诊断、制定节食计划和提出投资建议。

不透明和“幻觉”

但是,也有很多缺点,首先,考虑大型语言模型的核心是什么——一种连接单词及其含义的机制,这会产生一个通常看起来像是智能响应的输出,但众所周知,大型语言模型系统会在没有真正理解的情况下产生几乎是鹦鹉学舌的陈述,因此,虽然此类系统生成的输出看起来很聪明,但它只是AI在适当上下文中找到的潜在单词模式的反映。

这种限制使得大型语言模型系统容易编造或“幻觉”答案。这些系统也不够智能,无法理解问题的错误前提并无论如何回答错误的问题。例如,当被问及100美元钞票上是哪位美国总统的脸时,ChatGPT回答了本杰明·富兰克林,却没有意识到富兰克林从来都不是总统,并且100美元钞票上有美国总统照片的前提是不正确的。

问题是,即使这些系统只有10%的时间出错,您也不知道是哪10%,人们也没有能力快速验证系统的响应。这是因为这些系统缺乏透明度——它们不会透露它们接受过哪些数据训练、它们使用哪些来源得出答案或这些响应是如何生成的。

例如,您可以要求ChatGPT撰写带有引用的技术报告,但它常常构成这些引用——“幻觉”学术论文的标题和作者,系统也不会验证其响应的准确性,这将验证留给了用户,用户可能没有这样做的动机或技能,甚至没有意识到检查AI响应的必要性。

窃取内容流量

虽然缺乏透明度可能对用户有害,但对系统从中学习的原始内容的作者、艺术家和创作者也不公平,因为系统不会透露其来源或提供足够的归属。在大多数情况下,创作者得不到补偿或信用,也没有机会表示同意。

这也有一个经济角度,在典型的搜索引擎环境中,结果显示为带有源链接,这不仅允许用户验证答案并提供这些来源的属性,还可以为这些站点生成流量。这些来源中的许多都依赖于这种流量来获得收入,因为大型语言模型系统产生直接答案而不是他们从中提取的来源,我相信这些网站很可能会看到他们的收入来源减少。

最后,这种获取信息的新方式也会削弱人们的能力并剥夺他们学习的机会。典型的搜索过程允许用户探索其信息需求的可能性范围,通常会触发他们调整他们正在寻找的内容。它还为他们提供了一个机会,让他们了解那里有什么,以及各种信息如何连接起来以完成他们的任务。它允许意外相遇或意外发现。

这些都是搜索的非常重要的方面,但是当一个系统在不显示其来源或引导用户完成一个过程的情况下产生结果时,它就剥夺了他们这些可能性。

大型语言模型是信息访问的一大飞跃,它为人们提供了一种进行基于自然语言的交互、生成个性化响应并发现普通用户通常难以想出的答案和模式的方法。但由于他们学习和构建反应的方式,他们有严重的局限性。他们的回答可能是错误的、有毒的或有偏见的。

虽然其他信息访问系统也会遇到这些问题,但大型语言模型人工智能系统也缺乏透明度。更糟糕的是,他们的自然语言响应可能助长一种虚假的信任感和权威感,这对不知情的用户来说可能是危险的。

本站是提供个人分享的知识,所有内容均来源于网络,不代表本人观点。如有侵权,请告知!

发表评论

登录后才能评论