×

比人类便宜20倍!谷歌DeepMind推出「超人」AI系统

admin admin 发表于2024-05-02 06:09:11 浏览9 评论0

抢沙发发表评论

  新智元报道

  编辑:alan

  大模型的幻觉问题怎么解?谷歌 DeepMind:用 AI 来做同行评审!事实核验正确率超过人类,而且便宜 20 倍。

  AI 的同行评审来了!

  一直以来,大语言模型胡说八道(幻觉)的问题最让人头疼,而近日,来自谷歌 DeepMind 的一项研究引发网友热议:

  大模型的幻觉问题,好像被终结了?

  论文地址:https://arxiv.org/pdf/2403.18802.pdf

  项目地址:https://github.com/google-deepmind/long-form-factuality

  在这篇工作中,研究人员介绍了一种名为 "搜索增强事实性评估器"(Search-Augmented Factuality Evaluator,SAFE)的方法。

  对于 LLM 的长篇回答,SAFE 使用其他的 LLM,将答案文本分解为单个叙述,然后使用诸如 RAG 等方法,来确定每个叙述的准确性。

  ——简单来说就是:AI 答题,AI 判卷,AI 告诉 AI 你这里说的不对。

  真正的「同行」评审。

  另外,研究还发现,相比于人工标注和判断事实准确性,使用 AI 不但便宜 20 倍,而且还更靠谱!

  目前这个项目已在 GitHub 上开源。

  长文本事实性检验

  大语言模型经常胡说八道,尤其是有关开放式的提问、以及生成较长的回答时。

  比如小编随手测试一下当前最流行的几个大模型。

  ChatGPT:虽然我的知识储备只到 2021 年 9 月,但我敢于毫不犹豫地回答任何问题。

  Claude 3:我可以谦卑且胡说八道。

  为了对大模型的长篇回答进行事实性评估和基准测试,研究人员首先使用 GPT-4 生成 LongFact,这是一个包含数千个问题的提示集,涵盖 38 个主题。

  LongFact 包含两个任务:LongFact-Concepts 和 LongFact-Objects,前者针对概念、后者针对实体。每个包括 30 个提示,每个任务各有 1140 个提示。

  然后,使用搜索增强事实性评估器(SAFE),利用 LLM 将长篇回复分解为一组单独的事实,并使用多步骤推理过程来评估每个事实的准确性,包括使用网络搜索来检验。

  此外,作者建议将 F1 分数进行扩展,提出了一种兼顾精度和召回率的聚合指标。

  SAFE 工作流程

  如上图所示,首先提示语言模型将长篇响应中的每个句子拆分为单个事实。

  然后,通过指示模型将模糊的引用(代词等)替换为上下文中引用的适当实体,将每个单独的事实修改为自包含的事实。

  为了对每个独立的个体事实进行评分,研究人员使用语言模型来推理该事实是否与上下文中相关,并且使用多步骤方法对每个相关事实进行评定。

  如上图所示,在每个步骤中,模型都会根据要评分的事实和先前获得的搜索结果生成搜索查询。

  在设定的步骤数之后,模型执行推理以确定搜索结果是否支持该事实。

  比人类更好用

  首先,直接比较对于每个事实的 SAFE 注释和人类注释,可以发现,SAFE 在 72.0% 的单个事实上与人类一致(见下图),表明 SAFE 几乎达到了人类的水平。

  ——这还没完,跟人类一致并不代表正确,如果拿正确性 PK 一下呢?

  研究人员在所有 SAFE 注释与人类注释产生分歧的案例中,随机抽样出 100 个,然后人工重新比较到底谁是正确的(通过网络搜索等途径)。

  最终结果让人震惊:在这些分歧案例中,SAFE 注释的正确率为 76%,而人工注释的正确率仅为 19%(见上图),——SAFE 以将近 4 比 1 的胜率战胜了人类。

  然后我们再看一下成本:总共 496 个提示的评分,SAFE 发出的 GPT-3.5-Turbo API 调用成本为 64.57 美元,Serper API 调用成本为 31.74 美元,因此总成本为 96.31 美元,相当于每个响应 0.19 美元。

  而人类标注这边,每个响应的成本为 4 美元,——AI 比人类便宜了整整 20 多倍!

  对此,有网友评价,LLM 在事实核验上有「超人」级别的表现。

  评分结果

  据此,研究人员在 LongFact 上对四个模型系列(Gemini、GPT、Claude 和 PaLM-2)的 13 个语言模型进行了基准测试,结果如下图所示:

  研究人员发现,一般情况下,较大的模型可以实现更好的长格式事实性。

  例如,GPT-4-Turbo 比 GPT-4 好,GPT-4 比 GPT-3.5-Turbo 好,Gemini-Ultra 比 Gemini-Pro 更真实,而 PaLM-2-L-IT-RLHF 比 PaLM-2-L-IT 要好。

  在两个选定的K值下,三个表现最好的模型(GPT-4-Turbo、GeminiUltra 和 PaLM-2-L-IT-RLHF),都是各自家族中超大杯。

  另外,Gemini、Claude-3-Opus 和 Claude-3-Sonnet 等新模型系列正在赶超 GPT-4,——毕竟 GPT-4(gpt-4-0613)已经有点旧了。

  是误导吗?

  对于人类在这项测试中颜面尽失的结果,我们不免有些怀疑,成本应该是比不过 AI,但是准确性也会输?

  Gary Marcus 表示,你这里面关于人类的信息太少了?人类标注员到底是什么水平?

  为了真正展示超人的表现,SAFE 需要与专业的人类事实核查员进行基准测试,而不仅仅是众包工人。人工评分者的具体细节,例如他们的资格、薪酬和事实核查过程,对于比较的结果至关重要。

  「这使得定性具有误导性。」

  当然了,SAFE 的明显优势就是成本,随着语言模型生成的信息量不断爆炸式增长,拥有一种经济且可扩展的方式,来进行事实核验将变得越来越重要。

  参考资料:

  https://venturebeat.com/ai/google-deepmind-unveils-superhuman-ai-system-that-excels-in-fact-checking-saving-costs-and-improving-accuracy/

群贤毕至

访客