在人工智能领域,MMBench以其卓越的性能和全面的评估能力,成为了新的多模态基准测试标杆。这款由上海人工智能实验室、南洋理工大学、香港中文大学、新加坡国立大学和浙江大学共同研发的测试工具,不仅展现了人工智能技术的最新成果,也为该领域的研究和应用提供了强有力的支持。
MMBench开发了一个从感知到认知能力的综合评估流程,这一流程覆盖了20项细粒度能力。为了确保测试的广泛性和深度,该体系从互联网与权威基准数据集中精心挑选了约3000道单项选择题。这些题目不仅涵盖了目标检测、文字识别、动作识别、图像理解等基础能力,还涉及了关系推理等高级认知能力,确保了对模型性能的全面评估。
细粒度的评估维度:MMBench基于感知与推理,将评估维度逐级细分,确保了对模型性能的精准把控。约3000道单项选择题覆盖了从基础到高级的多个方面,使评估结果更加全面和准确。
鲁棒性的评估方式:与传统的基于规则匹配提取选项的评测方式不同,MMBench采用了循环打乱选项验证输出结果一致性的方法。这种方法能够最大程度减少各种噪声因素对评测结果的影响,保证结果的可复现性。相同单选问题循环选项提问,模型输出全部指向同一答案才能认定为通过,这种评估方式相比传统一次性通过评估的top-1准确率平均下降了10%至20%,但这也正是其鲁棒性的体现。
可靠的模型输出提取方法:为了进一步提高评估的可靠性,MMBench采用了基于ChatGPT的匹配模型来提取模型输出与选项。这种方法不仅能够准确匹配模型输出与选项,还能在模型未按照指令输出时找到最合理的选项。这种更可靠的模型输出提取方法使得评估结果更加准确和可靠。
总之,MMBench作为一款领先的多模态基准测试工具,以其综合评估流程、细粒度的评估维度、鲁棒性的评估方式和可靠的模型输出提取方法,为人工智能领域的研究和应用提供了强有力的支持。未来,我们有理由相信MMBench将在该领域发挥更加重要的作用,推动人工智能技术的不断发展和进步。