🌐 English | 简体中文 | 繁體中文 | 日本語 | 한국어 | Español | Français | Deutsch | Português | Русский | Italiano | Nederlands | Polski | Türkçe | العربية | हिन्दी | Tiếng Việt | Indonesia
使用
lmms-eval加速大型多模态模型(LMM)的开发与评估,支持文本、图像、视频、音频等多种任务。
🏠 LMMs-Lab 主页 | 🤗 Huggingface 数据集 | 
📖 支持的任务 (100+) | 🌟 支持的模型 (30+) | 📚 文档
评估多模态模型比看起来要困难。我们有数百个基准测试,但没有运行它们的标准方法。不同实验室之间的结果各不相同,导致对比变得不可靠。我们一直在致力于解决这个问题——不是通过英雄式的个人努力,而是通过系统化的流程。
2026年1月 - 我们意识到空间推理和组合推理仍然是现有基准测试的盲点。我们添加了 CaptionQA、SpatialTreeBench、SiteBench 和 ViewSpatial。对于运行远程评估流水线的团队,我们引入了 HTTP 评估服务器 (#972)。对于需要统计严密性的用户,我们添加了中心极限定理(CLT)和聚类标准误差估计 (#989)。
2025年10月 (v0.5) - 音频评估曾是一个空白。模型可以“听”,但我们没有一致的方法来测试它们。此版本添加了全面的音频评估、响应缓存以提高效率,以及 50 多个涵盖音频、视觉和推理的基准变体。发布说明。
以下是由我们优秀的贡献者添加的近期任务、模型和功能的按时间顺序排列的列表。
- [2025-01] 🎓🎓 我们发布了新的基准测试:Video-MMMU: Evaluating Knowledge Acquisition from Multi-Discipline Professional Videos。详情请参阅项目主页。
- [2024-12] 🎉🎉 我们与 MME 团队和 OpenCompass 团队共同发布了 MME-Survey: A Comprehensive Survey on Evaluation of Multimodal LLMs。
- [2024-11] 🔈🔊
lmms-eval/v0.3.0已升级,支持对 Qwen2-Audio 和 Gemini-Audio 等音频模型在 AIR-Bench、Clotho-AQA、LibriSpeech 等任务上进行音频评估。详情请参阅博客! - [2024-10] 🎉🎉 欢迎新任务 NaturalBench,这是一个以视觉为核心的 VQA 基准测试 (NeurIPS'24),通过关于自然图像的简单问题挑战视觉语言模型。
- [2024-10] 🎉🎉 欢迎新任务 TemporalBench,用于视频的细粒度时间理解和推理,揭示了巨大的 (>30%) 人机差距。
- [2024-10] 🎉🎉 欢迎新任务 VDC(用于视频详细字幕生成)、MovieChat-1K(用于长视频理解)和 Vinoground(一个由 1000 个短自然视频-字幕对组成的时间反事实 LMM 基准测试)。同时欢迎新模型:AuroraCap 和 MovieChat。
- [2024-09] 🎉🎉 欢迎新任务 MMSearch 和 MME-RealWorld 以加速推理。
- [2024-09] ⚙️️⚙️️️️ 我们将
lmms-eval升级到0.2.3,增加了更多任务和功能。我们支持一组紧凑的语言任务评估(代码致谢 lm-evaluation-harness),并删除了启动时的注册逻辑(针对所有模型和任务)以减少开销。现在lmms-eval仅启动必要的任务/模型。详情请查看发布说明。 - [2024-08] 🎉🎉 欢迎新模型 LLaVA-OneVision、Mantis,以及新任务 MVBench、LongVideoBench、MMStar。我们为 llava-onevision 模型提供了 SGlang Runtime API 的新功能,请参考文档以加速推理。
- [2024-07] 👨💻👨💻
lmms-eval/v0.2.1已升级以支持更多模型,包括 LongVA、InternVL-2、VILA,以及更多评估任务,例如 Details Captions、MLVU、WildVision-Bench、VITATECS 和 LLaVA-Interleave-Bench。 - [2024-07] 🎉🎉 我们发布了技术报告和 LiveBench!
- [2024-06] 🎬🎬
lmms-eval/v0.2.0已升级,支持对 LLaVA-NeXT Video 和 Gemini 1.5 Pro 等视频模型在 EgoSchema、PerceptionTest、VideoMME 等任务上进行视频评估。详情请参阅博客! - [2024-03] 📝📝 我们发布了
lmms-eval的第一个版本,详情请参阅博客!
我们正踏上通往通用人工智能(AGI)的征程,这份热情不亚于 1960 年代的登月计划。推动这一进程的是大型语言模型(LLM)和大型多模态模型(LMM),它们能够理解、学习并完成各类人类任务。
为了评估这些模型的能力,我们需要各种基准测试。然而现实是,这些基准和数据集散落在 Google Drive、Dropbox、各高校和实验室的网站上,找起来就像寻宝一样费劲。
在语言模型领域,lm-evaluation-harness 开创了先河。我们借鉴了它优雅高效的设计理念,打造了 lmms-eval,一个专为多模态模型设计的统一评估框架。
我们使用 uv 进行包管理,确保所有开发者的环境一致。首先安装 uv:
curl -LsSf https://astral.sh/uv/install.sh | sh克隆仓库并安装:
git clone https://github.com/EvolvingLMMs-Lab/lmms-eval
cd lmms-eval
# 推荐
uv pip install -e ".[all]"
# 如果您想使用 uv sync
# uv sync # 这会从 uv.lock 创建/更新您的环境执行命令:
uv run python -m lmms_eval --help直接从 Git 安装:
uv venv eval
uv venv --python 3.12
source eval/bin/activate
# 使用此方式安装时,可能需要自行添加任务配置文件
uv pip install git+https://github.com/EvolvingLMMs-Lab/lmms-eval.git更多示例请参见 examples/models
OpenAI 兼容模型的评估
bash examples/models/openai_compatible.sh
bash examples/models/xai_grok.shvLLM 的评估
bash examples/models/vllm_qwen2vl.shLLaVA-OneVision 的评估
bash examples/models/llava_onevision.shLLaVA-OneVision1_5 的评估
bash examples/models/llava_onevision1_5.shLLaMA-3.2-Vision 的评估
bash examples/models/llama_vision.shQwen2-VL 的评估
bash examples/models/qwen2_vl.sh
bash examples/models/qwen2_5_vl.sh针对大模型使用张量并行进行评估 (llava-next-72b)
bash examples/models/tensor_parallel.sh针对大模型使用 SGLang 进行评估 (llava-next-72b)
bash examples/models/sglang.sh针对大模型使用 vLLM 进行评估 (llava-next-72b)
bash examples/models/vllm_qwen2vl.sh更多参数
python3 -m lmms_eval --help环境变量 在运行实验和评估之前,我们建议您向环境中导出以下环境变量。某些任务的运行需要其中的一些变量。
export OPENAI_API_KEY="<YOUR_API_KEY>"
export HF_HOME="<Path to HF cache>"
export HF_TOKEN="<YOUR_API_KEY>"
export HF_HUB_ENABLE_HF_TRANSFER="1"
export REKA_API_KEY="<YOUR_API_KEY>"
# 其他可能的环境变量包括
# ANTHROPIC_API_KEY, DASHSCOPE_API_KEY 等。常见环境问题
有时您可能会遇到一些常见问题,例如与 httpx 或 protobuf 相关的错误。要解决这些问题,您可以首先尝试:
python3 -m pip install httpx==0.23.3;
python3 -m pip install protobuf==3.20;
# 如果您使用的是 numpy==2.x,有时可能会导致错误
python3 -m pip install numpy==1.26;
# 有时需要 sentencepiece 才能使分词器工作
python3 -m pip install sentencepiece;请参阅我们的文档。
lmms-eval 基于 lm-eval-harness 开发。建议阅读其文档了解更多背景。
@misc{zhang2024lmmsevalrealitycheckevaluation,
title={LMMs-Eval: Reality Check on the Evaluation of Large Multimodal Models},
author={Kaichen Zhang and Bo Li and Peiyuan Zhang and Fanyi Pu and Joshua Adrian Cahyono and Kairui Hu and Shuai Liu and Yuanhan Zhang and Jingkang Yang and Chunyuan Li and Ziwei Liu},
year={2024},
eprint={2407.12772},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2407.12772},
}
@misc{lmms_eval2024,
title={LMMs-Eval: Accelerating the Development of Large Multimoal Models},
url={https://github.com/EvolvingLMMs-Lab/lmms-eval},
author={Bo Li*, Peiyuan Zhang*, Kaichen Zhang*, Fanyi Pu*, Xinrun Du, Yuhao Dong, Haotian Liu, Yuanhan Zhang, Ge Zhang, Chunyuan Li and Ziwei Liu},
publisher = {Zenodo},
version = {v0.1.0},
month={March},
year={2024}
}