We present ModelTables, a benchmark of tables in Model Lakes that captures the structured semantics of performance and configuration tables often overlooked by text only retrieval. The corpus is built from Hugging Face model cards, GitHub READMEs, and referenced papers, linking each table to its surrounding model and publication context. Compared with open data lake tables, model tables are smaller yet exhibit denser inter table relationships, reflecting tightly coupled model and benchmark evolution. The current release covers over 60K models and 90K tables. To evaluate model and table relatedness, we construct a multi source ground truth using three complementary signals: (1) paper citation links, (2) explicit model card links and inheritance, and (3) shared training datasets. We present one extensive empirical use case for the benchmark which is table search. We compare canonical Data Lake search operators (unionable, joinable, keyword) and Information Retrieval baselines (dense, sparse, hybrid retrieval) on this benchmark. Union based semantic table retrieval attains 54.8 % P@1 overall (54.6 % on citation, 31.3 % on inheritance, 30.6 % on shared dataset signals); table based dense retrieval reaches 66.5 % P@1, and metadata hybrid retrieval achieves 54.1 %. This evaluation indicates clear room for developing better table search methods. By releasing ModelTables and its creation protocol, we provide the first large scale benchmark of structured data describing AI model. Our use case of table discovery in Model Lakes, provides intuition and evidence for developing more accurate semantic retrieval, structured comparison, and principled organization of structured model knowledge. Source code, data, and other artifacts have been made available at https://github.com/RJMillerLab/ModelTables.


翻译:我们提出了ModelTables,一个模型湖中表格的基准数据集,它捕捉了性能与配置表格的结构化语义,这些语义常被纯文本检索所忽视。该语料库构建自Hugging Face模型卡片、GitHub README文件以及引用的论文,将每个表格与其相关的模型和发表背景相链接。与开放数据湖表格相比,模型表格规模较小,但展现出更密集的表格间关系,反映了模型与基准测试紧密耦合的演化过程。当前版本涵盖超过60K个模型和90K个表格。为评估模型与表格的关联性,我们利用三种互补信号构建了一个多源真实标注集:(1) 论文引用链接,(2) 显式的模型卡片链接与继承关系,以及(3) 共享的训练数据集。我们为该基准提出了一个广泛的实证用例——表格搜索。我们在该基准上比较了经典数据湖搜索操作符(可并集、可连接、关键词)与信息检索基线方法(稠密检索、稀疏检索、混合检索)。基于并集的语义表格检索总体P@1达到54.8%(引用信号为54.6%,继承信号为31.3%,共享数据集信号为30.6%);基于表格的稠密检索达到66.5% P@1,而元数据混合检索为54.1%。此评估表明开发更优表格搜索方法具有明确空间。通过发布ModelTables及其构建协议,我们提供了首个描述AI模型的大规模结构化数据基准。我们在模型湖中表格发现的用例,为开发更精确的语义检索、结构化比较以及结构化模型知识的系统化组织提供了直观依据与实证证据。源代码、数据及其他相关资源已发布于https://github.com/RJMillerLab/ModelTables。

0
下载
关闭预览

相关内容

FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
163+阅读 · 2019年10月12日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员