The paper investigates the efficacy of parameter shrinkage on count data models through the use of penalized likelihood methods. The goal is to fit models to count data where multiple independent count variables are observed with only a moderate sample size per variable. The possibility of zero-inflated counts is also plausible for the data. In the context considered here, elementary school-aged kids were given passages of different lengths to read. We aim to find a suitable model that accurately captures their oral reading fluency (ORF) as measured by number of words read incorrectly (WRI) scores. The dataset contains information about the length of the passages (number of words) and WRI scores obtained from recorded reading sessions. The idea is to find passage-level parameter estimates with good MSE properties. Improvement over maximum likelihood MSE is considered by applying appending penalty functions to the negative log-likelihood. Three statistical models are considered for WRI scores, namely the binomial, zero-inflated binomial, and beta-binomial. The paper explores two types of penalty functions resulting in estimators that are either closer to $0$ or closer to the equivalent parameters corresponding to other passages. The efficacy of the shrinkage methods are explored in an extensive simulation study.


翻译:本文通过使用惩罚性可能性方法调查计算数据模型参数缩缩的功效。 目标是将观察多独立计数变量的数据模型与每个变量的中度样本大小相匹配。 对数据来说, 零膨胀计数的可能性也是有道理的。 在此处审议的背景下, 小学适龄儿童可以读取不同长度的段落。 我们的目标是找到一个合适的模型, 准确捕捉他们的口读流( ORF), 以错误读取( WRI) 分数的字数来衡量。 数据集包含关于从记录读取的段落长度( 字数) 和 WRI 分数的信息。 其想法是找到具有良好MSE 属性的跨行级别参数估计值。 考虑通过对负日志相似性应用附加惩罚功能来提高最大的可能性。 我们考虑三个统计模型, 即二进制、 零进缩二进制和 bebinomial 分数。 本文探索了两种类型的惩罚函数, 导致从记录阅读会话中获得的长度( 字数) 和 WRI 评分数 。 。 在模拟研究中, 对等同式的参数进行 。

0
下载
关闭预览

相关内容

专知会员服务
97+阅读 · 2021年9月21日
专知会员服务
28+阅读 · 2021年8月2日
【Manning新书】C++并行实战,592页pdf,C++ Concurrency in Action
专知会员服务
114+阅读 · 2021年1月11日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
一文道尽softmax loss及其变种
极市平台
14+阅读 · 2019年2月19日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
时间序列算法ARIMA介绍
凡人机器学习
5+阅读 · 2017年6月2日
Arxiv
0+阅读 · 2021年11月21日
Arxiv
4+阅读 · 2018年1月15日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
一文道尽softmax loss及其变种
极市平台
14+阅读 · 2019年2月19日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
时间序列算法ARIMA介绍
凡人机器学习
5+阅读 · 2017年6月2日
Top
微信扫码咨询专知VIP会员