In a mixture experiment, we study the behavior and properties of $m$ mixture components, where the primary focus is on the proportions of the components that make up the mixture rather than the total amount. Mixture-amount experiments are specialized types of mixture experiments where both the proportions of the components in the mixture and the total amount of the mixture are of interest. In this paper, we consider an Order-of-Addition (OofA) mixture-amount experiment in which the response depends on both the mixture amounts of components and their order of addition. Full mixture OofA designs are constructed to maintain orthogonality between the mixture-amount model terms and the effects of the order of addition. \answer{But the number of runs in such full OofA designs increases as $m$ increases. We employ the Threshold Accepting (TA) Algorithm to select an n-row subset from the full Order-of-Addition (OofA) mixture design that maximizes G-optimality while minimizing the number of experimental runs. Further, the G-efficiency criterion is used to assess how well the design supports the precise and unbiased estimation of the model parameters.} These designs enable the estimation of mixture-component model parameters and the order-of-addition effects. The Fraction of Design Space (FDS) plot is used to provide a visual assessment of the prediction capabilities of a design across the entire design space.


翻译:在混合物实验中,我们研究 $m$ 种混合物组分的行为与性质,其核心关注点在于构成混合物的各组分比例而非总用量。混合物-用量实验是一类特殊的混合物实验,其中混合物的组分比例与总用量均被视为关键因素。本文探讨一种添加顺序(OofA)混合物-用量实验,其响应同时依赖于组分的混合用量及其添加顺序。我们构建了完全混合物的OofA设计,以保持混合物-用量模型项与添加顺序效应之间的正交性。然而,此类完全OofA设计的实验次数随 $m$ 的增加而增长。我们采用阈值接受(TA)算法,从完全添加顺序(OofA)混合物设计中选取一个包含 $n$ 行的子集,在最大化G最优性的同时最小化实验次数。此外,G效率准则被用于评估设计对模型参数精确无偏估计的支持程度。这些设计能够同时估计混合物组分模型参数与添加顺序效应。设计空间分数(FDS)图被用于对设计在整个设计空间内的预测能力进行可视化评估。

0
下载
关闭预览

相关内容

设计是对现有状的一种重新认识和打破重组的过程,设计让一切变得更美。
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
43+阅读 · 2024年1月25日
Arxiv
30+阅读 · 2021年8月18日
Arxiv
21+阅读 · 2019年3月25日
VIP会员
相关资讯
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
相关论文
Arxiv
43+阅读 · 2024年1月25日
Arxiv
30+阅读 · 2021年8月18日
Arxiv
21+阅读 · 2019年3月25日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员