We propose Posterior Bootstrap, a set of algorithms extending Weighted Likelihood Bootstrap, to properly incorporate prior information and address the problem of model misspecification in Bayesian inference. We consider two approaches to incorporating prior knowledge: the first is based on penalization of the Weighted Likelihood Bootstrap objective function, and the second uses pseudo-samples from the prior predictive distribution. We also propose methodology for hierarchical models, which was not previously known for methods based on Weighted Likelihood Bootstrap. Edgeworth expansions guide the development of our methodology and allow us to provide greater insight on properties of Weighted Likelihood Bootstrap than were previously known. Our experiments confirm the theoretical results and show a reduction in the impact of model misspecification against Bayesian inference in the misspecified setting.
翻译:我们建议采用一套算法,以扩大有理有理的“有理有理有理”的“有理有据”的“有据可依的“有据有据”的“有据有据”的“有据”的“有据可查的“有据可查”的“有据可查”的“有据可查”的“有据可查的有据”的“有据可查的“有据可查的有据”的“有据可查的有据”的“有据可查”,以适当纳入先前的资料,并解决巴伊西亚的“有据可查的有据”的“有据可查的有据”问题。我们考虑采用两种方法将先知的“有据有据”的“有据可查的“有据”的“有据”的“有据”的“有据”的“有据”的“有据可查”的“有据可查”的“有据的“有据”的“有据”的“有据”的“有据”的“有据”的“有据”的“有据”的“有据”的“有据”的“有据”的“有据”的“有据”的“有据”的“有据”的“有据”的“有据”的“有据”的“有据”的“有据“有据“有据“有据“有据”的“有据”的“有据“有据”的“有据“有据”的“有据”的“有据可循”的“有据“有据“有据的“有据”的“有据”的“有据的“有据的“有据的“有据可依有据可依有据的“有据”的“有据的“有据的“有据的“有据”的“有据的“有据的“有据”的“有据的“有据”的“有据”的“有据”的“有据”的“有据“有据“有据“有据”的“有据”的“有据”的“有据”的“有据”的“有据的“有据的“有据