We explore the task of text to 3D object generation using CLIP. Specifically, we use CLIP for guidance without access to any datasets, a setting we refer to as pure CLIP guidance. While prior work has adopted this setting, there is no systematic study of mechanics for preventing adversarial generations within CLIP. We illustrate how different image-based augmentations prevent the adversarial generation problem, and how the generated results are impacted. We test different CLIP model architectures and show that ensembling different models for guidance can prevent adversarial generations within bigger models and generate sharper results. Furthermore, we implement an implicit voxel grid model to show how neural networks provide an additional layer of regularization, resulting in better geometrical structure and coherency of generated objects. Compared to prior work, we achieve more coherent results with higher memory efficiency and faster training speeds.
翻译:我们探索3D 对象生成使用 CLIP 的文本任务。 具体地说, 我们使用 CLIP 提供指导, 无需任何数据集。 我们称之为纯 CLIP 指导的设置。 虽然先前的工作已经采纳了这一设置, 但没有系统研究防止CLIP 内敌对世代的机制。 我们演示了不同图像放大如何防止对抗性生成问题, 以及由此产生的结果如何受到影响。 我们测试了不同的 CLIP 模型结构, 并显示将不同的指导模型组合成不同的模型, 可以在更大的模型内防止对抗性世代, 并产生更清晰的结果。 此外, 我们实施了隐含的 voxel 电网模型, 以显示神经网络如何提供额外的正规化层, 从而导致更好的几何结构以及生成对象的一致性。 与先前的工作相比, 我们以更高的记忆效率和更快的培训速度实现更一致的结果 。