We propose the Mood Board Composer (MBC), which supports concept designers in retrieving and composing images on a 2-D concept space to communicate design concepts. The MBC allows users to iterate adaptive image retrievals intuitively. Our new contribution to the mood board tool is to adapt the query vector for the next iteration according to the user's rearrangement of images on the 2-D space. The algorithm emphasizes the meaning of the labels on the x- and y-axes by calculating the mean vector of the images on the mood board multiplied by the weights assigned to each cell of the 3 x 3 grid. The next image search is performed by obtaining the most similar words from the mean vector thus obtained and using them as a new query. In addition to the algorithm described above, we conducted the participant experiment with two other interaction algorithms to compare. The first allows users to delete unwanted images and go on to the next searches. The second utilizes the semantic labels on each image, on which users can provide negative feedback for query modification for the next searches. Although we did not observe significant differences among the three proposed algorithms, our experiment with 420 cases of mood board creation confirmed the effectiveness of adaptive iterations by the Creativity Support Index (CSI) score.


翻译:我们建议使用Mood Board Composter (MBC), 支持概念设计师在 2D 概念空间上检索和拼制图像, 以传播设计概念概念。 MBC 允许用户通过直觉复制适应性图像检索。 我们对情绪板工具的新贡献是根据用户对 2D 空间上图像的重新排列来调整查询矢量, 以适应性向量进行下一次迭代。 算法强调x 和 y 轴 标签在 X 和 y 轴上的含义, 计算情绪板上图像的平均矢量乘以分配给 3 x 3 格中每个单元格的重量。 下一次图像搜索是通过从以这种方式获得的普通矢量中获取最相似的单词, 并将它们用作新的查询。 除了上述算法之外, 我们用另外两种互动算法来进行参与者实验。 首先允许用户删除不想要的图像, 然后进行下一次搜索。 第二套用每张图像的语义标签, 用户可以为下次搜索提供负面反馈。 虽然我们没有观察到三个适应性C 的排名表中的创建率测试( ) 。</s>

0
下载
关闭预览

相关内容

Meta最新WWW2022《联邦计算导论》教程,附77页ppt
专知会员服务
59+阅读 · 2022年5月5日
专知会员服务
17+阅读 · 2020年9月6日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
强化学习最新教程,17页pdf
专知会员服务
176+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
MoCoGAN 分解运动和内容的视频生成
CreateAMind
18+阅读 · 2017年10月21日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Cold-start Sequential Recommendation via Meta Learner
Arxiv
15+阅读 · 2020年12月10日
VIP会员
相关VIP内容
Meta最新WWW2022《联邦计算导论》教程,附77页ppt
专知会员服务
59+阅读 · 2022年5月5日
专知会员服务
17+阅读 · 2020年9月6日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
强化学习最新教程,17页pdf
专知会员服务
176+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员