This paper focuses on a specific aspect of human visual discrimination from computationally generated solutions for CAAD ends. The bottleneck at work here concern informational ratios of discriminative rates over generative ones. The amount of information that can be brought to a particular sensory modality for human perception is subject to bandwidth and dimensional limitations. This problem is well known in Brain-Computer Interfaces, where the flow of relevant information must be maintained through such interaction for applicative ends and adoption of use in many fields of human activity. While architectural modeling conveys a high level of complexity in its processes, let alone in the presentation of its generated design solutions, promises in applicative potentials of such interfaces must be made aware of these fundamental issues and need developments of appropriate sophistication. This paper addresses this informational bottleneck by introducing a method to retrieve spatial information from the rapid serial visual presentation of generated pictures. This method will be explained and defined as inverse modeling, based on inverse graphics, and its relation to human visual processing.


翻译:本文侧重于从计算产生的CAAD最终解决方案中产生的人的视觉歧视的一个具体方面。这里的工作瓶颈涉及歧视率相对于基因化的差别率的信息比。可以带给特定感官模式的人类感知信息数量受带宽和维度限制的限制。这个问题在大脑-计算机界面中是众所周知的,通过这种互动,为适应目的和在人类活动的许多领域采用应用而维持相关信息的流动。虽然建筑模型表明其过程的高度复杂性,更不用说在介绍其生成的设计解决方案时,但必须让这些界面的辅助潜力意识到这些基本问题,需要适当先进的发展。本文通过采用一种方法从生成的图片的快速序列直观演示中检索空间信息,从而解决了这一信息瓶颈问题。该方法的解释和定义将基于反向图形及其与人类视觉处理的关系进行反向建模。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
13+阅读 · 2022年10月27日
Arxiv
44+阅读 · 2022年9月6日
Arxiv
93+阅读 · 2022年8月2日
Arxiv
22+阅读 · 2021年12月19日
Arxiv
17+阅读 · 2021年1月21日
Arxiv
11+阅读 · 2018年1月11日
VIP会员
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
相关论文
Arxiv
13+阅读 · 2022年10月27日
Arxiv
44+阅读 · 2022年9月6日
Arxiv
93+阅读 · 2022年8月2日
Arxiv
22+阅读 · 2021年12月19日
Arxiv
17+阅读 · 2021年1月21日
Arxiv
11+阅读 · 2018年1月11日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员