We present algorithms that extend the path-based hierarchical drawing framework and give experimental results. Our algorithms run in $O(km)$ time, where $k$ is the number of paths and $m$ is the number of edges of the graph, and provide better upper bounds than the original path based framework: e.g., the height of the resulting drawings is equal to the length of the longest path of $G$, instead of $n-1$, where $n$ is the number of nodes. Additionally, we extend this framework, by bundling and drawing all the edges of the DAG in $O(m + n \log n)$ time, using minimum extra width per path. We also provide some comparison to a well known hierarchical drawing framework, widely known as the Sugiyama framework, as a proof of concept. The experimental results show that our algorithms produce drawings that are better in area and number of bends, but worse for crossings in sparse graphs. Hence, our technique offers an interesting alternative for drawing hierarchical graphs. Finally, we present an $O(m + k \log k)$ time algorithm that computes a specific order of the paths in order to reduce the total edge length and number of crossings and bends.


翻译:我们提出扩展基于路径的等级绘图框架和实验结果的算法。我们的算法以美元(km)时间运行,用美元(km)时间运行,用美元计算路径数,用美元计算路径数,用美元计算图表边缘数,用美元(m)时间运行,用美元(m)时间运行,用美元(m)时间运行,用美元(m)时间运行,用美元(m)时间运行,用美元(m)运行,用美元(m)时间运行,用美元(m)时间运行,用美元(m)时间(m)运行,用美元(m)运行,用美元(m)时间(m)运行,用美元(m)时间(m)运行图的边缘数(m)运行,并提供比原始路径基于路径的框架(例如,由此产生的绘图的高度等于最长路径($G$)的长度,而不是一美元(n-1美元),但美元(n美元)是节点数(n),但用节点(n)数(n)计算。此外,我们提出的方法为绘制等级图表提供了一种有趣的替代方法。最后,用美元(m)加(m)加(n)时间(k)路径)时间(k)时间(rut)路径)的顺序(rut)的顺序(rut)和(k)序列(rut)的顺序(rut)减少顺序(k)的顺序(s)。

0
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
82+阅读 · 2020年7月26日
吴恩达新书《Machine Learning Yearning》完整中文版
专知会员服务
147+阅读 · 2019年10月27日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年1月12日
Arxiv
0+阅读 · 2021年1月8日
Arxiv
13+阅读 · 2019年11月14日
VIP会员
相关VIP内容
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Top
微信扫码咨询专知VIP会员