We present algorithms that extend the path-based hierarchical drawing framework and give experimental results. Our algorithms run in $O(km)$ time, where $k$ is the number of paths and $m$ is the number of edges of the graph, and provide better upper bounds than the original path based framework: e.g., the height of the resulting drawings is equal to the length of the longest path of $G$, instead of $n-1$, where $n$ is the number of nodes. Additionally, we extend this framework, by bundling and drawing all the edges of the DAG in $O(m + n \log n)$ time, using minimum extra width per path. We also provide some comparison to a well known hierarchical drawing framework, widely known as the Sugiyama framework, as a proof of concept. The experimental results show that our algorithms produce drawings that are better in area and number of bends, but worse for crossings in sparse graphs. Hence, our technique offers an interesting alternative for drawing hierarchical graphs. Finally, we present an $O(m + k \log k)$ time algorithm that computes a specific order of the paths in order to reduce the total edge length and number of crossings and bends.


翻译:我们提出扩展基于路径的等级绘图框架和实验结果的算法。我们的算法以美元(km)时间运行,用美元(km)时间运行,用美元计算路径数,用美元计算路径数,用美元计算图表边缘数,用美元(m)时间运行,用美元(m)时间运行,用美元(m)时间运行,用美元(m)时间运行,用美元(m)时间运行,用美元(m)运行,用美元(m)时间运行,用美元(m)时间运行,用美元(m)时间(m)运行,用美元(m)运行,用美元(m)时间(m)运行,用美元(m)时间(m)运行图的边缘数(m)运行,并提供比原始路径基于路径的框架(例如,由此产生的绘图的高度等于最长路径($G$)的长度,而不是一美元(n-1美元),但美元(n美元)是节点数(n),但用节点(n)数(n)计算。此外,我们提出的方法为绘制等级图表提供了一种有趣的替代方法。最后,用美元(m)加(m)加(n)时间(k)路径)时间(k)时间(rut)路径)的顺序(rut)的顺序(rut)和(k)序列(rut)的顺序(rut)减少顺序(k)的顺序(s)。

0
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
79+阅读 · 2020年7月26日
知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
109+阅读 · 2020年6月10日
机器翻译深度学习最新综述
专知会员服务
99+阅读 · 2020年2月20日
吴恩达新书《Machine Learning Yearning》完整中文版
专知会员服务
146+阅读 · 2019年10月27日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
已删除
将门创投
4+阅读 · 2019年6月5日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【CNN】一文读懂卷积神经网络CNN
产业智能官
18+阅读 · 2018年1月2日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年1月12日
Arxiv
0+阅读 · 2021年1月8日
Arxiv
13+阅读 · 2019年11月14日
VIP会员
相关VIP内容
相关资讯
已删除
将门创投
4+阅读 · 2019年6月5日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【CNN】一文读懂卷积神经网络CNN
产业智能官
18+阅读 · 2018年1月2日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员