Existing traffic control systems only possess a local perspective over the multiple scales of traffic evolution, namely the intersection level, the corridor level, and the region level respectively. But luckily, despite its complex mechanics, traffic is described by various periodic phenomena. Workday flow distributions in the morning and evening commuting times can be exploited to make traffic adaptive and robust to disruptions. Additionally, controlling traffic is also based on a periodic process, choosing the phase of green time to allocate to opposite directions right of the pass and complementary red time phase for adjacent directions. In our work, we consider a novel system for road traffic control based on a network of interacting oscillators. Such a model has the advantage to capture temporal and spatial interactions of traffic light phasing as well as the network-level evolution of the traffic macroscopic features (i.e. flow, density). In this study, we propose a new realization of the antifragile control framework to control a network of interacting oscillator-based traffic light models to achieve region-level flow optimization. We demonstrate that antifragile control can capture the volatility of the urban road environment and the uncertainty about the distribution of the disruptions that can occur. We complement our control-theoretic design and analysis with experiments on a real-world setup comparatively discussing the benefits of an antifragile design for traffic control.


翻译:现有交通控制系统仅具备对交通发展多重规模的当地视角,即交汇层、走廊水平和地区水平。但幸运的是,尽管其结构复杂,交通却被各种定期现象所描述。可以利用上午和晚间通勤时间的工作日流量分布使交通适应性强和受到干扰。此外,控制交通还基于一个定期过程,选择绿色时间阶段分配到路口对面方向,以及相邻方向的红色时间阶段。在我们的工作中,我们考虑基于互动振荡器网络的新颖的道路交通控制系统。这种模型的优势在于捕捉交通灯级的时空相互作用以及交通宏观特征(即流动、密度)的网络级演变。在这项研究中,我们提议实现抗抗亚抗亚性控制框架,以控制一个互动的电振动电光灯模型网络,以实现区域水平的流量优化。我们证明抗亚性控制能够捕捉城市道路环境的波动性,并捕捉交通灯泡变化的不确定性,同时讨论真实的交通宏观设计分析。

0
下载
关闭预览

相关内容

强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
ACM TOMM Call for Papers
CCF多媒体专委会
2+阅读 · 2022年3月23日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年3月14日
Arxiv
30+阅读 · 2021年8月18日
Arxiv
92+阅读 · 2021年5月17日
Arxiv
35+阅读 · 2021年1月27日
VIP会员
相关资讯
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
ACM TOMM Call for Papers
CCF多媒体专委会
2+阅读 · 2022年3月23日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员