In this paper, we study the dispersion-managed nonlinear Schr\"odinger (DM-NLS) equation $$ i\partial_t u(t,x)+\gamma(t)\Delta u(t,x)=|u(t,x)|^{\frac4d}u(t,x),\quad x\in\R^d, $$ and the nonlinearity-managed NLS (NM-NLS) equation: $$ i\partial_t u(t,x)+\Delta u(t,x)=\gamma(t)|u(t,x)|^{\frac4d}u(t,x), \quad x\in\R^d, $$ where $\gamma(t)$ is a periodic function which is equal to $-1$ when $t\in (0,1]$ and is equal to $1$ when $t\in (1,2]$. The two models share the feature that the focusing and defocusing effects convert periodically. For the classical focusing NLS, it is known that the initial data $$ u_0(x)=T^{-\frac{d}{2}}\fe^{i\frac{|x|^2}{4T} -i\frac{\omega^2}{T}}Q_\omega\left(\frac{x}{T}\right) $$ leads to a blowup solution $$(T-t)^{-\frac{d}{2}}\fe^{i\frac{|x|^2}{4(T-t)} -i\frac{\omega^2}{T-t}}Q_\omega\left(\frac{x}{T-t}\right), $$ so when $T\leq1$, this is also a blowup solution for DM-NLS and NM-NLS which blows up in the first focusing layer. For DM-NLS, we prove that when $T>1$, the initial data $u_0$ above does not lead to a finite-time blowup and the corresponding solution is globally well-posed. For NM-NLS, we prove the global well-posedness for $T\in(1,2)$ and we construct solution that can blow up at any focusing layer. The theoretical studies are complemented by extensive numerical explorations towards understanding the stabilization effects in the two models and addressing their difference.


翻译:暂无翻译

0
下载
关闭预览

相关内容

专知会员服务
33+阅读 · 2021年3月7日
【ACL2020】多模态信息抽取,365页ppt
专知会员服务
149+阅读 · 2020年7月6日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
32+阅读 · 2019年10月18日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
156+阅读 · 2019年10月12日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
Layer Normalization原理及其TensorFlow实现
深度学习每日摘要
32+阅读 · 2017年6月17日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
Layer Normalization原理及其TensorFlow实现
深度学习每日摘要
32+阅读 · 2017年6月17日
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员