霉霉 vs AI:谁的歌词写的更好

2017 年 9 月 1 日 AI100 记得关注


翻译 | AI科技大本营(rgznai100)

参与 | Shawn



从小到大我一直都是Taylor Swift的死忠粉。上初中时,我的 iPod Nano 里播放最多的就是《Speak Now》。还记得上大二时,我趁着爸妈在睡觉,偷偷在 Tumblr 上熬夜寻找《Red》的 小样,因为我当时买不起这张专辑。


上周霉霉放出了新专辑《Reputation》的首支单曲,为了第一时间听到,作为死忠粉的我苦苦熬了好几天夜。但是当《shattering YouTube records》放出《Look What You Made Me Do》时,我有点……失望。Guys,别误会我,我还是听了至少 20 遍。但是霉霉一贯动人的歌词和好听的旋律哪去了?这首歌怎么充满了仇恨和复仇呢? 


上周,我想看看机器学习(ML)能否拯救一下霉霉的歌?我将霉霉所有歌的歌词输入到一个循环神经网络(RNN)中,并采样了一些新歌词。以下就是我得到的结果(一点也没改,直接从复制粘贴的):


歌词1


歌词2


上图是机器直接生成的两首样本歌,每首大约 900 个单词。


读了这些生成的歌词,我的结论是霉霉绝对比机器学习写得更好。这些生成的歌词语法怪异,而且很多单词都拼错了,大部分句子根本讲不通,双括号或引号有时都没闭上。但是,RNN 能够通过逗号、行长度和断行学习歌词结构,这点让我挺惊讶!


另外,我还用同一 RNN 生成了可能的歌曲名称。以下是 ML 生成的《Reputation》专辑歌曲的名称:


Go won’t hit me there

Your love through all

We said to be better

Walls if miles

No conversation

I should ever say that

I don’t wanna see the way

I don’t leave you here

You want to me

And we say how I just

Anything a good taft

Love there on more


 “Anything a good taft?”听起来有些怪啊。但是还是有些能够打动我的歌词,如 “Your love through all” 或“I don’t wanna see the way”。 


技术说明:


我复刻了 Andrej Karpathy 的 char-RNN(https://github.com/karpathy/char-rnn)的一个 Tensorflow 应用。.txt file(https://github.com/irenetrampoline/taylor-swift-lyrics/blob/master/all_tswift_lyrics.txt)里面是Taylor Swift的歌词,这是我从网上找到的。


在这里可以获取我所使用的代码

https://github.com/shreyashankar/char-rnn-tensorflow


我使用的是基于长短期记忆网络(LSTM)的模型,层数为 3 层,隐藏状态大小为12。我用到了 Dropout,不过没做任何超参数测试,所以模型还有很大的提升空间。


原文地址

https://medium.com/towards-data-science/https-medium-com-sh-reya-taylor-swift-or-artificial-intelligence-19f2989ab7a4






精选福利

关注AI科技大本营,进入公众号,回复对应关键词查看分类专题;回复“入群”,加入AI科技大本营学习群。


回复“深度学习”,一文囊括30篇深度学习精华文章。

回复“机器学习”,一文推荐30篇机器学习优质文章。

回复“访谈”,查看吴喜之、周志华、杨强、蚂蚁金服漆远、今日头条李磊的独家访谈实录。

回复“资源”,一文梳理机器学习,深度学习,神经网络等各方面的资源。

回复“视频”,5分钟的视频带你轻松入门人工智能。

回复“程序员”,带你了解别人家的程序员如何学好AI。

回复“数据”,帮你弄清楚人工智能与数据科学之前的关系。

回复“课程”,跟我一起免费学习:谷歌大脑深度学习&Fast.ai最实战深度学习&David Silver深度强化学习。



 点击阅读原文,查看AI科技大本营招募计划

登录查看更多
0

相关内容

2012 年 10 月上市的第七代 iPod nano,配备 2.5 寸触摸显示屏,有八种颜色,使用最新的 Lightning 数据接口。
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
【干货】用BRET进行多标签文本分类(附代码)
专知会员服务
84+阅读 · 2019年12月27日
Diganta Misra等人提出新激活函数Mish,在一些任务上超越RuLU
专知会员服务
14+阅读 · 2019年10月15日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
学习自然语言处理路线图
专知会员服务
137+阅读 · 2019年9月24日
已删除
AI掘金志
7+阅读 · 2019年7月8日
【OCR技术】大批量生成文字训练集
七月在线实验室
9+阅读 · 2019年3月11日
【TED】生命中的每一年的智慧
英语演讲视频每日一推
9+阅读 · 2019年1月29日
使用Keras和LSTM生成说唱歌词
论智
5+阅读 · 2018年5月22日
keras系列︱深度学习五款常用的已训练模型
数据挖掘入门与实战
10+阅读 · 2018年3月27日
Tensorflow:基于LSTM轻松生成各种古诗
数据挖掘入门与实战
4+阅读 · 2018年1月5日
PyTorch vs. TensorFlow之一个月用户体验
深度学习世界
3+阅读 · 2017年10月21日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
Neural Image Captioning
Arxiv
5+阅读 · 2019年7月2日
The Matrix Calculus You Need For Deep Learning
Arxiv
12+阅读 · 2018年7月2日
Arxiv
6+阅读 · 2018年5月22日
Arxiv
7+阅读 · 2018年1月31日
VIP会员
相关资讯
已删除
AI掘金志
7+阅读 · 2019年7月8日
【OCR技术】大批量生成文字训练集
七月在线实验室
9+阅读 · 2019年3月11日
【TED】生命中的每一年的智慧
英语演讲视频每日一推
9+阅读 · 2019年1月29日
使用Keras和LSTM生成说唱歌词
论智
5+阅读 · 2018年5月22日
keras系列︱深度学习五款常用的已训练模型
数据挖掘入门与实战
10+阅读 · 2018年3月27日
Tensorflow:基于LSTM轻松生成各种古诗
数据挖掘入门与实战
4+阅读 · 2018年1月5日
PyTorch vs. TensorFlow之一个月用户体验
深度学习世界
3+阅读 · 2017年10月21日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
Top
微信扫码咨询专知VIP会员