卖提示词都能赚钱了!预训练模型到底还有多少隐藏彩蛋?

2022 年 8 月 16 日 PaperWeekly


前段时间,一家漂亮国的初创公司刷屏了朕所在的预训练模型QQ群,就是它⬇️

看名字就知道不是外人:PromptBase。Prompt(提示,一般指预训练模型领域人见人爱的Prompt Tuning提示学习。)


这家公司的主营业务正是售卖大模型的提示词。同样是捯饬预训练模型,朕还在苦苦憋论文盼着毕业有个地方打工呢,人家光卖提示词都能赚钱了!

朕心里还是不服气啊,决定一探究竟,发现它这个商业逻辑是:由用户自主创建提示词,允许用户出售在现有大模型上生成效果稳定的提示词串,平台则通过佣金获利。


确实,大模型凭借着空前强大的泛化能力,可以做到同一大模型在多种下游任务上取得很好效果,尤其是在内容生成领域。但问题是『甲方』很难精准找到『大模型这个乙方』能get到的『需求(提示词)』,PromptBase解决的就是这个问题。


所以,人家这个逻辑是通的。我怎么就没想到呢?

输入提示词,获得AI生成的内容


怪不得现在不仅是谷歌、OpenAI、百度、腾讯这种大个子,但凡有点钱的公司和实验室,都在琢磨预训练语言模型(即:大模型)。叫得上名字的模型GPT-3、文心、bert也几乎都是大规模预训练语言模型。这么多聪明的脑袋都往大模型上挤,一定还有很多彩蛋!



冷静下来后,我仔细思考了一番:发现大模型最大的优势是生成能力,也就是AIGC(Artificial Intelligence Generated Content,人工智能生成内容)。内容生成领域我熟悉啊:网络小说、国风漫画、广告媒体,这不几万亿的大市场!


如果我能快速开发一款基于大模型技术的AIGC插件,让AI帮助UP主、漫画和文章作者、设计师进行内容生产(河里摸鱼),那我就是他们的再生父母啊!(赚的盆满钵满)


说干就干,打开浏览器,用我的芊芊玉指输入:大模型API 就找到了可以免费调用的模型和对应中文教程,我可真是个小聪明蛋!(河里白嫖)


传送门


百度主任架构师肖欣延等多位大佬亲授、业内首个基于大模型技术的AIGC专题直播打卡课!8月17日晚正式开课,零基础也能清晰了解、轻松应用基于大模型的AIGC能力应用与技术要点。


零门槛快速掌握用AI生成花式文本/风格主题画作/趣味视频、闲聊对话生成、创意玩法等AIGC领域应用与技术要点。教程覆盖一键可用的SAAS软件、API、开源模型,无论你是追求直接应用的行业开发者,还是想学习大模型技术的学生,你都将学有所获。


课程配套丰富资源:行业场景/技术学习交流群、行业场景/技术学习闭门会、工信部&科技部主办的十万奖金池的大模型专题大赛、免费API调用额度等大礼包、专家直播答疑、资深开发者连续7天在线指导百度飞桨官方结业证书等。



说实话,现在咱们搞深度学习的毕业生,找坑确实没有一两年前顺利了。现在还能经常看到急招岗位的也就是大模型方向了,这波上车不亏。


免费报名地址

扫码立即体验大模型技术

报名大佬课程


愿你学有所获,成为你喜欢的样子!

登录查看更多
3

相关内容

预训练模型是深度学习架构,已经过训练以执行大量数据上的特定任务(例如,识别图片中的分类问题)。这种训练不容易执行,并且通常需要大量资源,超出许多可用于深度学习模型的人可用的资源。
视觉语言多模态预训练综述
专知会员服务
118+阅读 · 2022年7月11日
专知会员服务
28+阅读 · 2021年9月11日
多模态预训练模型简述
专知会员服务
109+阅读 · 2021年4月27日
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
107+阅读 · 2020年12月19日
【2020新书】C语言编程傻瓜式入门,第二版,464页pdf
专知会员服务
61+阅读 · 2020年10月15日
【经典书】C语言傻瓜式入门(第二版),411页pdf
专知会员服务
51+阅读 · 2020年8月16日
模型压缩究竟在做什么?我们真的需要模型压缩么?
专知会员服务
27+阅读 · 2020年1月16日
看完AI画画,我的插画师朋友挺急的
人人都是产品经理
0+阅读 · 2022年9月14日
千万别让富坚义博看到这个
量子位
0+阅读 · 2022年7月22日
预训练模型真的越大越好吗?听听他们怎么说
PaperWeekly
1+阅读 · 2022年4月1日
哪些产品的设计让你觉得惊艳?
ZEALER订阅号
1+阅读 · 2022年1月23日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年11月23日
Arxiv
0+阅读 · 2022年11月22日
Arxiv
29+阅读 · 2022年9月10日
Arxiv
35+阅读 · 2022年3月14日
Adaptive Synthetic Characters for Military Training
Arxiv
46+阅读 · 2021年1月6日
3D Deep Learning on Medical Images: A Review
Arxiv
12+阅读 · 2020年4月1日
已删除
Arxiv
32+阅读 · 2020年3月23日
Arxiv
22+阅读 · 2018年8月30日
VIP会员
相关VIP内容
视觉语言多模态预训练综述
专知会员服务
118+阅读 · 2022年7月11日
专知会员服务
28+阅读 · 2021年9月11日
多模态预训练模型简述
专知会员服务
109+阅读 · 2021年4月27日
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
107+阅读 · 2020年12月19日
【2020新书】C语言编程傻瓜式入门,第二版,464页pdf
专知会员服务
61+阅读 · 2020年10月15日
【经典书】C语言傻瓜式入门(第二版),411页pdf
专知会员服务
51+阅读 · 2020年8月16日
模型压缩究竟在做什么?我们真的需要模型压缩么?
专知会员服务
27+阅读 · 2020年1月16日
相关资讯
看完AI画画,我的插画师朋友挺急的
人人都是产品经理
0+阅读 · 2022年9月14日
千万别让富坚义博看到这个
量子位
0+阅读 · 2022年7月22日
预训练模型真的越大越好吗?听听他们怎么说
PaperWeekly
1+阅读 · 2022年4月1日
哪些产品的设计让你觉得惊艳?
ZEALER订阅号
1+阅读 · 2022年1月23日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
0+阅读 · 2022年11月23日
Arxiv
0+阅读 · 2022年11月22日
Arxiv
29+阅读 · 2022年9月10日
Arxiv
35+阅读 · 2022年3月14日
Adaptive Synthetic Characters for Military Training
Arxiv
46+阅读 · 2021年1月6日
3D Deep Learning on Medical Images: A Review
Arxiv
12+阅读 · 2020年4月1日
已删除
Arxiv
32+阅读 · 2020年3月23日
Arxiv
22+阅读 · 2018年8月30日
Top
微信扫码咨询专知VIP会员