成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
GPT-4o
关注
1
GPT-4o(“o”代表“omni”)朝着更自然的人机交互迈出了一步——它可以接受任何组合的文本、音频和图像作为输入,并生成任何组合的文本、音频和图像输出。它对音频输入的响应时间最短可达232毫秒,平均为320毫秒,这与人类在对话中的响应时间相似。在英语文本和代码处理上,它的性能与GPT-4 Turbo相当,但在非英语文本处理方面有显著改进,同时在API中速度更快且成本降低50%。与现有模型相比,GPT-4o在视觉和音频理解方面尤其出色。
综合
百科
VIP
热门
动态
论文
精华
OpenScholar: Synthesizing Scientific Literature with Retrieval-augmented LMs
Arxiv
0+阅读 · 11月21日
ViSTa Dataset: Do vision-language models understand sequential tasks?
Arxiv
0+阅读 · 11月21日
Video-RAG: Visually-aligned Retrieval-Augmented Long Video Comprehension
Arxiv
0+阅读 · 11月20日
ViSTa Dataset: Do vision-language models understand sequential tasks?
Arxiv
0+阅读 · 11月20日
Can EDA Tool Feedback Improve Verilog Generation by LLMs?
Arxiv
0+阅读 · 11月1日
A Novel MLLM-based Approach for Autonomous Driving in Different Weather Conditions
Arxiv
0+阅读 · 11月15日
BeeManc at the PLABA Track of TAC-2024: RoBERTa for task 1 -- LLaMA3.1 and GPT-4o for task 2
Arxiv
0+阅读 · 11月18日
Web Archives Metadata Generation with GPT-4o: Challenges and Insights
Arxiv
0+阅读 · 11月16日
Problematic Tokens: Tokenizer Bias in Large Language Models
Arxiv
0+阅读 · 11月14日
LProtector: An LLM-driven Vulnerability Detection System
Arxiv
0+阅读 · 11月14日
Evaluating World Models with LLM for Decision Making
Arxiv
0+阅读 · 11月13日
BeeManc at the PLABA Track of TAC-2024: RoBERTa for task 1 and LLaMA3.1 and GPT-4o for task 2
Arxiv
0+阅读 · 11月11日
MMLongBench-Doc: Benchmarking Long-context Document Understanding with Visualizations
Arxiv
0+阅读 · 11月12日
FineTuneBench: How well do commercial fine-tuning APIs infuse knowledge into LLMs?
Arxiv
0+阅读 · 11月11日
LProtector: An LLM-driven Vulnerability Detection System
Arxiv
0+阅读 · 11月10日
参考链接
https://openai.com/index/hello-gpt-4o/
父主题
GPT-4
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top