GPT-4o登场,全体用户免费开放

chatgpt2024-06-02 23:25:3574

先做个广告:如需代充值GP4会员及购买GPT帐号,请添加站长客服微信:gptchongzhi

5月13日,OpenAI春季发布会发布了新的模型gpt-4o,并且包含此前GPT-4独享的文件上传、数据分析、GPTS等功能一起对所有用户开放使用。发布后只有Plus订阅用户可直接使用,从今天开始普通用户也可以免费使用了。

推荐使用ChatGPT中文版,国内可直接访问:https://ai.gpt86.top 

什么是GPT-4o

定义
GPT-4o是OpenAI发布的最新多模态模型,能接受用户输入的文本、音频、图像的任意组合输入,生成相应的输出。
特点

  • 上下文长度128K

  • 数据截止日期为2023年10月

  • 可直接处理文本、音频、图像数据

  • 响应时间快

  • 音视频过程中可随时打断对话

  • 可感知并处理语速、语调、背景音、多人对话等数据

实现原理

  • 过去音视频对话方案: Whisper模型将音频转文本,GPT-3.5/GPT-4负责文本处理,返回文本结果,由TTS模型再将文本转语音,完成完整对话。GPT-3.5/GPT-4只充当大脑/处理器功能功能。

  • 现在音视频对话方案:
    此次GPT-4o的发布并未发布相关的技术论文,只在官网给出了部分介绍。使用文本、音频、图像的混合数据,训练出GPT-4o模型,所以无需再经过语音转文本、文本转语音的过程,实现三个模型合为一个模型。
    直接对音频数据进行处理,保留音频中语调、语速、背景音等数据。

GPT-4o模型表现

文本

语音识别

语音转译

视觉理解

GPT-4o VS GPT-4 Turbo

  • 定价:GPT-4o比GPT-4 Turbo便宜50%

  • 速率限制:GPT-4o的速率限制比GPT-4 Turbo高5倍——每分钟最多可处理1000万个tokens。

  • 速度:GPT-4o比GPT-4 Turbo快2倍。

  • 视觉:GPT-4o在与视觉相关的评估中表现优于GPT-4 Turbo。

  • 多语言:GPT-4o对非英语语言的支持比GPT-4 Turbo有所改善。

普通用户、Plus订阅用户、企业订阅用户区别

普通用户默认优先使用GPT-4o模型,GPT-4o当天额度用完,自动切换为GPT-3.5模型。Plus用户、企业用户可自由切换。

目前来看普通用户与Plus用户的差异较小,对于GPT-4o使用频次较低用户,暂不建议升级Plus,期待下次GPT的重大更新。

chatgpt plus(GPT4)代充值

本文链接:https://hengqin123.com/chatgpt_576.html

ChatGPT充值gpt4ogpt4o openaichatgpt注册好了之后如何使用gpt4和gpt4ogpt4o检测情绪gpt4o怎么用openai推出gpt4ogpt4o将免费GPT-4o人机交互取得进步

相关文章