OpenAI公布Realtime API预览版、GPT-4o图片微调等开发服务
在经过上周的高层人事出走及超大型募集资金等争议新闻后,OpenAI本周举行开发者大会DevDay,宣布包含GPT-4o图片微调、开发逼真对话功能的RealtimeAPI等新功能,供开发人员开发结合GPT-4o、4omini模型的AI应用。DevDay上OpenAI宣布的新功能包括RealtimeAPI、视觉微调、提示缓存(PromptCachingintheAPI)以及模型...
国内模型首度超越 GPT-4o!零一万物新旗舰模型 Yi-Lightning 排名...
10月16日,继上半年千亿参数模型Yi-Large之后,零一万物正式对外发布最新旗舰模型Yi-Lightning。在国际权威盲测榜单LMSYS上,Yi-Lightning超越GPT-4o-2024-05-13、Claude3.5Sonnet,排名世界第六,中国第一。这是在LMSYS这一全球大模型必争的公开擂台上,中国大模型首度实现“超越OpenAIGPT-4o”的最...
mini-GPT4o来了:能看、能听、会说,还情感丰富的多模态全能助手EMOVA
1.视觉理解任务:EMOVA在多个数据集上达到了当前的最佳水平,特别是在复杂的图像理解任务中表现尤为突出,如在SEED-Image、OCRBench等榜单的性能甚至超过了GPT-4o;2.语音任务:EMOVA不仅在语音识别任务上取得最佳性能,还能生成情感丰富、自然流畅的语音,展示了其语义声学分离技术和情感控制模块的有效性;...
硅谷深思:GPT应用迟未爆发,大模型泡沫根源初探丨华映资本全球化观察
在华映资本看来,只有当GPT真正赋能所有上层垂直行业应用场景,即实现所谓大规模落地实践,以平台形式实现商业化,OpenAI开创的LLM浪潮才算彻底到来。但当前,无论是在toC还是toB侧,GPT都更像是一个超级APP,而非一个类似IOS的底层平台。GPT插件和GPTs已经证明了底座LLM不能简单复制IOS的AppStore。虽然OpenAI刚...
英伟达 Jim Fan:复刻NLP的成功路,用通用模型开启具身智能的GPT-3...
JimFan:虽然这只是我的预测,但我希望在接下来的两到三年内,我们能够看到机器人基础模型的突破。这将类似于机器人领域的GPT-3时刻。然而,机器人进入人们日常生活不仅仅是技术问题,还涉及经济性、大规模生产能力、硬件安全性、隐私和法规等多个方面。
三万字详解!GPT-5:你需要知道的一切_手机新浪网
作者:AlbertoRomero(青稞AI整理)原文:httpsthealgorithmicbridge/p/gpt-5-everything-you-need-to-know这篇超长的文章(部分是评论...
...运动的开始不依赖于多巴胺的快速释放;ChatGPT存在刻板印象问题
OpenAI报告揭示ChatGPT存在刻板印象问题,偏见率虽低但不容忽视OpenAI最近发布了一项关于ChatGPT公平性的研究,揭示了该模型可能对用户身份产生微妙的刻板印象。这项研究通过分析用户姓名对ChatGPT响应的影响,揭示了该模型在处理不同性别、种族和文化背景时,偶尔会出现偏见。研究中指出,姓名(通常反映文化、性别...
8人半年肝出开源版GPT-4o,0延迟演示!背后技术揭秘,人人免费用
昨夜,来自法国AI实验室kyutai放出首个实时原生多模态Moshi,效果演示堪比5月发布的GPT-4o。比如下面这个demo中,Moshi作为助手帮助Alexa小哥踏上太空之旅,让人一秒幻视流浪地球中的Moss。值得一提的是,这是8人团队仅用了半年的时间,从头完成了模型的训练。Moshi还处在实验原型阶段,设计初衷是为了理解和表达情感...
Llama 3.1横空出世:开源巨无霸首次击溃闭源,全民GPT-4时代来临
OpenPipe创始人在测试完经过微调的Llama3.18B后感慨道:从未有过如此小且如此强大的开源模型——它在每个任务上的表现都优于GPT-4omini!英伟达高级科学家JimFan表示,GPT-4的力量就在我们手中。这是一个具有历史性意义的时刻。鲜有人关注AI模型训练背后的基础设施,Pytorch之父SoumithChintala站出来表示,在16...
8人小团队单挑OpenAI,半年仿出GPT-4o,还开源了
最近,一个对标GPT-4o的开源实时语音多模态模型火了。这个开源模型来自法国一个仅有8人的非营利性AI研究机构——Kyutai,模型名为Moshi,具备听、说、看的多模态功能。图灵奖得主YannLeCun转发说道:「Moshi能听懂带有法国口音的英语。」据悉,该团队开发这个模型仅用了6个月。的确,在研究...