字节跳动澄清实习生事件:大模型业务未受影响
据报道,字节跳动商业化技术团队的一名实习生因恶意干扰研究项目的模型训练任务,引发了广泛关注。这一行为被部分媒体解读为“实习生破坏大模型训练”,并迅速在网络上发酵。对此,字节跳动在澄清公告中明确指出,该实习生确实存在严重违纪行为,但并未对公司商业化的正式项目及线上业务造成实质性影响。二、澄清公告:谣言止...
LLM对齐综述|迈向可扩展的大模型自动对齐,中科院软件所&阿里千问...
对齐(Alignment)是使大模型的行为符合人类意图和价值观,引导大模型按照人类的需求和期望进化的核心步骤,因此受到学术界和产业界的高度关注。先前的对齐工作主要依赖于人工标注的、包含有人类偏好信息的对齐数据来对模型进行继续训练,从而实现模型的对齐。具体来说,有两种形式的最为常用的对齐数据:1)指令-回复对,这类...
AI Agent 独角兽 Sierra CEO:虽处泡沫但有别
Bret:我认为,大型的超大规模数据中心运营商(hyperscalers)面临着一个挑战,那就是拥有并运行一个最前沿的模型和没有一个这样的模型之间存在巨大的差距。因此,这些公司做出这些投资决定是合理的,因为拥有这些前沿模型对于消费者产品或基础设施即服务(IaaS)供应商来说,价值巨大。对于未来的赌注,以及对AGI突破的赌注,我认为...
罗德里克 | 批判与反批判:经济学和经济学者的限度
二、价值观问题经济学中的大多数模型都假设个体的行为是自利的。他们试图将自己(也许还有子女)的消费可能性最大化,不关心其他人的境况。在许多情况下,这很符合现实。完全相反的假设,即认为人的行为是彻底无私的,则是不合理的。而且,承认一定程度的利他和慷慨,并不会给许多模型的结论造成实质性改变。相当多的研究...
怎样让机器具有价值观和常识,是数字大模型最有趣的方向
因此,怎样让机器具有价值观、具有常识,这是大模型最有趣的方向。“未来,人工智能的回答不仅仅是语言,也可以是行动。比如,看到茶杯快掉下去了,机器知道怎么把它接住。”郭毅可说,“计算机科学将向机器行为学发展,这是一个发展方向。”数据、算法和算力:未来的基础设施“对上海而言,大模型应是地铁、高铁...
...一个基于有调节的中介效应模型的中国网民政治态度实证检验
主流媒体使用、官方意识形态立场与民众政治支持——一个基于有调节的中介效应模型的中国网民政治态度实证检验本刊官方网站:httpcjjc.ruc.edu/摘要本文依托媒体政治传播理论,构建有调节的中介效应模型,探索中国主流媒体对民众政治支持的影响机制,并通过大样本网民调查数据进行实证分析(www.e993.com)2024年10月21日。研究发现:(1)主流媒体...
郭全中等:AI向善:AI大模型价值观对齐的内容与实践
摘要价值观对齐关系着AI大模型是否能真正为人类服务,甚至关乎着意识形态安全乃至国家政治安全。从意义、准则、路径、困境四个维度对AI大模型价值观对齐进行全面剖析,认为安全问题与应用保障是AI大模型价值观对齐的驱动力量,原生价值观、目标价值观、普适价值观是AI大模型价值观对齐的价值选择,尤其强调国内AI大模型应...
情感大模型Emohaa,用AI呵护大中学生心理健康
对一些适应不良的发展性问题,Emohaa能引导用户树立健康的生活态度,并提供生活常识和指导,引导用户克服不良情绪和行为,帮助用户树立积极的生活态度,树立正确的核心价值观。同时,Emohaa支持丰富的功能配置选项,并进行快速的技术迭代升级。该模型在多项专业评测中表现出色,共情陪伴能力显著超越GPT-4。其背后的学术成果包括...
中国科学院信工所研究员虎嵩林:大模型的安全风险主要体现在无害性...
在数据安全治理与发展论坛上,中国科学院信工所研究员虎嵩林接受了包括《每日经济新闻》记者在内的媒体采访,并针对当前AI大模型引发的全新安全问题以及企业和行业的应对措施等给出了回应。促使大模型遵循人类价值观等难题亟待解决当前生成式人工智能技术作为人工智能演化过程中的重要突破,为引领产业革新和数字化变革奠定...
中国AI大模型测评报告:公众及传媒行业大模型使用与满足研究_腾讯...
针对大模型传媒方向能力的测评选取了较为知名的9款大模型应用程序(或其网页版),分别考察了这些程序的文本生成能力、事实核查与价值观判断能力、媒体信息检索能力、翻译能力以及长文本总结能力,旨在评估不同大模型助手针对媒体行业实际工作场景的能力表现,并最终形成排名。