人工智能时代 新闻媒体的责任与使命
????课题组调查显示,有74.6%的受访媒体预期,生成式人工智能有助于提高新闻报道的时效性;有74.4%的受访对象认为,生成式人工智能有助于提高新闻生产效率;预期生成式人工智能对提升新闻分发精准度和作品呈现创造性有帮助的媒体占比分别达到66.7%和63.3%。二、体验新升级????人工智能技术与新闻媒体的深度结合,...
追问daily | 首个人类认知基础模型发布?人类如何分辨AI生成的内容...
结果显示,GPT-4的叙述在性别角色和性别关系表现上更具进步性,而人类作品则倾向于传统性别分工。该研究进一步探讨AI是否在性别偏见的表现中有所不同,发现AI生成的故事在创新性情节方面逊色于人类,但仍展现了文化偏见。研究框架表明,通过AI和人类的对比,可以更清晰地观察文化偏见在现代叙述中的体现。研究发表在Humanitie...
用于心理健康筛查的人工智能可能会带有基于性别和种族的偏见
这一结果进一步表明,人工智能就像人类一样,可以根据种族或性别做出假设。计算机科学系副教授查斯帕里说:“如果人工智能训练不充分,或者没有包含足够的代表性数据,它就会传播这些人类或社会偏见。”她和她的同事于7月24日在《数字健康前沿》杂志上发表了他们的研究成果。Chaspari指出,人工智能可能成为医疗保健...
联合国报告:生成式人工智能加剧性别偏见
新华社巴黎3月7日电(记者徐永春)国际妇女节前夕,联合国教科文组织7日发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。该组织呼吁各国政府制定监管框架,同时私营企业应对偏见问题持续监测和评估。大语言模型是一种用于支持时下流行的生成式人工智能平台的自然语言处理工具,美国开放人工智能研究中心(OpenA...
研究发现 AI 模型存在性别偏见:中性 / 男性 LLM 性能优于女性角色
IT之家1月2日消息,研究表明AI在处理法律相关任务时存在性别偏见,相比较女性角色,中立或男性角色的工作效率更高。密歇根大学研究人员通过最新研究,揭示了社会和性别角色对大型语言模型(LLM)的影响。这项研究由来自计算机科学与工程系、社会研究所和信息学院的跨学科团队进行。
大模型存在性别偏差吗
但是多次讨论之后,她们觉得应该触及技术本质来谈性别平等,人工智能发展的历程中,“性别偏见”不是一个新词(www.e993.com)2024年11月4日。有观点认为,训练方法和训练数据中存在的性别偏见可能被大模型学习并反映在其输出中,影响决策公正性和准确性。该问题长期发展下去可能会产生诸多不良影响,甚至引发“蝴蝶效应”,例如加剧机会不平等、对女性造成冒犯...
《麻省理工科技评论》万字长文:什么是人工智能?
StephenCave和KantaDihal在2023年出版的论文集《构想AI》中写道:“很难想象历史上还有其他技术能引起这样的辩论——一场关于它是否无处不在,或者根本不存在的辩论。对人工智能能有这样的辩论,证明了它的神话特质。”最重要的是,人工智能是一种观念、一种理想,它受到世界观和科幻元素的塑造,就如同数学...
对话AI专家:“种族主义、性别歧视和能力主义都是系统性问题”
但其中也会存在种族偏见,这种情况主要是因为不具代表性的数据集(例如,诊断皮肤癌的人工智能系统可能在较浅肤色上的诊断结果更准确,因为其训练过程中主要参考的就是这些数据)。那么,正如2021年发表于《科学》(Science)杂志的一篇研究报告所提到的那样,我们是否应该针对医疗算法中的偏见设定“可接受的阈值”?...
在“人工智能+”行动中展现女性新作为!这场论坛他们这样说→
联合国教科文组织驻东亚办公室主任夏泽翰(ShahbazKhan)在特别致辞中指出,全球范围内女性在科技行业的代表性不足,特别是在人工智能研发领域,这种不足不仅延续了现有的性别偏见,还限制了人工智能应对更广泛的社会挑战的潜力,必须以道德和包容性的方式开发和部署人工智能技术。教科文组织建立了Women4EthicalAI平台,旨在通过...
准确率92~98%,人工智能揭示大脑结构中与性别相关的差异
研究人员表示,新的研究结果避免了这个问题,因为它利用机器学习来分析整组图像,而无需计算机检查任何特定位置,这有助于消除人类的偏见。在这项研究中,研究小组首先向人工智能程序提供健康男性和女性脑部扫描的现有数据示例,并告诉机器程序每个脑部扫描的生物性别。由于这些模型被设计成使用复杂的统计和数学方法,随着时间推...