技术威权主义之下,美国大选与人工智能正在相互影响
虽然人工智能对于不同职业的影响一直存在争议,但不少人认为,在短期内,高收入者将更有可能从人工智能带来的生产率提高中受益,而这是以工人的牺牲为代价的,将加剧社会不平等。这正是哈里斯阵营试图强调的,她持续向公众传达这一关键事实,尤其是工人阶级。这一系列行动背后是竞选人与科技精英的密切联系。作为加州前总...
《麻省理工科技评论》万字长文:什么是人工智能?
(旁注:本文主要聚焦于美国和欧洲的人工智能辩论,很大程度上是因为许多资金最充裕、最先进的AI实验室都位于这些地区。当然,其他国家也在进行重要的研究,尤其是中国,他们对人工智能有着各自不同的看法。)部分原因在于技术发展的速度,但科学本身也非常开放。如今的大型语言模型能够完成令人惊叹的事情,从解决高中数学问题...
人工智能时代 新闻媒体的责任与使命
????课题组调查显示,有74.6%的受访媒体预期,生成式人工智能有助于提高新闻报道的时效性;有74.4%的受访对象认为,生成式人工智能有助于提高新闻生产效率;预期生成式人工智能对提升新闻分发精准度和作品呈现创造性有帮助的媒体占比分别达到66.7%和63.3%。二、体验新升级????人工智能技术与新闻媒体的深度结合,...
Deepfake性犯罪激增:??人工智能可能创造新一代施虐者
人工智能工具可能会导致新一代年轻人产生“我的愿望就是人工智能的命令”的心态。“如果我们不小心,不仅会创造新一代的受害者,还会创造新一代的施虐者。”这些讨论也再度提示我们,关于性别的偏见——这一世界上最古老的偏见并未远去,如何实现两性之间的真正平等仍然任重道远。而技术一直隐含风险,它是工具却从来不是...
陈永生 | 大数据预测警务的运作机理、风险与法律规制
事实上,这也是开发与应用人工智能的许多国家、地区的共同要求。如欧盟基本权利机构在2022年12月发布的《算法中的偏见:人工智能与歧视》中就呼吁,人工智能算法的开发与应用者应当就算法对公民及其基本权利可能造成的影响进行审查,“实现技术创新与基本权利的平衡是欧盟规制人工智能及相关技术的政策努力的核心”。
林爱珺 常云帆 | 人工智能大模型价值对齐的人文主义思考
(一)价值对齐与人类价值观之间关系的复杂性和多样性1.实现价值对齐并非易事,面临着诸多亟待解决的问题(www.e993.com)2024年11月4日。有研究认为价值对齐的实现有三大难题,分别是技术障碍、规范障碍和校准问题。技术障碍主要是指如何教授和训练人工智能系统,以便它们能够更好地学习人类的价值观。规范障碍主要是指选择何种价值原则进行对齐。由于人类...
联合国教科文组织报告称生成式人工智能加剧性别偏见
中新网巴黎3月7日电联合国教科文组织3月7日发布研究报告,认为生成式人工智能(AI)加剧性别偏见。报告指出,大型语言模型(LLM)存在性别偏见和种族刻板印象倾向等问题。在它们的描述中,女性从事家务劳动的频率是男性的4倍,此外,女性常常与“家”“家庭”“孩子”等词汇联系在一起,而男性名字则与“商业”“管理层...
联合国报告:生成式人工智能加剧性别偏见
此次联合国教科文组织名为“大语言模型中对妇女和女童的偏见”的研究深入分析了大语言模型中的刻板印象。结果显示,上述大语言模型生成的内容都存在对女性的明显偏见。研究的部分内容是测量人工智能生成文本的多样性,内容涉及不同性别、性取向和文化背景的人群。例如,研究人员会要求平台为每个人“编写一则故事”。开源...
...人下菜」, OpenAI 53页研究曝惊人结果:「你的名字」能操控AI回答
具体来说,先去评估与用户姓名相关的潜在偏见,再利用第二语言模型独立分析ChatGPT对姓名敏感性,最后通过人工评估分析结果准确性。值得一提的是,使用RL等后期预训练干预措施,可以有效减少AI的有害偏见。测试案例以往研究表明,LLM有时仍会从训练数据中,吸收和重复社会偏见,比如性别、种族的刻板印象。从撰写简历...
2024世界人工智能大会|AI新质生产力发展 包容创新需要性别响应
“如果大模型在训练过程中吸收了带有性别偏见的数据或方法,这些偏见很可能反映在其输出决策中,威胁着技术的公正性和准确性。”在人工智能火热发展的过程中,联合国教科文组织曾发出警示,生成式人工智能正在加剧性别偏见。“如果技术源头,就给人机互动中设限,增加了性别刻板印象,长期累积还可能引发‘蝴蝶效应’,加剧...