智库荐文:人工智能赋能国家治理现代化——AI治理的潜力、限度与...
AI系统的偏见程度取决于其训练数据的偏见程度,偏见和公平已成为治理中应用AI的紧迫伦理问题。AI黑箱算法的不透明和难以解释性可能削弱公众信任并带来问责制的挑战。最后,在治理中整合AI可能导致如“机器换人”等的负面冲击,遭到如政府官员、员工和公众等各种利益相关者的厌恶与抵制,这要求有效的变革管理策略和前瞻性安排...
人工智能安全治理框架【AI知识库】
秉持共同、综合、合作、可持续的安全观,坚持发展和安全并重,以促进人工智能创新发展为第一要务,以有效防范化解人工智能安全风险为出发点和落脚点,构建各方共同参与、技管结合、分工协作的治理机制,压实相关主体安全责任,打造全过程全要素治理链条,培育安全、可靠、公平、透明的人工智能技术研发和应用生态,推动人工智能健康...
用于心理健康筛查的人工智能可能会带有基于性别和种族的偏见
这一结果进一步表明,人工智能就像人类一样,可以根据种族或性别做出假设。计算机科学系副教授查斯帕里说:“如果人工智能训练不充分,或者没有包含足够的代表性数据,它就会传播这些人类或社会偏见。”她和她的同事于7月24日在《数字健康前沿》杂志上发表了他们的研究成果。Chaspari指出,人工智能可能成为医疗保健...
联合国报告:生成式人工智能加剧性别偏见
新华社巴黎3月7日电(记者徐永春)国际妇女节前夕,联合国教科文组织7日发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。该组织呼吁各国政府制定监管框架,同时私营企业应对偏见问题持续监测和评估。大语言模型是一种用于支持时下流行的生成式人工智能平台的自然语言处理工具,美国开放人工智能研究中心(OpenA...
联合国教科文组织报告称生成式人工智能加剧性别偏见
中新网巴黎3月7日电联合国教科文组织3月7日发布研究报告,认为生成式人工智能(AI)加剧性别偏见。报告指出,大型语言模型(LLM)存在性别偏见和种族刻板印象倾向等问题。在它们的描述中,女性从事家务劳动的频率是男性的4倍,此外,女性常常与“家”“家庭”“孩子”等词汇联系在一起,而男性名字则与“商业”“管理层...
加快建设人工智能大模型中文训练数据语料库
联合国高级别人工智能咨询机构发布的《以人为本的人工智能治理》报告指出,人工智能在道德价值、社会价值、文化价值、法律规范等领域存在风险(www.e993.com)2024年9月17日。就数据表达的偏见类型而言,多样化的数据偏见会对大模型的内容生成产生潜移默化的影响。以性别为例,加州大学洛杉矶分校的机器学习团队将自然语言学习中的偏见具体分成了四类:刻板...
被性别歧视、陷经济窘境,AI女神李飞飞自述:我要打破算法中的偏见
04然而,李飞飞意识到自己在人工智能领域的成功也受到性别偏见的影响,因此她创立了非营利教育组织AI4ALL,推动STEM领域的包容性。05最后,李飞飞强调,作为母亲,她最谦卑的体验是相信人工智能时代将永远是独属于人类的体验。以上内容由腾讯混元大模型生成,仅供参考...
研究发现 AI 模型存在性别偏见:中性 / 男性 LLM 性能优于女性角色
IT之家1月2日消息,研究表明AI在处理法律相关任务时存在性别偏见,相比较女性角色,中立或男性角色的工作效率更高。密歇根大学研究人员通过最新研究,揭示了社会和性别角色对大型语言模型(LLM)的影响。这项研究由来自计算机科学与工程系、社会研究所和信息学院的跨学科团队进行。
人工智能赋能基层治理的运行机制与风险规避
一系列人工智能技术的赋能,促进了干群关系向着更加平等的方向演进,以弥补基层治理中基层公务员处理公共事务能力较弱、公众参与基层治理意愿较低的短板,更加平衡治理的公平性与有效性问题,促使“共商共建共享”的社会治理环境在基层得以落实。最后,从人文情境,即互动仪式发生的人文场域来看,人工智能技术在培育社区共同体...
生成式人工智能治理的态势、挑战与展望
并适当地告知用户人工智能的能力和局限性,以及受影响之人享有的权利;非歧视和公平:人工智能系统的开发和使用必须包括不同参与者,促进平等使用、性别平等和文化多样性,同时避免欧盟或国家法律禁止的歧视性影响和不公平偏见;社会和环境福祉:人工智能系统应以可持续和环保的方式开发和使用,让所有人受益,同时监测和评估对...