“短命”的谷歌AI伦理委员会,绕不开的算法治理难题
第二,自我强化困境聚焦算法因依赖大数据学习过程而可能出现的固化、偏差、歧视等治理议题。算法基于“大数据集”而通过自我训练、自我学习以形成“规则集”的过程,实质上是对于过往人类社会模式特征的总结并将其用于对于未来社会的感知与决策,这在提高人类社会运行效率的同时,也将不可避免地复制并延续当前社会的既有格局...
变革、困境与规避:人工智能生成式广告的伦理审视
科技向善的理念,利用人工智能技术的工具效应,在算法模型的设计阶段,将广告伦理与社会道德规则以程序编码的方式嵌入算法中,并通过智能技术中的文字辨别、图像辨别等进行分类、提取、识别,处置有违道德伦理的广告创意与素材,以期与人类价值观相符。
教育数据治理的伦理框架:价值、向度与路径
教育数据治理离不开伦理道德的观照与润泽,其内蕴的道德合理性和伦理价值,促使伦理治理成为必需。为建立教育数据治理的伦理秩序,制度与德性是两个不可缺少的伦理向度。其中,制度伦理是指对社会规范和运行规则的伦理反思和要求,体现为对教育数据治理相关制度建设的规约;德性伦理是指主体对自身的生存意义、精神归属、处世方...
生成式人工智能应用的伦理立场与治理之道:以ChatGPT为例
生成式人工智能应用的多重伦理困境第一,削弱人类主体价值。人类被赋予了某种固有价值或价值优先,伦理秩序围绕着人类展开,伦理建构以“人类塑造世界”为核心。但在人机共存社会中,人工智能正在成为具有一定自主行动能力的实施者,并且人工智能极易通过结论的输出去分析、识别和塑造人的观念和认知体系,引发“人工智能塑造人...
郑飞 夏晨斌:生成式人工智能的著作权困境与制度应对 | 科技与法律...
2.缺乏合理使用适用空间的作品数据挖掘使用行为面临版权壁垒困境针对新一代大模型而言,大规模数据训练是模型搭建与效果产出的刚需。因此,大规模作品数据使用刚需与著作权保护之间存在天然张力。而大模型生成所需的作品数据挖掘使用无法纳入合理使用之中,所以,挖掘使用行为必须获得版权方的授权。以GPT-3为例,其训练数据主...
陈佳欣|大数据时代下隐私的群体形态及法律回应
一、困境:隐私群体形态带来的隐私侵权新情形如前所述,大数据时代下,隐私的表现形态从个体扩展至群体(www.e993.com)2024年7月26日。隐私群体形态的产生,带来了隐私侵权的新情形,从而给现有隐私保护造成困境。原因在于隐私及隐私利益的群体形态,并不以数据内容的涉他性和危害范围的广泛性为界定标准,其内涵是,数据处理者通过大数据技术对隐私信息进行...
数字科技伦理监管的政策布局与实践模式:来自英国的考察
此外,报告还提及了在《大数据困境》报告中提到的数据隐私和知情权、问责和赔偿责任等。同时,调研对象TechUK、InnovateUK等研究机构和一些科技公司等均强调,面对数字科技带来的伦理道德问题,围绕数字科技的监管标准和法律框架没有跟上技术的发展,需要加强公众对话,建立伦理治理框架。由此,报告建议建立一个常设的人工智能...
媒介伦理这个专题,真的只有0.001%的院校不会考 | 专题10
3.大数据伦理数字遗忘权(名词解释,暨南大学809,2023)结合现实案例,谈谈大数据时代隐私的边界及限度。(简答题,北京大学汇丰商学院财经新闻专硕2022年334真题,2022)4.公民的伦理道德建设网络暴力的认识和看法(论述题,北京工商大学440,2023)网络暴力的现象和为什么在网络中频发(材料分析,华中农业大学334,2023)...
数字法治|余圣琪、高阳:算法治理年度观察报告(2023)
2022年作为算法监管元年蕴藏着算法治理的趋向,主要体现为算法治理法治化、算法边界明晰化、算法伦理制度化。2023年1月施行的《互联网信息服务深度合成管理规定》,标志着我国算法安全治理体系的进一步完善。随着生成式人工智能技术的发展,2023年的算法治理呈现出新特征、新困境、新趋势。
【理响中国】加快推进数字技术赋能国家治理现代化建设
另一个典例就是算法公平或算法黑箱问题,不仅需要研制算法公平和算法安全治理技术以保障公平与公正,还需要国家的战略倾斜以促进更多科技力量投入到此类没有商业价值的治理技术中。三是数字技术所提供的新型治理工具和治理模式与现有治理体系不相适应,为国家治理带来数字秩序困境。一方面,数字技术的研发、数字产业的产业链...