大数据杀熟消费者维权难 算法应用不公该如何规制
专家认为,大数据“杀熟”背离最基本商业伦理和企业价值,违背诚信经营原则。究其原因,陈凤翔分析说,一方面是算法本质是互联网的一个编程技术,这种编程技术由人为参与和输入,有的编程者并不懂得法律,编制过程中会触及消费者的底线,或者侵害消费者权利。另一方面,技术演算出来造成消费者的伤害。这种伤害可能是初期算法的...
多方合力,破解“信息茧房”“算法歧视”“大数据杀熟”等问题
一项调查显示,只有约60%的用户认为,个人引导算法的行为产生了效果。原因是各大平台不同程度地存在霸王条款、偷用隐私、强行定位等情况。这些受访者认为,企业自我主动管理行为是避免算法安全隐患更有效的方式,期待企业加强算法信息披露,提高算法透明度。“在绝大多数平台,如果你不登录自己的账号,根本无法正常操作。...
人工智能创作的艺术隐忧和伦理边界
原因在于,弱人工智能用于“人—机”互动的辅助性创作,人的主导性如臂使指般操控智能程序,人的道德信仰与伦理规范、人的价值观认知与真善美判断,不仅决定大数据智能模型设计,也制约着“拟主体”创作的前置词提示。即使发展到强人工智能或超人工智能阶段,“拟主体”化身“艺术主人”,那时,AI艺术或将以完全不同...
大数据时代下的你,真的安全吗?
7.人工智能的伦理问题随着人工智能技术的快速发展,伦理问题也逐渐凸显。人工智能在带来便利的同时,也可能导致失业、隐私侵犯等问题。为此,我们需要关注人工智能的伦理问题,制定相应的法律法规和伦理准则,引导人工智能技术朝着更加安全、公正、可持续的方向发展。8.数据驱动决策的公正性大数据技术使得数据驱动决策成为可...
看似“更可靠”的大数据画像,是否存在认知不公? | 社会科学报
这一区分非常有利于重新澄清大数据应用是否带来认知不公的问题。交易型认知不公指的是原本应得的置信度在某次知识交易中没有得到公平的置换。大数据比自我知识更可能提供真知时,它确实更值得信任,因此没有发生交易不对等,没有认知不公。而个人因为被打上“不可靠”的标签提前就被排除在证言提供者之外,无法参加知识...
12条人性规则,从大数据角度解读背后的原理
首先,大数据环境下的决策范式发生了转变,这表明在大数据的影响下,人们的决策方式和理念假设都发生了显著变化32(www.e993.com)2024年10月17日。这种变化不仅体现在信息情境的复杂性增加,也体现在决策主体对于信息的需求和处理方式上的变化。其次,大数据时代的信息价值观引领了人们对信息及其信息技术的态度和看法的总和,具体表现为个体对不同信息类型的...
陈佳欣|大数据时代下隐私的群体形态及法律回应
隐私群体形态的产生,带来了隐私侵权的新情形,从而给现有隐私保护造成困境。原因在于隐私及隐私利益的群体形态,并不以数据内容的涉他性和危害范围的广泛性为界定标准,其内涵是,数据处理者通过大数据技术对隐私信息进行标记、分类、分析和评价(以用户标签为中心),由此生成的群体被以特定方式对待(以算法歧视为典型),从而...
数字科技伦理监管的政策布局与实践模式:来自英国的考察
报告关于数字科技伦理的探讨主要集中于人工智能的安全与控制方面,还涉及算法偏见问题,即所有数据驱动的系统都容易受训练数据集选择等因素的影响,这些因素可能反映潜意识的文化偏见。此外,报告还提及了在《大数据困境》报告中提到的数据隐私和知情权、问责和赔偿责任等。同时,调研对象TechUK、InnovateUK等研究机构和一些...
人工智能赋能基层治理的运行机制与风险规避
技术依赖还可能引发伦理问题,例如大数据分析可能无意中加剧社会分裂,人工智能决策依赖的“黑箱”算法缺乏透明度和可解释性,因此必须在技术应用中嵌入伦理考量,健全人工智能伦理审查机制,确保人工智能系统的安全、透明、合规。在人工智能技术的研发和应用阶段,要求开发者和使用者提交相应的伦理评估报告,对可能涉及的伦理风险...
朱庆华 宋珊珊|风险视角下生成式人工智能的司法应用路径
司法大数据的不当开发应用容易产生技术“俘获”司法的问题,可能涉及数据安全,甚至威胁国家安全,应引起高度重视。人工智能对司法本体的形塑较为隐蔽,在当前司法人员受制于技术门槛而不能很好地规训技术滥用和失控的情况下,技术人员有可能通过算法的构建和引入,在事实上“分享”司法权。如前所述,算法存在不可解释性,在...