电车难题的道德困境是如何产生的
如果上帝真的安排那五个人死,你就不会出现在这个场合并拥有改变结果的机会。与情形一相比,仅仅是预设了电车的路径,就令我们产生了道德困境,这个困境来自于“命运的安排”。在情形一中,我们假定所有人都会选择让电车驶入轨道B,在情形二中,我猜至少有两成的人不会选择改变轨道。情形三:这6个人是自愿坐在轨道上休...
魏斌|法律大语言模型的司法应用及其规范
法律大语言模型在情感、道德、逻辑推理、决策机制和经验学习等方面仍然与法律人有本质的差异,因此,法律大语言模型的司法应用需要在严格的规范之下合理使用。一、问题的提出法律大语言模型赋能司法,是指面向司法领域的生成式人工智能因其在法律语言理解、法律知识问答、法律预测和法律文本生成等领域表现突出,从而支持法律...
大语言模型正在接管哪些工作?
大语言模型(LLM),例如谷歌的Gemini或开放人工智能研究中心(OpenAI)的聊天生成预训练转换器(ChatGPT),已经在大量文本、图像和视频中得到训练,并开发出许多能力,包括它们没有经过明确训练的“智能涌现”能力(颇具前景,但其风险也令人担忧)。目前,针对图像、音乐、机器人学、基因组学、医学、气候、天气、软件编码等...
乌方声称击沉俄潜艇或为假消息,实际或为模型
原来,乌克兰军队在几个月前宣称,他们成功地将一艘东西送入了海底。但他们只说了结果,却没有提供让人信服的证据。最近,人们通过卫星照片发现了更多线索。照片显示,俄罗斯在塞瓦斯托波尔军港悄悄摆放了一个巨大的潜艇模型。这个模型就像是在无声地对乌克兰军队的说法提出疑问,暗示他们可能没有做到他们声称的事情。修...
不能让投喂流浪猫陷入“扶不扶”的道德困境 | 黄河时评??见深
以上内容由腾讯混元大模型生成,仅供参考7月24日,“男子在羽毛球馆打球时被流浪猫绊倒,投喂者被判赔偿24万元”案再审宣判。在原审判决中,法院判决肖某某(投喂流浪猫者)赔偿医药费、护理费、残疾赔偿金等共计24万余元。羽毛球馆的经营公司对肖某某不能赔偿的部分(医疗费)承担补充赔偿责任。
生成式AI的道德困境
生成式AI的道德困境随着生成式AI相关功能的迅速迭代、持续发布,各行各业的从业者们都在探索AI能在多大程度上推动我们的日常工作,又将如何驱动更加庞大、更趋复杂的实际项目(www.e993.com)2024年10月20日。但也正是这些发现,引发了人们对于如何规范生成式AI使用方式的疑问和担忧。与此同时,针对OpenAI的诉讼案不断涌现,进一步令生成式AI身陷道德...
“生物黑客”增强人体:医学新曙光,还是伦理道德困境?
“生物黑客”增强人体:医学新曙光,还是伦理道德困境?随着计算机、生物技术等领域快速发展,通过基因编辑和机械植入等方法,提高人体健康、智力或其他能力成为可能。但是使用这些技术对人进行“改良”涉及到许多伦理道德问题。一些民间“生物黑客”私下使用这些技术,试图改变自己的身体机能。是否应该规范或限制生物黑客的发展和...
GPT-4o竟是「道德专家」?解答50道难题,比纽约大学教授更受欢迎
对50个道德困境的不同回答向GPT-4o提出的50个问题均来自于专栏2023年4月21日至2023年10月25日期间发布的文章。研究人员将生成token的最大数量设置为512,足以生成4段文字,使得回复的长度与专栏文章的原始字数大致相同。将温度设置为1.0,以鼓励更具创造性的解释。(temperature是影响语言模型输出的参数,决定输出...
李彦宏看好的智能体到底是什么?
第二,智能体在决策过程中可能遇到道德困境。由于它们的决策是基于数据分析和机器学习算法得出的,这可能导致它们复制甚至放大训练数据中存在的偏见和不平等。第三,智能体的学习和决策能力依赖于数据。当遇到新类型的数据或数据量不足的情况时,智能体的性能可能会受到影响。这是因为大多数机器学习模型都需要大量高质量的...
有望超越人类?GPT-4已正式通过图灵测试,比普通成年人还懂讽刺暗示
来自加利福尼亚大学圣迭戈分校的研究证实,GPT-4已经可以轻松通过图灵测试,在实验中人类无法区分AI大模型和人类之间的区别。无独有偶,谷歌DeepMind和牛津进一步研究,证实GPT-4在心智方面的能力和普通成年人相比相差无几。在更复杂的推理能力、理解讽刺、暗示能力层面,更是大幅超越人类。