《麻省理工科技评论》深度长文:什么是人工智能?
AI的发展速度异常迅速。我们不断打破各种基准测试记录,而且这种进步势头不减。但这只是个开始,我们将拥有超越人类的模型,比我们更聪明得多的模型。”(他声称因提出构建技术的安全性问题并“触怒了一些人”,于今年4月被OpenAI解雇,并随后在硅谷成立了投资基金。)...
欧盟《人工智能法案》解读(一) :通用人工智能分类、提供者义务及...
换言之,“通用人工智能模型”是指具有通用性,且能够胜任各种任务的人工智能模型。与传统的人工智能模型不同,通用人工智能具有更广泛的范围和自主性,其平滑的可扩展性使其无需大量培训即可处理来自不同领域的输入。[1]通用人工智能模型不同于通用人工智能系统,后者是指以通用人工智能模型为基础的人工智能系统,例如Cha...
人工智能相关风险:基于ESG监管方法的优点
其中包括著名的框架,如欧盟的《可信赖人工智能伦理准则》、电气和电子工程师协会的《人工智能和自主系统伦理考虑全球倡议》、人工智能伙伴关系和新加坡人工智能治理框架模型。这些框架每个都是独特的,但它们倾向于共享共同的“线程”。大多数先进的人工智能伦理框架都包括与透明度和可解释性、公平和偏见、问责制、隐私和以...
“2024,三问人工智能”之二:“意识觉醒”有多远?
“一旦认定人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。”他说。这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都...
人工智能治理:欧美新合作还是新博弈
在治理手段方面,美国倾向于通过行业自律和行业准则等方式解决相关安全风险,例如敦促企业制定自己的人工智能伦理准则,并通过内部审核和自我监督来减少算法歧视风险。近年来,生成式人工智能等技术不断成熟。为确保生成式人工智能技术的安全性和可靠性,美国政府逐步加强监管,陆续发布系列政策文件强化人工智能治理,以维护美国在...
“人工智能民族主义”时代到来:由国家主导AI发展与监管
·各国都在加速布局AI,推出国家战略或支持领头羊企业(www.e993.com)2024年10月26日。许多政府不想依赖“进口”人工智能,这种现象被总结为“人工智能民族主义”。·中国、美国、欧盟、加拿大、英国、日本、巴西、新加坡等经济体已经或准备推出人工智能指导准则或法案。而对全球AI监管合作的争议是应该基于怎样的机制。
王沛然|从控制走向训导:通用人工智能的“直觉”与治理路径
图灵则更注重外观效果,他认为真正重要的是判断一台机器能否表现出与人类等同或难以区分的智能行为。人类无法从第一人称视角衡量人工智能的内在体验,但在外观意义上,生成式人工智能的出色表现似乎足以让人认为其具有一定意识能力。这里表述为“意识能力”而非“意识”,主要考虑到生成式人工智能目前只展现出这种潜能的一...
将伦理思入现实|应用伦理学探究:人工智能伦理前沿问题
最后,根据辩证发展思想,人工智能“以人为本”伦理准则及其实践需要合情合理地使用人性特点,治标的方式是合情合理地驱使人性特点发明和使用人工智能,治本的方式是“重构个人所有制”,从根本上消除人工智能社会大生产与个人私有制之间的张力。华东师范大学哲学系何静教授认为潘教授提出的“弱人工智能本质上还是工具,但是...
AI安全治理刻不容缓
从2023年11月首届人工智能安全峰会上,28国和欧盟联合签署了《布莱切利宣言》,坚持“以人为本,值得信赖和负责任”的人工智能发展准则,到今年5月21日在韩国首尔举行的第二届人工智能安全峰会上,OpenAI、Anthropic、亚马逊、谷歌、微软、Meta、MistralAI、xAI、智谱AI等来自北美、亚洲、欧洲和中东地区的15家主流人工...
Claude 3说服力堪比人类,Anthropic最新研究揭秘LLM惊人能力
而人工智能模型的说服力强弱不仅能作为人工智能模型在重要领域与人类技能匹配程度的替代衡量标准,还可能与模型的安全性紧密相连。如果有别有用心之人利用人工智能生成虚假信息,或说服人们进行违反相关规定的行为,后果可想而知。因此开发衡量人工智能说服力的方法是很重要的工作。