论坛风格切换
 
  • 帖子
  • 日志
  • 用户
  • 版块
  • 群组
帖子
购买邀请后未收到邀请联系sdbeta@qq.com
  • 534阅读
  • 0回复

[业界新闻]逾百名专家联合呼吁优先研究 AI 意识,确保人工智能不会“受虐” [复制链接]

上一主题 下一主题
 

发帖
10293
今日发帖
最后登录
2025-12-06
只看楼主 倒序阅读 使用道具 楼主  发表于: 2025-02-06 14:17:23
  据《卫报》当地时间2月3日报道,一封由包括斯蒂芬・弗莱在内的人工智能专家和思想家签署的公开信警告称,若AI技术得不到负责任的开发,具备感情或自我意识的AI系统可能面临被伤害的风险。 0>AA-~=-  
HID;~Ne  
  超过100位专家提出了五项原则,旨在指导AI意识研究,随着技术的迅速发展,越来越多的人担心,某些AI系统可能会被认为具备感知能力。 i JQS@2=A  
VbZZ=q=Kd  
  这些原则包括: =XqmFr;h  
76hi@7a  
  优先研究AI的意识,确保不会导致“虐待和痛苦”; l.&6|   
JWEqy+,Fjw  
  对发展具备意识的AI系统进行约束; K)&AR*Tc  
C`DTPoXN  
  逐步推进AI系统的研发; mH;\z;lyK  
uv Z!3UH.  
  公开分享研究成果; b2ZKhS8  
G"C'/  
  避免做出误导性或过于自信的声明,特别是创造具备意识的AI。 Y>IEB,w  
oo<,hOv   
  公开信的签署者包括伦敦大学的安东尼・芬克尔斯坦等学者,以及来自亚马逊、WPP等公司的AI专家。 >8QLo8)3C  
%kyvt t  
  这封信与一篇研究论文一起发布,论文中指出,具备意识的AI系统可能在不久的将来被开发出来,或者至少是表现出具备意识的特征。 ':J[KWuV  
Yz[^?M%(D  
  研究人员表示:“可能会创造出大量具备意识的系统,这些系统可能会遭受痛苦。”如果强大的AI能够自我复制,可能会诞生“大量需要道德考虑的新生命体”。 Q xKC5`1  
/SjA;c! .  
  该论文由牛津大学的帕特里克・巴特林和雅典经济与商业大学的西奥多罗斯・拉帕斯共同撰写,强调即使公司没有刻意研发具备意识的AI系统也应制定相应的指南,以应对“无意中创造出有意识实体”的风险。 `2}Mz9mk  
Z?dz@d%C  
  论文承认,关于AI是否能具备意识,学术界存在广泛的不确定性,但它认为这是一个“不容忽视”的问题。 f7\$rx  
p'!cGJL  
  论文还提出,若AI系统被定义为“道德病人”——即在道德上“独立存在且值得关注的实体”,那么摧毁这一系统是否就等同于杀害动物,这一问题值得深思。 $(G.P!/  
^Qq_|{vynf  
  这篇论文已发表于《人工智能研究》期刊。它还警告,错误地认为AI系统已具备意识,可能会导致政治资源的浪费,使得不切实际的福祉推广工作被展开。 YGNO]Q~A  
fgq#Oi}  
  据IT之家了解,去年曾有一些资深学者预测,到了2035年,部分AI系统具有意识并具有“道德意义”的可能性是现实的。 Q.@9"&)t  
RlC|xj"l%  
  2023年,谷歌AI项目负责人德米斯・哈萨比斯曾表示,目前的AI系统“绝对”没有感知能力,但未来很可能具备。 l7nc8K  
,d$V-~2,  
  他在接受美国CBS采访时表示:“尽管哲学界尚未对意识达成共识,但如果我们指的是自我意识之类的特质,那么我认为AI未来有可能具备。” 4Y;z46yM%