当前位置:主页 > 科技论文 > AI论文 >

重新找回人工智能的可解释性

发布时间:2022-09-28 18:33
  针对深度神经网络AI研究的可解释性瓶颈,指出刚性逻辑(数理形式逻辑)和二值神经元等价,二值神经网络可转换成逻辑表达式,有强可解释性。深度神经网络一味增加中间层数来拟合大数据,没有适时通过抽象把最小粒度的数据(原子)变成粒度较大的知识(分子),再把较小粒度的知识变成较大粒度的知识,把原有的强可解释性淹没在中间层次的汪洋大海中。要支持多粒度的知识处理,需把刚性逻辑扩张为柔性命题逻辑(命题级数理辩证逻辑),把二值神经元扩张为柔性神经元,才能保持强可解释性。本文详细介绍了从刚性逻辑到柔性逻辑的扩张过程和成果,最后介绍了它们在AI研究中的应用,这是重新找回AI研究强可解释性的最佳途径。 

【文章页数】:20 页

【参考文献】:
期刊论文
[1]机制主义人工智能理论——一种通用的人工智能理论[J]. 钟义信.  智能系统学报. 2018(01)
[2]因素空间理论——机制主义人工智能理论的数学基础[J]. 汪培庄.  智能系统学报. 2018(01)
[3]泛逻辑学理论——机制主义人工智能理论的逻辑基础[J]. 何华灿.  智能系统学报. 2018(01)
[4]S型超协调逻辑中的一项重大研究突破——评张金成《逻辑及数学演算中的不动项与不可判定命题》[J]. 何华灿.  智能系统学报. 2014(04)
[5]逻辑及数学演算中的不动项与不可判定命题(Ⅰ)[J]. 张金成.  智能系统学报. 2014(04)



本文编号:3682173

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/rengongzhinen/3682173.html


Copyright(c)文论论文网All Rights Reserved | 网站地图

版权申明:资料由用户1ee0a***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com