企业🤖AI智能体构建引擎,智能编排和调试,一键部署,支持知识库和私有化部署方案 广告
# 激活函数(activation) > 激活函数是用来加入非线性因素的,提高神经网络对模型的表达能力,解决线性模型所不能解决的问题。 ## 效果对比 其他条件相同,只改变激活函数情况下 > relu准确率为:0.9554 > tanh准确率为:0.9411 > sigmoid准确率为:0.9105