Skip to content

Profile Picture
Mobile
  • All
  • Search
  • Images
  • Videos
  • Maps
  • News
  • More
    • Shopping
    • Flights
    • Travel
    • Hotels
  • Tools
About 21 results
Open links in new tab
Any time
  1. zhihu.com
    https://www.zhihu.com › question

    CNN,Transformer,MLP 三大架构的特点是什么? - 知乎

    CNN擅长处理图像数据,具有强大的特征提取能力;Transformer通过自注意力机制实现了高效的并行计算,适用于处理序列数据;而MLP则以其强大的表达能力和泛化能力,在多种类型的机 …

  2. zhihu.com
    https://www.zhihu.com › question

    多层感知器MLP,全连接网络,DNN三者的关系?三者是不是同一 …

    全连接(前馈)网络:是指每一层之间没有连接,只是前一层和后一层连接的网络都属于全连接 前馈神经网络。 多层感知器 MLP:是相对于最简单的单个感知器而言,多个感知器串联构成 …

  3. zhihu.com
    https://www.zhihu.com › question

    MLP和BP的区别是什么? - 知乎

    MLP是 多层感知机,是多层的全连接的前馈网络,是而且仅仅是算法结构。输入样本后,样本在MLP在网络中逐层前馈(从输入层到隐藏层到输出层,逐层计算结果,即所谓前馈),得到最 …

  4. zhihu.com
    https://www.zhihu.com › question

    神经网络Linear、FC、FFN、MLP、Dense Layer等区别是什么?

    3.FFN(前馈神经网络)和 MLP(多层感知机): "FFN" 和 "MLP" 表示前馈神经网络和多层感知机,它们在概念上是相同的。 前馈神经网络是一种最常见的神经网络结构,由多个全连接层 …

  5. zhihu.com
    https://www.zhihu.com › tardis › zm › art

    损失函数|交叉熵损失函数

    3. 学习过程 交叉熵损失函数经常用于分类问题中,特别是在神经网络做分类问题时,也经常使用交叉熵作为损失函数,此外,由于交叉熵涉及到计算每个类别的概率,所以交叉熵几乎每次都和 …

  6. zhihu.com
    https://www.zhihu.com › question

    如何用 mlp 神经网络做多分类预测? - 知乎

    多层感知机(MLP)神经网络可以用于多分类预测。以下是一个基本的示例,用于使用TensorFlow Keras实现MLP多分类预测:

  7. zhihu.com
    https://www.zhihu.com › question

    如何评价神经网络架构KAN,是否有潜力取代MLP? - 知乎

    May 2, 2024 · mlp之所以经久不衰,就是因为他简单,快速,能scale-up。 KAN让人想起来之前的Neural ODE,催生出来比如LTC(liquid time constant)网络这种宣称19个神经元做自动驾驶。

  8. zhihu.com
    https://www.zhihu.com › question

    MLP能够模拟CNN,为什么却没有CNN性能好? - 知乎

    MLP能够模拟CNN,为什么却没有CNN性能好? 通过适当的权重设置,可以把一个CNN模型变成MLP模型,反过来CNN不一定能模拟一个MLP模型。 如何解释这个现象呢?除了CNN自带正 …

  9. zhihu.com
    https://www.zhihu.com › tardis › zm › art

    一文了解Transformer全貌(图解Transformer)

    Jan 21, 2025 · Transformer整体结构(输入两个单词的例子) 为了能够对Transformer的流程有个大致的了解,我们举一个简单的例子,还是以之前的为例,将法语"Je suis etudiant"翻译成英 …

  10. zhihu.com
    https://www.zhihu.com › question

    如何评价Google提出的MLP-Mixer:只需要MLP就可以在ImageNet …

    MLP-Mixer 而MLP-Mixer这篇文章面对MLP计算量太大,参数量太大两大问题,换了一个解决思路。 这个解决思路跟depthwise separable conv是一致的,depthwise separable conv把经典 …

  11. Pagination

    • 1
    • 2
    • Next
      © 2025 Microsoft
      • Privacy and Cookies
      • Legal
      • Advertise
      • About our ads
      • Help
      • Feedback
      • Consumer Health Privacy
      AllPast 24 hoursPast weekPast monthPast year