• 神经网络(英語:convolutional neural network,縮寫:CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。 神经网络由一个或多个层和顶端的全连通层(对应经典的神经网络)组成,同时也包括关联权重和池化层(pooling...
    13 KB (1,890 words) - 05:19, 1 November 2024
  • 神经网络(neural network)是在动物、人类或计算机系统中形成神经系统结构的神经元互联群或神经元模拟,可能指: 神经回路(neural circuit),是由生物的神经元、细胞、触点等组成的神经网络。 动物神经网(nerve net),是一种径向对称的生物神经系统。 人工神经网络(artificial...
    978 bytes (116 words) - 04:52, 26 October 2023
  • 神经科学,并松散地建立在類似神经系统中的信息处理和对通信模式的理解上,如神经编码,试图定义拉動神经元的反应之间的关系以及大脑中的神经元的电活动之间的关系。 至今已有數种深度学习框架,如深度神经网络神经网络和深度置信网络(英语:Deep belief network)和循环神经网络...
    42 KB (5,930 words) - 07:21, 16 October 2024
  • 人工神經網絡 人工神经网络(英語:artificial neural network,ANNs)又称类神经网络,简称神经网络(neural network,NNs),在机器学习和认知科学领域,是一种模仿生物神经网络(动物的中樞神經系統,特别是大脑)的结构和功能的数学模型或计算模型,用于对函数进行估...
    29 KB (4,076 words) - 06:13, 3 August 2024
  • 循环神经网络(Recurrent neural network:RNN)是神經網絡的一種。单纯的RNN因为无法处理随着递归,权重指数级爆炸或梯度消失问题,难以捕捉长期时间关联;而结合不同的LSTM可以很好解决这个问题。 时间循环神经网络可以描述动态时间行为,因为和前馈神经网络(feedforward...
    19 KB (2,682 words) - 18:53, 10 January 2024
  • 残差神经网络由何恺明、张祥雨、任少卿和孙剑开发,这一成果在2015年的ImageNet大规模视觉识别挑战赛中夺冠。 2012年,针对ImageNet竞赛开发的AlexNet模型是一个包含8层的神经网络。到了2014年,牛津大学的视觉几何组(VGG)通过叠加3x3层将网络深度增加到了19层。...
    22 KB (2,797 words) - 13:44, 17 December 2024
  • N=1024,M=600} ,所需總乘法量:快速傅立葉轉換 = 分段<直接計算。故,此時選擇使用分段來計算最適合。 在科学、工程和数学上都有很多应用: 代数中,整数乘法和多项式乘法都是神经网络应用了多重级联的核心(英语:Kernel (image...
    54 KB (9,701 words) - 03:07, 18 February 2024
  • 全连接层 (category 人工神经网络)
    全连接层(Fully Connected Layer)是多层感知器应用在神经网络中的多种组件之一。在深度学习领域中,用于分类任务的神经网络模型的网络结构的最后几层往往是全连接层,用于将从该层之前的几个特征抽取层获得的特征表达向量映射到下一层,或者映射到最终的softmax层。...
    602 bytes (73 words) - 09:48, 30 November 2018
  • 層 (深度學習) (category 人工神經網絡)
    层,或层次,是深度学习模型模型架构中的一种结构或網路拓撲,它从上一层获取信息,然后将信息传递给下一层。深度学习中有几个著名的层,即神经网络中的层和最大池化层。基本神经网络中的全连接层和ReLU层。循環神經網路中的RNN层和自动编码器中的解层等。 深度學習與新皮質的分層方式有本質上的分別:深度學習的分層取決於網路拓撲,新皮質的分層取決於層內的同質性。...
    4 KB (368 words) - 12:41, 22 June 2022
  • AlexNet (category 神经网络软件)
    AlexNet是一个神经网络,由亚历克斯·克里泽夫斯基设计,与伊尔亚·苏茨克维和克里泽夫斯基的博士导师杰弗里·辛顿共同发表。 AlexNet参加了2012年9月30日举行的ImageNet大规模视觉识别挑战赛,达到最低的15.3%的Top-5错误率,比第二名低10...
    11 KB (1,041 words) - 06:57, 2 July 2024
  • Waifu2x (category 人工神经网络)
    。 waifu2x的核心是一个用于超解析度成像的神经网络(SRCNN)。它使用了NVIDIA CUDA技术,但也能使用OpenCL和Vulkan來執行演算。 区别于传统的插值拉伸等放大方法,waifu2x采用了经过训练的深度神经网络进行图像放大,针对性地解决了其他放大方法在放大动漫风格...
    4 KB (282 words) - 09:38, 31 July 2023
  • 0开始。 Keras包含许多常用神经网络构建块的实现,例如层、目标、激活函数、优化器和一系列工具,可以更轻松地处理图像和文本数据。其代码托管在GitHub上,社区支持论坛包括GitHub的问题页面和Slack通道。 除标准神经网络外,Keras还支持神经网络和循环神经网络。其他常见的实用公共层支持有Dropout、批量归一化和池化层等。...
    7 KB (601 words) - 18:59, 28 March 2024
  • 3年引入了所谓的弹性失真(英语:Elastic deformation),到了2010年代,这些技术被广泛采用。数据增强可以提升神经网络的性能,并且作为对抗神经网络分析攻击的一种对策。 数据增强在图像分类中已成为一种基础工具,用来丰富训练数据集的多样性,以提升模型的泛化能力和性能。几何变换、...
    5 KB (566 words) - 11:00, 1 October 2024
  • 腦波分析 (category 神经技术)
    Entropy)等熵。 人工神经网络(ANN)已有用在腦電圖的分類上。大部份的應用中,腦電圖資料在進入神经网络分析前,需要經過小波轉換的前處理。一度也很常會使用循环神经网络(RNN)在人工神经网络的腦電圖分析上。一直到深度学习以及神经网络(CNN)興起後,神经网络...
    13 KB (1,725 words) - 06:11, 12 April 2024
  • Sors等人 提出应用于睡眠分期的一维卷网络。在每一层中,都包含了操作和池化操作。其中,层负责提取图像中的局部特征;池化层用来大幅降低参数量级;全连接层类似传统神经网络的部分,用来输出想要的结果 。相比其他神经网络模型,网络的特征提取能力更强,而且相对易于训练。CNN也是最先应用于脑电信号领域的深度学习模型。...
    66 KB (8,506 words) - 06:04, 4 July 2024
  • U-Net (section 网络架构)
    U-Net是弗赖堡大学计算机科学系为生物医学图像分割开发的神经网络。其基于完全网络,并在结构上加以修改与扩展,使得它可以用更少的训练图像产生更精确的分割。在现代GPU上,分割一张512×512的图像需要的时间不到一秒。 U-Net架构已经在扩散模型中采用,用于迭代式图像去噪音。这种技术位于很...
    7 KB (862 words) - 03:32, 18 October 2023
  • 。其名称来源于科幻小说《三体》中的“黑暗森林”。该项目的负责人为Facebook人工智能研究院的研究员田渊栋。 Darkforest采用的是基于神经网络的深度学习技术。而其升级版本Darkfores2则在原有技术的基础之上,又增加了蒙特卡洛树搜索技术。 Darkforest在2016年3月举办的...
    2 KB (206 words) - 01:50, 11 December 2022
  • Caffe (category 人工神经网络)
    2017年4月,Facebook发布Caffe2,加入了循环神经网络等新功能。2018年3月底,Caffe2并入PyTorch。 深度学习软件比较(英语:Comparison of deep learning software) 神经网络 深度学习 机器学习 Release 1.0. 2017年4月18日...
    6 KB (406 words) - 12:51, 1 August 2023
  • 018年图灵奖得主,他在机器学习、计算机视觉、移动机器人(英语:Mobile robot)和計算神經科學等领域都有很多贡献。他最著名的工作是在光学字符识别和计算机视觉上使用神经网络,他也被称为网络之父。他同莱昂·博图(英语:Léon Bottou)和帕特里克·哈夫纳(Patrick...
    13 KB (1,449 words) - 08:11, 13 December 2024
  • Deeplearning4j (category 人工神经网络)
    ub托管,并在谷歌小组上设有支持论坛。  这一框架是可组合的,即受限玻尔兹曼机、网络、自动编码器、递归网络等浅层神经网络可以相互叠加,组合成不同类型的深度网络。 Deeplearning4j的定型以集群进行。神经网络通过迭代化简平行定型,可以在Hadoop/YARN以及Spark上运行。Deep...
    12 KB (926 words) - 08:03, 17 January 2024
  • 27%的错误率,提升了之前的最佳成绩。2013年,一种基于DropConnect正则化神经网络的方法声称实现了0.21%的错误率。2016年,单个神经网络在MNIST上的最佳性能为0.25%的错误率。截至2018年8月,使用MNIST训练数据、没有数据增强的单个神经网络的最佳性能为0.25%的错误率。此外,乌克兰赫梅尔尼茨基的并行计算中心(Parallel...
    14 KB (1,499 words) - 05:04, 14 November 2024
  • 在計算機科學中,深度信念網絡(英語:convolutional deep belief network;CDBN)是一種深度人工神經網絡,由多層受限玻爾茲曼機堆疊在一起組成。它是一種用於深度學習的分層生成模型,在圖像處理和物件識別(英语:Outline of object...
    2 KB (233 words) - 08:12, 9 July 2023
  • 在深度神经网络 (DNN) 的紧凑性和适用性方面进行了重要研究。 他提出了轻量级 DNN 的概念和架构。 他的团队发明了 HashedNets 架构,该架构使用权重共享方案将超大规模 DNN 压缩成更小的网络。 还开发了一种用于神经网络 (CNN) 的压缩框架。...
    10 KB (977 words) - 03:28, 5 September 2024
  • 这个脑机接口的库可用于脑电图和肌电图分析、可视化和波形解码,适用于在线混合脑机接口研究及实验。除此之外,Gumpy还应用了深度学习技术,例如神经网络来增强脑电图或肌电图的解码。 Gumpy库依赖于一些数学和科学计算的Python库,例如NumPy、SciPy和scikit-learn。...
    4 KB (406 words) - 12:49, 3 August 2023
  • 华盛顿大学和香港科技大学等研究机构的支持。 Apache MXNet是一个极简、灵活、可扩展的深度学习框架,支持深度学习模型,包括神经网络(CNN)和长短期记忆网络(LSTM)。 MXNet分布于动态云基础架构上,使用分布式参数服务器(基于卡内基·梅隆大学、百度和Google),并且可以使用多GPU或多CPU实现近乎线性的扩展。...
    6 KB (553 words) - 12:31, 1 August 2023
  • 网络进行约45亿次自动翻译。彭博商业周刊写道:“这些能力使得LSTM成为最具商业化的AI成就,应用于预测疾病和创作音乐等方方面面。” 2011年,施密德胡伯在IDSIA的团队与他的博士后丹·奇雷尚(Dan Ciresan)在快速并行计算机(GPU)上实现了神经网络...
    19 KB (1,649 words) - 18:09, 22 February 2023
  • 神经机器翻译(英語:Neural machine translation,縮寫:NMT)是一种直接使用人工神经网络以端到端方式进行翻译建模的机器翻译方法。 2014年出现了第一篇关于在机器翻译中使用神经网络的科学论文,随后几年神经机器翻译又取得了一些进展。 神經...
    11 KB (1,183 words) - 07:08, 8 January 2025
  • Correlation)和绝对差和(Sum of Absolute Differences, SAD)法。随着机器学习领域的进步,使用深度神经网络(如 神经网络)进行特征提取已被证明极其有效,并已成为最先进的模板匹配算法的标准。这种基于特征的方法通常比传统的模板匹配方法更具有鲁棒性,并且可以匹配...
    6 KB (697 words) - 10:58, 17 September 2024
  • 种特定类型的人工智能加速器,用于加速机器视觉任务。 视觉处理单元与视频处理单元(专门用于视频编解码)不同,前者更适合运行机器视觉算法,如CNN(神经网络)、SIFT(尺度不变特征转换)和类似算法。 它们可能包括从摄像头获取数据的直接接口(途径任意片外缓冲器),强调在拥有许多暂存器的并行计算单元间...
    5 KB (535 words) - 09:16, 4 October 2023
  • Transformer模型 (category 人工神经网络)
    2020年,Transformer架构(更具体地说是GPT-2)被证明可以通过微调执行下象棋的任务。Transformer模型也已应用于图像处理,其结果可与神经网络相媲美。 Transformer模型已在TensorFlow、PyTorch等标准深度学习框架中实现。 Transformers是由Hugging...
    22 KB (2,911 words) - 07:35, 8 January 2025
  • 神经网络模拟器的前端。 简单形式的Lisp表达式,但Lisp的所用功能全部保留 高效,通过本地编译器(C编译)实现编译 与C函数或C库具有简单接口,可以加载用其他编译性语言得到的目标文件(.o,.a或.so文件) 单个函数中混合Lisp与C 强大的矢量,矩阵,张量操作引擎,如点,外,转置,等...
    2 KB (308 words) - 02:19, 21 November 2024