• 多層構造と非線形活性化関数が、MLPと線形パーセプトロンを区別している。MLPは線形分離可能ではないデータを識別できる。 多層パーセプトロンは時折、特に単一の隠れ層を持つ時、「バニラ」ニューラルネットワークと口語的に呼ばれることがある。 多層パーセプトロンが全てのニューロン...
    11 KB (1,633 words) - 23:44, 12 February 2022
  • 多層パーセプトロンの機械学習に関する歴史は、それがパーセプトロンの歴史だと言っても過言ではない。1960年代に爆発的なニューラルネットブームを巻き起こしたが、60年代末のミンスキーらによる、単層パーセプトロンは線形分離可能なものしか学習できないという指摘は、多層パーセプトロン...
    13 KB (1,581 words) - 16:08, 22 December 2023
  • ーラルネットワークによる理論実証の過程を記載する。 単層パーセプトロンの「線型分離不可能な問題」を解けない、という限界は、多層パーセプトロンの機械学習がバックプロパゲーションにより実現されたことで、ある程度は解決された。しかし、層数を増やした多層ニューラルネットの学習は、局所最適解や勾配消失などの技...
    51 KB (7,281 words) - 20:32, 16 September 2024
  • クが存在するが、結合様式に関わらず回帰結合を持たないものはすべてFFNに属する。以下はFFNの一例である。 単純パーセプトロン: 1-layer 層間全結合ネットワーク 多層パーセプトロン: N-layer 層間全結合ネットワーク 畳み込みニューラルネットワーク: N-layer 層間局所結合ネットワーク(c...
    44 KB (5,786 words) - 20:41, 16 September 2024
  • と分解するために様々なやり方でそれらのニューロンを結合する。 一般に、回帰型多層パーセプトロン(Recurrent Multi-Layer Perceptron、RMLP)ネットワークは直列のサブネットワークから構成され、それぞれのサブネットワークは多層のノードを含む。これらのサブネットワークのそ...
    72 KB (9,107 words) - 11:59, 12 May 2024
  • 甘利俊一 (category マサチューセッツ大学の教員)
    理化学研究所栄誉研究員 2019年 - 文化勲章受章 甘利俊一は連続体力学、情報理論、ニューラルネットワークなどを研究してきた。1967年、多層パーセプトロンの確率的勾配降下法を考えて定式化に成功したが、この早すぎた発見は当時の計算機の能力の低さもあり検証が難しく、あまり注目されずに終わった。しか...
    9 KB (895 words) - 03:20, 12 October 2024
  • 人工神経の活性化関数は、ネットワークを強化または単純化するような特性を持つものが選ばれる。実際、線型伝達関数を使った多層パーセプトロンには、全く等価な単層ネットワークが必ず存在する。したがって、多層ネットワークの利点を生かすには非線形関数が必須である。 以下ステップ関数と線形結合の説明では、人工神経への全入力の重み付けされた総和を...
    16 KB (2,453 words) - 22:53, 18 September 2024
  • 主な統計分類アルゴリズム: 線形分類器 フィッシャーの線形判別分析 ロジスティック回帰 単純ベイズ分類器 単純パーセプトロン 線形サポートベクターマシン 二次分類器 二次判別分析 その他、非線形など k近傍法 ブースティング 決定木 ニューラルネットワーク ベイジアンネットワーク...
    8 KB (1,182 words) - 01:29, 3 December 2019
  • 大胆に区切る境目を学習する。学習の結果得られた超平面は、境界に最も近いサンプルとの距離(マージン)が最大となるパーセプトロン(マージン識別器)で定義される。すなわち、そのようなパーセプトロンの重みベクトル w ∈ R p {\displaystyle {\boldsymbol {w}}\in \mathbb...
    17 KB (3,234 words) - 20:19, 13 October 2023
  • Activityで扱われた、モデル化されたニューロンについて述べる(原典では議論の対象であるニューロンについて明確な呼び名を与えておらず、後世の論者からの呼称は formal neuron の他、いろいろある)。人工ニューロン・ニューラルネットワークの研究を発表した先駆として、後のパーセプトロン...
    4 KB (569 words) - 23:29, 1 December 2022
  • ゴリズムであり、この名称は、ランダムサンプリングされたトレーニングデータによって学習した多数の決定木を使用することによる。ランダムフォレストをさらに多層にしたアルゴリズムにディープ・フォレストがある。対象によっては、同じくアンサンブル学習を用いるブースティングよりも有効とされる。...
    6 KB (746 words) - 17:07, 28 May 2024
  • 978-4621061244 後藤正幸,小林学:「入門 パターン認識と機械学習」コロナ社(2014)ISBN 978-4-339-02479-1 。 多層ニューラルネットワークと自己組織化写像のアプリケーション パターン、パターンマッチング 帰納法 機械学習 分類 (統計学)、文書分類、単純ベイズ分類器...
    4 KB (446 words) - 23:45, 6 August 2024
  • 小解に収束してしまう。そこで、中間層1層だけでオートエンコーダを作って学習させる。次に、中間層を入力層と見なしてもう1層積み上げる。これを繰り返して多層化したオートエンコーダをつくる方法をstacked autoencoderと言う。 入力層のデータにノイズを加えて学習させたもの。制約付きボルツマン...
    9 KB (1,517 words) - 03:16, 24 July 2023
  • (Kohonen network)、自己組織化マップ、ソム (SOM) などと呼ぶこともある。 自己組織化写像は複数の人工ニューロンが接続された構造である。この人工ニューロンはノード (node)、もしくはユニット (unit) と呼ぶこともある。 自己組織化写像は入力層と競合層(出力層)からなる2...
    13 KB (2,148 words) - 01:31, 25 July 2024
  • _{j}\left\|x_{i}-V_{j}\right\|^{2}} 単純なアルゴリズムであり、広く用いられている。分類をファジィ化したファジィc-平均法やエントロピー法をはじめ、データ構造を発見するさまざまな応用手法が提案されている。上記の最適化問題はNP困難であるが、k-平均法は局所解を求める効率的なヒュー...
    5 KB (765 words) - 17:12, 28 May 2024
  • トロンに起源を持つ。ネオコグニトロンはニューラルネットワークで畳み込みを使用した。 有名なモデルとして以下のものがある。 1979年 - ネオコグニトロン 1989年 - LeNet 2012年 - AlexNet。トロント大学のチーム名 SuperVision...
    30 KB (4,570 words) - 06:29, 30 July 2024
  • 働開始した。同時に、デジタルデータの収集、蓄積、利用の試みが開始された。 1971年から1973年にかけて、チリでサイバーシン計画が実行される。コントロールセンターが、テレックスを介して実時間でチリ各地に点在する工場からデータを収集して、収集したデータを元に、オペレーションズ・リサーチを用いて最適化...
    21 KB (2,974 words) - 01:12, 16 July 2024
  • ベイジアンネットワーク CRF HMM 異常検知 k-NN 局所外れ値因子法 ニューラルネットワーク オートエンコーダ ディープラーニング DeepDream 多層パーセプトロン RNN LSTM GRU 制約ボルツマンマシン(英語版) SOM CNN 強化学習 TD学習 Q学習 SARSA 理論 偏りと分散のトレードオフ...
    1 KB (151 words) - 11:04, 30 July 2022
  • 超領域性の様相を呈していて、また研究成果に対しては明確な社会的説明責任が求められ、さらに、研究成果の質的保証のためには従来の座学的基準以外に質のコントロールのための追加の基準が必要とされる。 データサイエンスの有効な推進のためには組織の異種混合性も重要である。これらの要件を満たす科学はギボンズらが主...
    12 KB (1,473 words) - 12:00, 13 June 2024
  • すればよいが、データが増えれば計算量も膨大となる。様々な最近傍探索アルゴリズムが提案されており、一般に実際に距離を計算する回数を削減する。特徴空間のパーティショニングによる最適化や、特定の値が近いものだけ距離を計算する最適化などがある。その他の最近傍探索アルゴリズムとしては、次のようなものがある。 kd木...
    10 KB (1,402 words) - 07:03, 7 November 2023
  • 最も表現力が豊かで包括的な知識表現パラダイムとしてMultiNet(Multilayered Extended Semantic Networks、多層拡張意味ネットワーク)がある。 1960年代から、知識フレームまたは単に「フレーム」と呼ばれる表現が使われている。フレームは値を持つスロット群から構...
    17 KB (2,462 words) - 11:22, 9 March 2024
  • 1979年、NHK技研で研究者として所属していた福島邦彦氏が曲率を抽出する多層の神経回路にコグニトロン型の学習機能を取り入れて、多層神経回路モデル「ネオコグニトロン」を発明。 1980年代から急速に普及し始めたコンピュータゲームでは、敵キャラクターやNPCを制御するた...
    144 KB (18,431 words) - 06:15, 27 September 2024
  • ベイジアンネットワーク CRF HMM 異常検知 k-NN 局所外れ値因子法 ニューラルネットワーク オートエンコーダ ディープラーニング DeepDream 多層パーセプトロン RNN LSTM GRU 制約ボルツマンマシン(英語版) SOM CNN 強化学習 TD学習 Q学習 SARSA 理論 偏りと分散のトレードオフ...
    4 KB (613 words) - 17:11, 28 May 2024
  • サブサンプリングのために平均プーリング層を用いる 活性化関数 として tanh を用いる 最後の分類器として多層パーセプトロンを用いる 計算の複雑さを軽減するレイヤー間の疎結合 LeNet は、元々、単純な数字画像の認識のために開発された。 ヤン・ルカンらは1989...
    13 KB (1,833 words) - 03:18, 22 October 2021
  • ベイジアンネットワーク CRF HMM 異常検知 k-NN 局所外れ値因子法 ニューラルネットワーク オートエンコーダ ディープラーニング DeepDream 多層パーセプトロン RNN LSTM GRU 制約ボルツマンマシン(英語版) SOM CNN 強化学習 TD学習 Q学習 SARSA 理論 偏りと分散のトレードオフ...
    8 KB (1,140 words) - 10:20, 17 May 2024
  • ズムの多くは、凸コスト関数を使った関数空間における最急降下法を実行できる AnyBoost フレームワークに適合する。 ロジスティック回帰 最大エントロピー原理 ニューラルネットワーク サポートベクターマシン LightGBM ^ Michael Kearns. Thoughts on hypothesis...
    5 KB (653 words) - 04:55, 20 October 2022
  • ベイジアンネットワーク CRF HMM 異常検知 k-NN 局所外れ値因子法 ニューラルネットワーク オートエンコーダ ディープラーニング DeepDream 多層パーセプトロン RNN LSTM GRU 制約ボルツマンマシン(英語版) SOM CNN 強化学習 TD学習 Q学習 SARSA 理論 偏りと分散のトレードオフ...
    12 KB (1,855 words) - 10:55, 1 August 2022
  • 機械学習において、評価値はほぼ常に m = 1 の実数なので、トップダウン型が使われる。機械学習で用いられる多層パーセプトロンのバックプロパゲーションはトップダウン型自動微分の特殊なケースである。 ボトムアップ型はR.E. Wengertが1964年に発表したが、2...
    34 KB (5,894 words) - 14:02, 17 July 2024
  • ベイジアンネットワーク CRF HMM 異常検知 k-NN 局所外れ値因子法 ニューラルネットワーク オートエンコーダ ディープラーニング DeepDream 多層パーセプトロン RNN LSTM GRU 制約ボルツマンマシン(英語版) SOM CNN 強化学習 TD学習 Q学習 SARSA 理論 偏りと分散のトレードオフ...
    2 KB (427 words) - 06:37, 23 January 2022
  • _{j}p_{j\mid i}\log _{2}p_{j\mid i}} ここで H ( P i ) {\displaystyle H(P_{i})} はシャノンエントロピーである。密集していてデータ集合空間が小さければ σ i {\displaystyle \sigma _{i}} は小さい値となる。 次に同時確率...
    12 KB (1,959 words) - 05:53, 12 December 2022
  • DBSCAN よりもずっとパラメータ化しやすい一方で、結果を使うのにはもうすこし困難がある。たいてい、DBSCAN が生成する単純なデータパーティショニングの代わりに、階層クラスタリングを生成するためである。 最近、DBSCAN の元々の著者の一人が DBSCAN と OPTICS を再訪し、階層...
    23 KB (3,194 words) - 13:54, 13 July 2024