情報理論において、交差エントロピー(こうさエントロピー)またはクロスエントロピー(英: cross entropy)は、2つの確率分布の間に定義される尺度である。符号化方式が、真の確率分布 p {\displaystyle p} ではなく、ある所定の確率分布 q {\displaystyle q}...
7 KB (1,289 words) - 05:16, 17 July 2023
id=VWq5GG6ycxMC 標本化定理(シャノンの定理) データ量の比較 エントロピー マクスウェルの悪魔 ハフマン符号 コルモゴロフ複雑性 ランダウアーの原理 交差エントロピー 結合エントロピー 量子エントロピー 情報量 - 脳科学辞典 『情報量の意味と対数関数を使う理由』 - 高校数学の美しい物語...
19 KB (3,325 words) - 14:45, 19 February 2025
カルバック・ライブラー情報量 (redirect from 相対エントロピー)
これはギブスの不等式として知られており、DKL(P||Q) がゼロとなるのは P = Q であるときだけである。従って、エントロピー H(P) は交差エントロピー H(P,Q) の下限値となる。この交差エントロピーは P ではなく Q に基づく符号を使ったときに予測されるビット数を表している。従って、KLダイバージェンスは、X...
13 KB (2,095 words) - 20:07, 9 August 2024
結合エントロピー(けつごうエントロピー、英: joint entropy)とは、情報理論における情報量の一種。結合エントロピーは、2つの確率変数の結合した系でのエントロピーを表す。確率変数 X {\displaystyle X} と Y {\displaystyle Y} があるとき、結合エントロピーは...
5 KB (858 words) - 07:35, 19 March 2019
{\displaystyle Y} が独立なら、結合エントロピーは単純に個々のエントロピーの総和となる。類似の概念として交差エントロピーがあるが、違うものである。 Y = y {\displaystyle Y=y} のときの X {\displaystyle X} の条件付きエントロピーとは、 Y = y {\displaystyle...
29 KB (4,797 words) - 17:42, 16 February 2025
交差しない(キュリーの原理)。ただし非等方的な系ではこの限りでなく、生体膜(化学反応と物質移動の共役)や界面などの例がある。 このような流れの様子が時間変化しないのが定常状態であるが、その条件として「流れによるエントロピー生成が極小である」ということがイリヤ・プリゴジンにより示されている。...
30 KB (4,504 words) - 16:50, 7 February 2025
確率の数理理論において確率過程のエントロピーレート(英: entropy rate)または情報源レート(source information rate)とは、平たく言えば、確率過程における情報量の時間平均である。可算個の時間添字を持つ確率過程のエントロピーレート H ( X ) {\displaystyle...
3 KB (509 words) - 11:37, 5 November 2022
微分エントロピー(びぶんエントロピー、英: differential entropy)または連続エントロピー(continuous entropy)は情報理論における概念で、シャノン情報量(確率変数が持つ平均的自己情報量(英語版)の尺度)を連続型確率分布にまで拡張するクロード・シャノンの試みに端を発...
18 KB (2,170 words) - 02:03, 13 July 2022
{\displaystyle H(Y)} は周辺エントロピー、 H ( X | Y ) {\displaystyle H(X\mathop {|} Y)} と H ( Y | X ) {\displaystyle H(Y\mathop {|} X)} は条件付きエントロピー、 H ( X , Y ) {\displaystyle...
11 KB (2,041 words) - 21:08, 22 February 2025
ソフトマックス関数 (section 交差エントロピーと組み合わせた場合)
での呼び方であり、関数自体は1868年にルートヴィッヒ・ボルツマンが発表した統計力学のボルツマン分布に由来する。交差エントロピーとの組合せでよく用いられるが、ボルツマン分布とエントロピーの組合せの考え方も統計力学由来である。ボルツマンマシンでも用いられているが、1989年にJohn S. Bridleがsoftmaxと命名した。...
10 KB (1,618 words) - 17:46, 8 October 2024
C = sup p X I ( X ; Y ) {\displaystyle C=\sup _{p_{X}}I(X;Y)\,} エントロピー関数を H(p) とすると、2元対称通信路の通信路容量 C は C = 1 − H(p) に等しい。 2元消失通信路の通信路容量 C は C =...
4 KB (614 words) - 14:48, 12 January 2020
\nabla {\frac {m}{T}}\,.} オンサーガーの相反定理は“交差係数” Lur と Lru が等しいことを主張するものである。 比例関係は次元解析から導かれる(両係数は時間×質量密度という同じ次元となる)。 エントロピー S が示量変数 Ei の組で表せるとする。 S = S ( E ) ...
6 KB (1,027 words) - 07:14, 30 August 2022
ホログラフィック原理 (section ブラックホールエントロピー)
熱い気体のように比較的高いエントロピーを持つ物体は、微視的にはランダムな振る舞いをする。古典場の既知の配置エントロピーはゼロである:電場および磁場、または重力波についてランダムさはない。ブラックホールはアインシュタイン方程式の厳密解であるので、いかなるエントロピーも持たないと考えられていた。...
28 KB (4,025 words) - 16:46, 2 September 2024
Sh)は、IEC 80000-13で定められた情報量およびエントロピーの単位である。その名前はクロード・シャノンに因む。 1シャノンは、起こる確率が1⁄2の出来事が持っている情報量と定義される。また、それは同確率の2つの状態による系のエントロピーでもある。 歴史的な経緯により、データ量の単位ビットがシ...
2 KB (249 words) - 04:43, 31 January 2021
ジェクト)として2つの部分にクラスター化されるか、2つのガウス分布の混合としてモデル化される。 エントロピーベースの方法。前景領域と背景領域のエントロピー、元の画像と二値化された画像の間の交差エントロピーなどを使用するアルゴリズム。 オブジェクト属性ベースの方法。ファジー形状の類似性、エッジの一致な...
8 KB (1,133 words) - 10:33, 2 June 2024
の提案) ソルタ (sorta)(1042)(大文字) ソトロ (sotro)(10−42)(小文字) 硫黄の元素記号。 有機化学で光学異性体の一つ、S体。 電界効果トランジスタ (FET) の端子の一つ。ソース (Source) 熱力学でエントロピーをあらわす。 コンピュータ言語。→S言語...
17 KB (2,014 words) - 15:29, 18 January 2025
エントロピーよりも小さいデータを、情報が失われることが事実上確実ではないように圧縮することは不可能である。しかし、損失の可能性が無視できる場合、符号化率を任意にシャノンエントロピーに近づけることは可能である。 シンボルコードの情報源符号化定理は、入力語(確率変数と見なされる)のエントロピー...
11 KB (1,818 words) - 17:48, 4 November 2022
unit of information"(情報の自然単位)と呼ぶのはこのためである。 ボルツマン定数を1に正規化した自然単位系では、熱力学エントロピーの値はナットで測定できる。情報量を自然対数で書き表すと、 H = − ∑ i p i ln p i {\displaystyle H=-\sum...
3 KB (407 words) - 15:13, 14 September 2021
横, 色)の2次元画像の多クラス分類の場合、以下の擬似コードで書かれるのが基本形である。ここから色々なバリエーションが作られている。損失関数は交差エントロピーを使用し、パラメータは確率的勾配降下法で学習するのが基本形である。これらの偏微分は自動微分を参照。 以下の繰り返し 畳み込み層と活性化関数 最大値プーリング...
30 KB (4,570 words) - 06:29, 30 July 2024
ベクトルをone-hotベクトルとい、one-hotベクトルによりデータを表現する事をone-hot表現 という)。損失関数としては典型的には交差エントロピー L ( y ^ , y ) = − ∑ k y k log y k ^ {\displaystyle L({\hat {\mathbf {y}...
23 KB (4,231 words) - 08:22, 11 March 2024
番目の訓練データがクラス k に所属する時 1。 ∑ k d n , k = 1 {\displaystyle \sum _{k}d_{n,k}=1} 。交差エントロピーを使用している。この活性化関数はソフトマックス関数と呼ばれる。このまま計算すると浮動小数点数に入りきらなく、オーバーフローすることが多いが、 u...
16 KB (2,453 words) - 22:53, 18 September 2024
ハートレー(hartley、記号 Hart)は、IEC 80000-13で定められた情報量およびエントロピーの単位である。本項目では関連のあるデータ量の単位であるディット(dit)またはバン(ban)についても説明する。 1ハートレーは、起こる確率が1⁄10の出来事が持っている情報量と定義される。...
7 KB (878 words) - 14:13, 1 March 2025
して導入された。コンピュータビジョンや信号処理のアルゴリズムを使ってBSP木を構築する高速アルゴリズムも開発された。それらのアルゴリズムと高度なエントロピー符号と信号近似手法を組み合わせた画像圧縮法も開発された。 BSP木は、例えば画家のアルゴリズムにおいてレンダリング性能を改善するのに使われる。木...
13 KB (1,929 words) - 07:57, 20 September 2021
耳鼻咽喉科臨床学会 - 左京区に事務局を置いている。 システム制御情報学会 - 左京区に事務局を置いている。 日本材料学会 - 左京区に事務局を置いている。 エントロピー学会 - 下京区に事務局を置いている。 古代学協会 - 中京区に事務局を置いている。 この他、アメリカの大学も積極的に京都で活動を行っている。1...
210 KB (22,814 words) - 14:06, 2 March 2025
銀河交差発生。水惑星アクエリアス接近。ヤマト自沈。(『宇宙戦艦ヤマト 完結編』) 地球・ガミラスの連合軍とガトランティスが戦争状態に突入。白色彗星が太陽系内へ侵攻し、土星沖、火星沖での会戦ののち地球圏へ到達。地球連邦軍は総旗艦アンドロメダをはじめ多数の戦力を失うが、波動エン...
40 KB (5,062 words) - 19:28, 25 February 2025
{C}{1-H_{2}(p_{b})}}} であり、 H 2 ( p b ) {\displaystyle H_{2}(p_{b})} は二値エントロピー関数で、 H 2 ( p b ) = − [ p b log 2 p b + ( 1 − p b ) log 2 ( 1 − p b )...
17 KB (3,040 words) - 17:16, 13 January 2024
データサイエンス > 統計学、機械学習 > 統計学および機械学習の評価指標 統計学および機械学習の評価指標(とうけいがくおよびきかいがくしゅうのひょうかしひょう)では統計学および(教師ありの)機械学習の評価指標について述べる。 以下のものがある。観測値を y = { y 1 , y 2 , ⋯...
10 KB (465 words) - 01:33, 11 December 2024
ここで: desolvation(脱溶媒) - 溶媒からリガンドを除去するためのエンタルピーペナルティ motion(運動) - リガンドが受容体に結合したときの自由度を低下させるエントロピーペナルティ configuration(構造) - リガンドを「活性」配座にするために必要な配座ひずみエネルギー...
47 KB (6,065 words) - 01:24, 2 November 2024
エンタルピー(ΔH‡、Δ‡Hɵとも書かれる)、標準活性化エントロピー(英語版)(ΔS‡またはΔ‡Sɵ)、および標準活性化ギブズエネルギー(ΔG‡またはΔ‡Gɵ)の計算には成功している(‡表記は興味ある値が「遷移状態のもの」であることを指す; ΔH‡は遷移状態のエンタルピーと反応物のエンタルピーの差である)。...
41 KB (5,508 words) - 13:40, 20 February 2025
T2 で表される。 エントロピー的な要請から、T1 ≧ T2 となる。 磁気双極子相互作用を持つ2つのスピンI,Sには2つのスピン量子数を同時に変化させるような緩和過程が存在する。このような過程を交差緩和という。交差緩和が起こるとエネルギー準位の占有数差が熱平衡状態よ...
47 KB (7,509 words) - 07:45, 13 November 2024
は X {\displaystyle X} の分布である。 I ( X ; Y ) {\displaystyle I(X;Y)} を展開し、微分エントロピーの観点から書くと以下の式になる。 I ( X ; Y ) = h ( Y ) − h ( Y | X ) = h ( Y ) − h ( X +...
16 KB (3,351 words) - 03:37, 6 November 2020