• 邏輯迴歸(英語:Logistic regression,又譯作邏輯迴歸、羅吉斯迴歸邏輯迴歸、对数几率迴归),在统计学中是一種对数几率模型(英語:Logit model,又译作逻辑模型、评定模型、分类评定模型),是离散选择法模型之一,属于多元变量分析范畴,是社会学、生物统计学、临床、数量...
    9 KB (1,187 words) - 08:51, 15 November 2024
  • 邏輯函數(英語:logistic function)是一种常见的S型函数,其函數圖像稱為逻辑曲线(英語:logistic curve)。简单的逻辑函数可用下式表示: f ( x ) = L 1 + e − k ( x − x 0 ) {\displaystyle f(x)={\frac...
    27 KB (4,041 words) - 00:56, 9 December 2023
  • 回歸以及非线性回归邏輯迴歸等 存活分析:包括Cox回归( 比例风险模型 )和Kaplan-Meier生存分析。 方法评估和方法比较的分析:包括ROC曲线分析, Bland-Altman图 以及Deming和Passing-Bablok回归 。 此外还有元分析和样本量计算等功能。...
    2 KB (214 words) - 10:00, 26 November 2024
  • 其他S型函數案例見下。在一些學科領域,特別是人工神经网络中,S型函數通常特指邏輯函數。 逻辑函数 f ( x ) = 1 1 + e − x {\displaystyle f(x)={\frac {1}{1+e^{-x}}}} 雙曲正切函數(等價於逻辑函数的平移與縮放) f ( x ) = tanh ⁡ x...
    4 KB (700 words) - 05:18, 23 September 2023
  • 间的联合分布。对于诸如分类和回归问题,由于不考虑联合概率分布,采用判别模型可以取得更好的效果。而生成模型在刻画复杂学习任务中的依赖关系方面则较判别模型更加灵活。大部分判别模型本身是监督学习模型,不易扩展用于非监督学习过程。实践中,需根据应用的具体特性来选取判别模型或生成模型。 邏輯迴歸 线性回归 支持向量机 提升方法...
    2 KB (237 words) - 05:24, 23 September 2023
  • 进行y在x上的线性(OLS)回归: regress y x [if] 选项部份if允许限制命令所用采样至一个子集。例如,如果命令只适用于采样中的雌性,则应当指定if female == 1。 要进行y在x上的邏輯迴歸: logistic y x 要显示y针对x的散布图,并限制x的值在10以下:...
    6 KB (609 words) - 17:20, 25 December 2023
  • 化“拟合缺陷”在一些其他规范里(比如最小绝对误差迴归),或者在桥迴归中最小化最小二乘损失函数的惩罚。相反,最小二乘逼近可以用来拟合那些非线性的模型。因此,尽管“最小二乘法”和“线性模型”是紧密相连的,但他们是不能划等号的。 線性迴歸的「迴歸」指的是迴歸到平均值(英语:regression toward...
    21 KB (3,686 words) - 10:14, 4 November 2024
  • {I_{p+1}} } 方差分析 安库姆四重奏 横截面回归 曲线拟合 经验贝叶方法 邏輯迴歸 M估计 非线性回归 非参数回归 多元自适应回归样条 Lack-of-fit sum of squares 截断回归模型 删失回归模型 简单线性回归 分段线性回归 Theil, Henri. Best...
    7 KB (1,186 words) - 05:17, 23 September 2023
  • LDA与變異數分析(ANOVA)和迴归分析紧密相关,这两种分析方法也试图透过一些特征或测量值的线性组合来表示一个因变量。 然而,變異數分析使用类别型的自变量和连续型的因变量,而判别分析則使用连续型自变量和类别型因变量(即类标签)。 邏輯迴歸和概率迴归...
    25 KB (4,044 words) - 05:25, 23 September 2023
  • 徵中的數值平均變為0(將每個特徵的值都減掉原始資料中該特徵的平均)、標準差變為1,這個方法被廣泛的使用在許多機器學習演算法中(例如:支持向量機、邏輯迴歸和類神經網路)。 该方法也在机器学习中常用。缩放特征向量的分量,将每个分量除以向量的欧几里得距离,使整个向量的长度为1。 x ′ = x ‖ x...
    4 KB (640 words) - 05:18, 23 September 2023
  • 倾向评分匹配 (category 回归分析)
    个理想的子集变得非常困难。经常出现的情形是,控制了某些变量,但是在其他变量上差异很大,以至于无法将实验组和对照组进行比较。 倾向评分匹配通过使用邏輯迴歸模型来决定评分。 Rosenbaum, Paul R.; Rubin, Donald B. The Central Role of the Propensity...
    4 KB (591 words) - 05:24, 23 September 2023
  • MLlib可使用許多常見的機器學習和統計演算法,簡化大規模機器學習時間,其中包括: 匯總統計、相關性、分層抽樣、假設檢定、隨機數據生成 分類與回歸:支持向量機、回歸、線性回歸邏輯迴歸、決策樹、樸素貝葉 協同過濾:ALS 分群:k-平均演算法 維度约减:奇異值分解(SVD),主成分分析(PCA)...
    13 KB (1,340 words) - 07:34, 1 April 2024
  • 虚拟变量 (category 迴歸變數選擇)
    虚拟变量(英語:dummy variable),又稱哑变量,指在统计学和计量经济学,尤其是迴歸分析中僅取0或1的值,以此表示某些可能改变结果的定性效应之有无的变量。可以认为,虚拟变量是回归模型中用数字来替代并表示定性事实,从而将数据分为互斥的类别(如吸烟者及非吸烟者)。...
    26 KB (3,625 words) - 10:00, 8 September 2024
  • 模型选择和训练:这一步涉及到从多种统计分类算法中选择合适的模型,并用训练数据来训练模型。训练数据是已经有类别标签的数据,用于让模型学习分类规则。常用地统计分类算法有逻辑回归、朴素贝叶、支持向量机、决策树、随机森林、神经网络等。 模型评估和优化:这一步涉及到用测试数据来评估模型的性能和泛化能力。测试数据是没有类别标签的数据...
    3 KB (508 words) - 10:41, 13 May 2024
  • 变量选择假定数据中包含大量冗余或无关变量(或称特征、属性、指标等),旨在从原有变量中找出主要变量。现代统计学中对变量选择的研究文献,大多集中于高维回归分析(英语:High-dimensional_statistics),其中最具代表性的方法包括: Lasso算法 (Robert Tibshirani提出)...
    2 KB (306 words) - 20:52, 22 October 2023
  • )框架里出现的概念,其中的正则化可以通过为简单模型选择一个较大的先验概率模型进行;而且在统计学习理论中,其目的是最大限度地减少了两个数量:“风险”和“结构风险”,相当于误差在训练集和由于过度拟合造成的预测误差。 機器學習 深度學習 邏輯迴歸 線性迴歸 感知机 多层感知器 ER随机图...
    29 KB (4,076 words) - 06:13, 3 August 2024
  • identification)Note a是利用统计学,從量測到的數據來建構动力系统数学模型的方法。系統識別也包括最佳(英语:optimal design)试验设计,利用迴歸分析迴歸分析有效的產生有足夠資訊的數據,以及模型降階(英语:Model order reduction)等。 此條目中的動態數學模型(dynamical...
    13 KB (1,726 words) - 03:47, 8 December 2023
  • 时判定为垃圾邮件,否则为正常邮件。 AODE 貝葉垃圾郵件過濾 贝叶网络 随机森林 线性分类器 提升方法 模糊逻辑 邏輯迴歸 Class membership probabilities 神经网络 预测分析 感知机 支持向量机 贝叶定理 有监督学习 分类器 最大似然估计 贝叶概率 boosted trees...
    24 KB (4,474 words) - 05:25, 1 April 2024
  • 构造间隔理论分布:聚类分析和模式识别 人工神经网络 决策树 感知器 支援向量機 集成学习AdaBoost 降维与度量学习 聚类 贝叶分类器 构造条件概率:回归分析和统计分类 高过程回归 线性判别分析 最近邻居法 径向基函数核 通过再生模型构造概率密度函数: 最大期望算法 概率图模型:包括貝氏網路和Markov随机场...
    10 KB (1,176 words) - 15:43, 2 January 2025
  • 四聖(一)苦. 中台世界. [2009-02-02]. (原始内容存档于2009-02-03) (中文(臺灣)).  基本佛學 第六課 四聖(二)集. 中台世界. [2009-02-02]. (原始内容存档于2009-02-03) (中文(臺灣)).  基本佛學 第七課 四聖(三)滅、道...
    39 KB (5,119 words) - 03:31, 12 October 2024
  • 相关向量机(Relevance vector machine,RVM)是使用贝叶推理得到回归和分类的简约解的机器学习技术。RVM的函数形式与支持向量机相同,但是可以提供概率分类。 其与带协方差函数的高过程等效。: k ( x , x ′ ) = ∑ j = 1 N 1 α j ϕ ( x , x...
    2 KB (266 words) - 11:00, 19 January 2022
  • n'} 的子集 D i {\displaystyle D_{i}} ,作为新的训练集。在这 m {\displaystyle m} 个训练集上使用分类、回归等算法,则可得到 m {\displaystyle m} 个模型,再透過取平均值、取多数票等方法,即可得到Bagging的结果。 Breiman, Leo...
    2 KB (212 words) - 10:39, 4 June 2024
  • 损失函数也影响着算法的收敛速率。损失函数的凸性也十分重要。 根据问题是回归问题还是分类问题,我们可以使用不同的损失函数。 回归问题中最常用的损失函数是平方损失函数(也被称为L2-范数)。类似的损失函数也被用在普通最小二乘回归。其形式是: V ( f ( x → ) , y ) = ( y − f...
    5 KB (830 words) - 20:07, 16 September 2020
  • 提高性能。在某些情况下,用Python扩展出特定方法是不可能的;比如支持向量机,是通过用Cython包装LIBSVM(英语:LIBSVM)实现;逻辑回归和线性支持向量机,是通过对LIBLINEAR(英语:LIBLINEAR)的类似的包装实现的。 Scikit-learn与很多其他Python库可...
    6 KB (590 words) - 01:39, 4 September 2024
  • / learning model),並依此模式推測新的实例。訓練資料是由輸入物件(通常是向量)和預期輸出所組成。函數的輸出可以是一個連續的值(稱為迴歸分析),或是預測一個分類標籤(稱作分類)。 一個監督式學習者的任務在觀察完一些事先標記過的訓練範例(輸入和預期輸出)後,去預測這個函數對任何可能出現...
    6 KB (1,034 words) - 10:56, 8 October 2021
  • 公司、金融租赁公司、汽车金融公司、消费金融公司等非银行类金融机构。 央行金融机构评级采用数理模型与专业评价相结合的体系。其中,数理模型的建立采用逻辑回归模型,以中国大陆3541家银行为建模样本,并采集了2010年至2016年的数据,筛选出了资本状况、资产质量、预期损失抵补能力、盈利能力、运营效率...
    8 KB (820 words) - 05:57, 18 May 2023
  • {\displaystyle x} 为神经元(Neuron)的输入。线性整流被认为有一定的生物学原理,并且由于在实践中通常有着比其他常用激勵函数(譬如逻辑函数)更好的效果,而被如今的深度神经网络广泛使用于诸如图像识别等计算机视觉人工智能领域。 通常意义下,线性整流函数指代数学中的斜坡函数,即 f ( x...
    8 KB (1,022 words) - 16:19, 13 July 2022
  • 实际上,MLP本身可以使用任何形式的激活函数,譬如阶梯函数逻辑Sigmoid函数,但为了使用反向传播算法进行有效学习,激活函数必须限制为可微函数。由于具有良好可微性,很多S函数,尤其是双曲正切函数(Hyperbolic tangent)及逻辑函数,被采用为激活函数。...
    7 KB (1,285 words) - 20:48, 8 January 2024
  • ,如决策树,产生的是离散的数值或者一个二元标签。应用到实例中,这样的分类器最后只会在ROC空间产生单一的点。而一些其他的分类器,如朴素贝叶分类器,邏輯迴歸或者人工神经网络,产生的是实例属于某一类的可能性,对于这些方法,一个阈值就决定了ROC空间中点的位置。举例来说,如果可能值低于或者等于0...
    21 KB (2,225 words) - 01:00, 8 January 2025
  • 在数学,尤其是概率论和相关领域中,Softmax函数,或称归一化指数函数,是逻辑函数的一种推广。它能将一个含任意实数的K维向量  z {\displaystyle \mathbf {z} }  “压缩”到另一个K维实向量  σ ( z ) {\displaystyle \sigma (\mathbf...
    4 KB (723 words) - 10:43, 11 March 2024
  • 瓦普尼克-澤范蘭傑理論(英語:Vapnik–Chervonenkis theory),又稱VC理论(VC theory)是一個於1960年代到1990年代由蘇聯數學家弗拉基米尔·瓦普尼克及亞歷克塞·澤范蘭傑建立的一套机器学习理论(英语:Computational learning...
    2 KB (156 words) - 06:25, 15 June 2023