Lasso (statistics)
http://dbpedia.org/resource/Lasso_(statistics) an entity of type: Software
ラッソ回帰(ラッソかいき、least absolute shrinkage and selection operator、Lasso、LASSO)は、変数選択と正則化の両方を実行し、生成する統計モデルの予測精度と解釈可能性を向上させる回帰分析手法。1986年に地球物理学の文献で最初に導入され、その後1996年に が独自に再発見して一般化した。 ラッソ回帰はもともと最小二乗法で定義されていた。最小二乗法の単純なケースでは、予測器の振る舞いについて多くの事実が分かる。すなわち、リッジ回帰やとの関係、ラッソ係数予測といわゆるソフトしきい値処理(soft thresholding)との関係である。 一般化線形モデル、一般化推定方程式、比例ハザードモデル、など、さまざまな統計モデルに簡単に拡張できる。
rdf:langString
在统计学和机器学习中,Lasso算法(英语:least absolute shrinkage and selection operator,又译最小绝对值收敛和选择算子、套索算法)是一种同时进行特征选择和正则化(数学)的回归分析方法,旨在增强统计模型的预测准确性和可解释性,最初由斯坦福大学统计学教授于1996年基于的(Nonnegative Garrote, NNG)提出。Lasso算法最初用于计算最小二乘法模型,这个简单的算法揭示了很多估计量的重要性质,如估计量与(Ridge regression,也叫吉洪诺夫正则化)和最佳子集选择的关系,Lasso系数(estimate)和(soft thresholding)之间的联系。它也揭示了当共线时,Lasso系数估计值不一定唯一(类似标准线性回归)。 虽然最早是为应用最小二乘法而定义的算法,lasso正则化可以简单直接地拓展应用于许多统计学模型上,包括广义线性模型,,和。Lasso选择子集的能力依赖于限制条件的形式并且有多种表现形式,包括几何学,贝叶斯统计,和。 Lasso算法与联系紧密。
rdf:langString
En Estadística y Aprendizaje Automático, Lasso (least absolute shrinkage and selection operator, por sus siglas en inglés), es un método de análisis de regresión que realiza selección de variables y regularización para mejorar la exactitud e interpretabilidad del modelo estadístico producido por este. Fue introducido por Robert Tibshirani en 1996 basado en el trabajo de Leo Breiman sobre el Garrote No-Negativo. Lasso fue formulado originalmente para el método de mínimos cuadrados y este caso simple revela una cantidad substancial acerca del comportamiento del estimador, incluyendo su relación con ridge regression y selección de subconjuntos (de variables) y la conexión entre los coeficientes estimados con lasso y el llamado 'soft thresholding'. También revela que (al igual que la estánd
rdf:langString
In statistics and machine learning, lasso (least absolute shrinkage and selection operator; also Lasso or LASSO) is a regression analysis method that performs both variable selection and regularization in order to enhance the prediction accuracy and interpretability of the resulting statistical model. It was originally introduced in geophysics, and later by Robert Tibshirani, who coined the term. The LASSO is closely related to basis pursuit denoising.
rdf:langString
En statistiques, le lasso est une méthode de contraction des coefficients de la régression développée par Robert Tibshirani dans un article publié en 1996 intitulé Regression shrinkage and selection via the lasso. Le nom est un acronyme anglais : Least Absolute Shrinkage and Selection Operator.
rdf:langString
rdf:langString
LASSO (estadística)
rdf:langString
Lasso (statistiques)
rdf:langString
Lasso (statistics)
rdf:langString
ラッソ回帰
rdf:langString
Lasso算法
xsd:integer
22349350
xsd:integer
1114996444
rdf:langString
En Estadística y Aprendizaje Automático, Lasso (least absolute shrinkage and selection operator, por sus siglas en inglés), es un método de análisis de regresión que realiza selección de variables y regularización para mejorar la exactitud e interpretabilidad del modelo estadístico producido por este. Fue introducido por Robert Tibshirani en 1996 basado en el trabajo de Leo Breiman sobre el Garrote No-Negativo. Lasso fue formulado originalmente para el método de mínimos cuadrados y este caso simple revela una cantidad substancial acerca del comportamiento del estimador, incluyendo su relación con ridge regression y selección de subconjuntos (de variables) y la conexión entre los coeficientes estimados con lasso y el llamado 'soft thresholding'. También revela que (al igual que la estándar) los coeficientes estimados no necesariamente son únicos si las son .
rdf:langString
In statistics and machine learning, lasso (least absolute shrinkage and selection operator; also Lasso or LASSO) is a regression analysis method that performs both variable selection and regularization in order to enhance the prediction accuracy and interpretability of the resulting statistical model. It was originally introduced in geophysics, and later by Robert Tibshirani, who coined the term. Lasso was originally formulated for linear regression models. This simple case reveals a substantial amount about the estimator. These include its relationship to ridge regression and best subset selection and the connections between lasso coefficient estimates and so-called soft thresholding. It also reveals that (like standard linear regression) the coefficient estimates do not need to be unique if covariates are collinear. Though originally defined for linear regression, lasso regularization is easily extended to other statistical models including generalized linear models, generalized estimating equations, proportional hazards models, and M-estimators. Lasso's ability to perform subset selection relies on the form of the constraint and has a variety of interpretations including in terms of geometry, Bayesian statistics and convex analysis. The LASSO is closely related to basis pursuit denoising.
rdf:langString
En statistiques, le lasso est une méthode de contraction des coefficients de la régression développée par Robert Tibshirani dans un article publié en 1996 intitulé Regression shrinkage and selection via the lasso. Le nom est un acronyme anglais : Least Absolute Shrinkage and Selection Operator. Bien que cette méthode fut utilisée à l'origine pour des modèles utilisant l'estimateur usuel des moindres carrés, la pénalisation lasso s'étend facilement à de nombreux modèles statistiques tels que les modèles linéaires généralisés, les modèles à risque proportionnel, et les M-estimateurs. La capacité du lasso à sélectionner un sous-ensemble de variables est due à la nature de la contrainte exercée sur les coefficients et peut s'interpréter de manière géométrique, en statistique bayésienne ou analyse convexe.
rdf:langString
ラッソ回帰(ラッソかいき、least absolute shrinkage and selection operator、Lasso、LASSO)は、変数選択と正則化の両方を実行し、生成する統計モデルの予測精度と解釈可能性を向上させる回帰分析手法。1986年に地球物理学の文献で最初に導入され、その後1996年に が独自に再発見して一般化した。 ラッソ回帰はもともと最小二乗法で定義されていた。最小二乗法の単純なケースでは、予測器の振る舞いについて多くの事実が分かる。すなわち、リッジ回帰やとの関係、ラッソ係数予測といわゆるソフトしきい値処理(soft thresholding)との関係である。 一般化線形モデル、一般化推定方程式、比例ハザードモデル、など、さまざまな統計モデルに簡単に拡張できる。
rdf:langString
在统计学和机器学习中,Lasso算法(英语:least absolute shrinkage and selection operator,又译最小绝对值收敛和选择算子、套索算法)是一种同时进行特征选择和正则化(数学)的回归分析方法,旨在增强统计模型的预测准确性和可解释性,最初由斯坦福大学统计学教授于1996年基于的(Nonnegative Garrote, NNG)提出。Lasso算法最初用于计算最小二乘法模型,这个简单的算法揭示了很多估计量的重要性质,如估计量与(Ridge regression,也叫吉洪诺夫正则化)和最佳子集选择的关系,Lasso系数(estimate)和(soft thresholding)之间的联系。它也揭示了当共线时,Lasso系数估计值不一定唯一(类似标准线性回归)。 虽然最早是为应用最小二乘法而定义的算法,lasso正则化可以简单直接地拓展应用于许多统计学模型上,包括广义线性模型,,和。Lasso选择子集的能力依赖于限制条件的形式并且有多种表现形式,包括几何学,贝叶斯统计,和。 Lasso算法与联系紧密。
xsd:nonNegativeInteger
45917