Local regression

http://dbpedia.org/resource/Local_regression

En estadística, la regresión local (también conocida por sus siglas en inglés, LOESS o LOWESS), es uno de muchos métodos modernos de construcción de modelos basados en los clásicos, como la regresión lineal y no lineal. rdf:langString
Local regression or local polynomial regression, also known as moving regression, is a generalization of the moving average and polynomial regression.Its most common methods, initially developed for scatterplot smoothing, are LOESS (locally estimated scatterplot smoothing) and LOWESS (locally weighted scatterplot smoothing), both pronounced /ˈloʊɛs/. They are two strongly related non-parametric regression methods that combine multiple regression models in a k-nearest-neighbor-based meta-model.In some fields, LOESS is known and commonly referred to as Savitzky–Golay filter (proposed 15 years before LOESS). rdf:langString
La régression locale, ou LOESS, est une méthode de régression non paramétrique fortement connexe qui combine plusieurs modèles de régression multiple au sein d'un méta-modèle qui repose sur la méthode des k plus proches voisins. « LOESS » est, en anglais, l'acronyme de « LOcally Estimated Scatterplot Smoothing ». Le principe de la régression locale a été initialement décrit par (1979), puis développé et enrichi par Cleveland (1981) et Cleveland et Devlin (1988). rdf:langString
rdf:langString Regresión local
rdf:langString Régression locale
rdf:langString Local regression
xsd:integer 4146592
xsd:integer 1124293354
rdf:langString En estadística, la regresión local (también conocida por sus siglas en inglés, LOESS o LOWESS), es uno de muchos métodos modernos de construcción de modelos basados en los clásicos, como la regresión lineal y no lineal. Los métodos de regresión modernos están diseñados para abordar las situaciones en que los procedimientos clásicos no resultan adecuados o suficientes. LOESS combina la sencillez de la regresión lineal por mínimos cuadrados con la flexibilidad de la regresión no lineal mediante el ajuste de modelos sencillos sobre subconjuntos locales de datos para crear una función que describe la parte determinista de la variación en los datos punto a punto. De hecho, uno de los principales atractivos de este método es que no resulta necesario especificar una función global para ajustar un modelo a los datos. Como contrapartida, es necesario un mayor poder de cálculo. Por ser tan tan computacionalmente intensivo, LOESS habría sido prácticamente imposible de utilizar en la época en la que se desarrolló la regresión de mínimos cuadrados. La mayoría de los otros métodos modernos para el modelado de procesos son similares a los de LOESS en este sentido. Estos métodos han sido conscientemente diseñados para utilizar nuestra actual capacidad de cálculo para alcanzar objetivos que no se logran fácilmente mediante los métodos tradicionales. La representación gráfica de una curva suave a través de un conjunto de puntos de datos usando esta técnica estadística se llama curva de LOESS. En particular, cada valor suavizado está dado por una regresión cuadrática en cada intervalo de los valores del eje-Y usando como criterio el diagrama de dispersión. Cuando cada valor suavizado está dada por una ponderación lineal de regresión de mínimos cuadrados sobre un intervalo, se conoce como una curva LOWESS, sin embargo, en ocasiones, ambos términos, LOWESS y LOESS se usan como sinónimos.
rdf:langString Local regression or local polynomial regression, also known as moving regression, is a generalization of the moving average and polynomial regression.Its most common methods, initially developed for scatterplot smoothing, are LOESS (locally estimated scatterplot smoothing) and LOWESS (locally weighted scatterplot smoothing), both pronounced /ˈloʊɛs/. They are two strongly related non-parametric regression methods that combine multiple regression models in a k-nearest-neighbor-based meta-model.In some fields, LOESS is known and commonly referred to as Savitzky–Golay filter (proposed 15 years before LOESS). LOESS and LOWESS thus build on "classical" methods, such as linear and nonlinear least squares regression. They address situations in which the classical procedures do not perform well or cannot be effectively applied without undue labor. LOESS combines much of the simplicity of linear least squares regression with the flexibility of nonlinear regression. It does this by fitting simple models to localized subsets of the data to build up a function that describes the deterministic part of the variation in the data, point by point. In fact, one of the chief attractions of this method is that the data analyst is not required to specify a global function of any form to fit a model to the data, only to fit segments of the data. The trade-off for these features is increased computation. Because it is so computationally intensive, LOESS would have been practically impossible to use in the era when least squares regression was being developed. Most other modern methods for process modeling are similar to LOESS in this respect. These methods have been consciously designed to use our current computational ability to the fullest possible advantage to achieve goals not easily achieved by traditional approaches. A smooth curve through a set of data points obtained with this statistical technique is called a loess curve, particularly when each smoothed value is given by a weighted quadratic least squares regression over the span of values of the y-axis scattergram criterion variable. When each smoothed value is given by a weighted linear least squares regression over the span, this is known as a lowess curve; however, some authorities treat lowess and loess as synonyms.
rdf:langString La régression locale, ou LOESS, est une méthode de régression non paramétrique fortement connexe qui combine plusieurs modèles de régression multiple au sein d'un méta-modèle qui repose sur la méthode des k plus proches voisins. « LOESS » est, en anglais, l'acronyme de « LOcally Estimated Scatterplot Smoothing ». La régression locale est une alternative possible aux méthodes habituelles de régression, comme la régression par les moindres carrés linéaire ou non linéaire, dans les cas où ces dernières s'avèrent mal adaptées. Elle combine la simplicité de régression linéaire par les moindres carrés avec la flexibilité de la régression non linéaire, en effectuant une régression simple sur des sous-ensembles locaux de données. L'un des principaux avantages de cette méthode est qu'elle rend inutile la définition d'une unique fonction globale qui décrirait le modèle de régression, puisque la méthode consiste à calculer autant de fonctions locales qu'il y a de segments de données. Le principe de la régression locale a été initialement décrit par (1979), puis développé et enrichi par Cleveland (1981) et Cleveland et Devlin (1988).
xsd:nonNegativeInteger 18873

data from the linked data cloud