Feature selection

http://dbpedia.org/resource/Feature_selection an entity of type: Election

اختيار المميزات أو اختيار الأبعاد هي التقنية التي تستخدم بكثرة في التعلم الآلي لاختيار مجموعة جزئية من المميزات لمجموعة بيانات من أجل بناء نموذج تعليم مستقر. تساعد علمية اختيار الميزات على إعطاء فهم أوضح للناس حول البيانات عن طريق إخبارهم بالميزات الهامة للبيانات وعلاقتها مع بعضها البعض. rdf:langString
Výběr rysů, též selekce rysů, výběr proměnných nebo výběr atributů, je ve strojovém učení a statistice proces výběru podmnožiny relevantních rysů (též slangově fíčur), které se použijí pro konstrukci modelu. Klíčový předpoklad pro užití této metody je, že data obsahují mnoho redundantních nebo nerelevantních atributů. Redundantní jsou takové, které nenesou víc informace než aktuálně vybrané atributy. Nerelevantní atributy neobsahují žádnou užitečnou informaci. Techniky výběru rysů jsou částí obecnějších technik , která tvoří nové atributy jako funkce stávajících atributů, kdežto výběr rysů vybírá podmnožinu ze stávajících atributů. Výběr rysů se používá v těch případech a doménách, kde je mnoho atributů a k nim relativně málo příkladů (neboli datových bodů). rdf:langString
Die Feature Subset Selection (FSS), kurz Feature Selection oder Merkmalsauswahl, ist ein Ansatz aus dem maschinellen Lernen, bei dem nur eine Teilmenge der verfügbaren Features für maschinelles Lernen verwendet wird. FSS ist notwendig, weil es teilweise technisch unmöglich ist, alle Features miteinzubeziehen oder weil es Differenzierungsprobleme gibt, wenn eine große Anzahl an Features, aber nur eine kleine Zahl an Datensätzen vorhanden ist oder um Überanpassung des Modells zu vermeiden, siehe Verzerrung-Varianz-Dilemma. rdf:langString
La sélection de caractéristique (ou sélection d'attribut ou de variable) est un processus utilisé en apprentissage automatique et en traitement de données. Il consiste, étant donné des données dans un espace de grande dimension, à trouver un sous-sensemble de variables pertinentes. C'est-à-dire que l'on cherche à minimiser la perte d'information venant de la suppression de toutes les autres variables. C'est une méthode de réduction de la dimensionnalité. rdf:langString
特徴選択(とくちょうせんたく、英: feature selection)とは、機械学習と統計学の用語であり、頑健な学習モデルの構築のため、特徴集合のうち意味のある部分集合だけを選択する手法のことを指す。特徴量選択、変数選択、特徴削減、属性選択、素性選択、変数部分集合選択などとも呼ばれる。生物学の文脈では、DNAマイクロアレイの実験に基づいて影響力のある遺伝子を検出する手法を指す場合もある。不要で冗長な特徴量をデータから除去することによって、特徴選択は学習モデルを次の点で改善する: * 次元の呪いの効果を緩和する。 * 汎化性能を向上させる。 * 学習を高速化する。 * モデルの可読性を改善する。 特徴選択を行うと、データのうちどの特徴量が重要でありどのようにそれらが関係しているかなどといった点について、人間が理解しやすくなるという効果もある。 rdf:langString
在机器学习和统计学中,特征选择(英語:feature selection)也被称为变量选择、属性选择 或变量子集选择 。它是指:为了构建模型而选择相关特征(即属性、指标)子集的过程。使用特征选择技术有三个原因: * 简化模型,使之更易于被研究人员或用户理解, * 缩短训练时间, * 改善通用性、降低过拟合(即降低方差 ) 要使用特征选择技术的关键假设是:训练数据包含许多冗余 或无关 的特征,因而移除这些特征并不会导致丢失信息。 冗余 或无关 特征是两个不同的概念。如果一个特征本身有用,但如果这个特征与另一个有用特征强相关,且那个特征也出现在数据中,那么这个特征可能是冗余的。 特征选择技术与特征提取有所不同。特征提取是从原有特征的功能中创造新的特征,而特征选择则只返回原有特征中的子集。特征选择技术的常常用于许多特征但样本(即数据点)相对较少的领域。特征选择应用的典型用例包括:解析书面文本和微阵列数据,这些场景下特征成千上万,但样本只有几十到几百个。 rdf:langString
En aprendizaje de máquina y estadística, selección de característica, también conocida como selección de variable, selección de atributo o selección de subconjunto variable, es el proceso de seleccionar un subconjunto de características pertinentes (variables, predictores) para su uso en construcción de modelos. Las técnicas de selección de la característica son utilizadas por cuatro razones: rdf:langString
In machine learning and statistics, feature selection, also known as variable selection, attribute selection or variable subset selection, is the process of selecting a subset of relevant features (variables, predictors) for use in model construction. Feature selection techniques are used for several reasons: * simplification of models to make them easier to interpret by researchers/users, * shorter training times, * to avoid the curse of dimensionality, * improve data's compatibility with a learning model class, * encode inherent symmetries present in the input space. rdf:langString
Nel riconoscimento di pattern e nell'elaborazione delle immagini la selezione delle caratteristiche (in inglese: feature selection) è una forma speciale di riduzione della dimensionalità di un determinato dataset. La selezione delle caratteristiche è il processo di riduzione degli ingressi per l'elaborazione e l'analisi o l'individuazione delle caratteristiche maggiormente significative rispetto alle altre. Similmente esiste l'estrazione di caratteristiche (in inglese: feature extraction), dove si applica il processo di estrazione di informazioni utili dai dati esistenti. rdf:langString
В машинному навчанні та статистиці обира́ння озна́к, відоме також як обира́ння змі́нних, обира́ння атрибу́тів та обира́ння підмножини́ змі́нних (англ. feature selection, variable selection, attribute selection, variable subset selection) — це процес обирання підмножини доречних ознак (змінних, провісників) для використання в побудові моделі. Методики обирання ознак застосовують із декількома цілями: rdf:langString
Отбор признаков, также известный как отбор переменных, отбор атрибутов или отбор предикторов (в редких случаях, генерализация) — это разновидность абстрагирования, процесс отбора подмножества значимых признаков (как зависимых, так и независимых переменных) для построения модели. Отбор признаков используется по четырём причинам: * упрощение модели для повышения интерпретируемости * для сокращения времени обучения * во избежание проклятия размерности * улучшение обобщающей способности модели и борьба с переобучением. rdf:langString
rdf:langString اختيار المميزات
rdf:langString Výběr rysů
rdf:langString Feature Subset Selection
rdf:langString Selección de variable
rdf:langString Sélection de caractéristique
rdf:langString Feature selection
rdf:langString Selezione delle caratteristiche
rdf:langString 特徴選択
rdf:langString Отбор признаков
rdf:langString 特征选择
rdf:langString Обирання ознак
xsd:integer 1179950
xsd:integer 1121376945
rdf:langString اختيار المميزات أو اختيار الأبعاد هي التقنية التي تستخدم بكثرة في التعلم الآلي لاختيار مجموعة جزئية من المميزات لمجموعة بيانات من أجل بناء نموذج تعليم مستقر. تساعد علمية اختيار الميزات على إعطاء فهم أوضح للناس حول البيانات عن طريق إخبارهم بالميزات الهامة للبيانات وعلاقتها مع بعضها البعض.
rdf:langString Výběr rysů, též selekce rysů, výběr proměnných nebo výběr atributů, je ve strojovém učení a statistice proces výběru podmnožiny relevantních rysů (též slangově fíčur), které se použijí pro konstrukci modelu. Klíčový předpoklad pro užití této metody je, že data obsahují mnoho redundantních nebo nerelevantních atributů. Redundantní jsou takové, které nenesou víc informace než aktuálně vybrané atributy. Nerelevantní atributy neobsahují žádnou užitečnou informaci. Techniky výběru rysů jsou částí obecnějších technik , která tvoří nové atributy jako funkce stávajících atributů, kdežto výběr rysů vybírá podmnožinu ze stávajících atributů. Výběr rysů se používá v těch případech a doménách, kde je mnoho atributů a k nim relativně málo příkladů (neboli datových bodů).
rdf:langString Die Feature Subset Selection (FSS), kurz Feature Selection oder Merkmalsauswahl, ist ein Ansatz aus dem maschinellen Lernen, bei dem nur eine Teilmenge der verfügbaren Features für maschinelles Lernen verwendet wird. FSS ist notwendig, weil es teilweise technisch unmöglich ist, alle Features miteinzubeziehen oder weil es Differenzierungsprobleme gibt, wenn eine große Anzahl an Features, aber nur eine kleine Zahl an Datensätzen vorhanden ist oder um Überanpassung des Modells zu vermeiden, siehe Verzerrung-Varianz-Dilemma.
rdf:langString In machine learning and statistics, feature selection, also known as variable selection, attribute selection or variable subset selection, is the process of selecting a subset of relevant features (variables, predictors) for use in model construction. Feature selection techniques are used for several reasons: * simplification of models to make them easier to interpret by researchers/users, * shorter training times, * to avoid the curse of dimensionality, * improve data's compatibility with a learning model class, * encode inherent symmetries present in the input space. The central premise when using a feature selection technique is that the data contains some features that are either redundant or irrelevant, and can thus be removed without incurring much loss of information. Redundant and irrelevant are two distinct notions, since one relevant feature may be redundant in the presence of another relevant feature with which it is strongly correlated. Feature selection techniques should be distinguished from feature extraction. Feature extraction creates new features from functions of the original features, whereas feature selection returns a subset of the features. Feature selection techniques are often used in domains where there are many features and comparatively few samples (or data points). Archetypal cases for the application of feature selection include the analysis of written texts and DNA microarray data, where there are many thousands of features, and a few tens to hundreds of samples.
rdf:langString En aprendizaje de máquina y estadística, selección de característica, también conocida como selección de variable, selección de atributo o selección de subconjunto variable, es el proceso de seleccionar un subconjunto de características pertinentes (variables, predictores) para su uso en construcción de modelos. Las técnicas de selección de la característica son utilizadas por cuatro razones: * Simplificación de modelos con el fin de hacerlas más sencillas de interpretar para los usuarios/investigadores,​ * Tiempo de entrenamiento más corto, * Para evitar la maldición de la dimensión (curse of dimensionality), * Generalización realzada por reducir overfitting​ (formalmente, reducción de varianza) La premisa central cuando se utiliza una técnica de selección de características es que el dato contiene muchas redundantes o irrelevantes, y así pueden ser removidas sin incurrir en mucha pérdida de la información. Las características redundantes o irrelevantes son dos nociones distintas, pues una característica relevante puede ser redundante en la presencia de otra característica relevante con la que está fuertemente correlacionada. Las técnicas de selección de características deben ser distinguidas de la , la cual crea características nuevas a partir de funciones de las características originales, mientras que la selección de característica devuelve un subconjunto de las características. Las técnicas de selección de la característica son a menudo utilizadas en dominios donde hay muchas características y comparativamente pocas muestras (o puntos de dato). Los casos arquetípicos para la aplicación de la selección de característica incluye el análisis de datos de microarrays de ADN y , donde hay varios miles de características, y unas cuantas decenas a centenares de muestras.
rdf:langString La sélection de caractéristique (ou sélection d'attribut ou de variable) est un processus utilisé en apprentissage automatique et en traitement de données. Il consiste, étant donné des données dans un espace de grande dimension, à trouver un sous-sensemble de variables pertinentes. C'est-à-dire que l'on cherche à minimiser la perte d'information venant de la suppression de toutes les autres variables. C'est une méthode de réduction de la dimensionnalité.
rdf:langString 特徴選択(とくちょうせんたく、英: feature selection)とは、機械学習と統計学の用語であり、頑健な学習モデルの構築のため、特徴集合のうち意味のある部分集合だけを選択する手法のことを指す。特徴量選択、変数選択、特徴削減、属性選択、素性選択、変数部分集合選択などとも呼ばれる。生物学の文脈では、DNAマイクロアレイの実験に基づいて影響力のある遺伝子を検出する手法を指す場合もある。不要で冗長な特徴量をデータから除去することによって、特徴選択は学習モデルを次の点で改善する: * 次元の呪いの効果を緩和する。 * 汎化性能を向上させる。 * 学習を高速化する。 * モデルの可読性を改善する。 特徴選択を行うと、データのうちどの特徴量が重要でありどのようにそれらが関係しているかなどといった点について、人間が理解しやすくなるという効果もある。
rdf:langString Nel riconoscimento di pattern e nell'elaborazione delle immagini la selezione delle caratteristiche (in inglese: feature selection) è una forma speciale di riduzione della dimensionalità di un determinato dataset. La selezione delle caratteristiche è il processo di riduzione degli ingressi per l'elaborazione e l'analisi o l'individuazione delle caratteristiche maggiormente significative rispetto alle altre. Similmente esiste l'estrazione di caratteristiche (in inglese: feature extraction), dove si applica il processo di estrazione di informazioni utili dai dati esistenti. La selezione delle caratteristiche risulta necessaria per creare un modello funzionale, ossia una riduzione della cardinalità, imponendo un limite superiore al numero di caratteristiche che devono essere considerate durante la creazione di questo. Solitamente i dati contengono informazioni ridondanti, ovvero più di quelle necessarie (oppure possono contenere anche informazioni errate). La selezione delle caratteristiche rende più efficiente il processo di creazione di un modello, andando ad esempio a diminuire la CPU e la memoria necessarie per l'addestramento (training), anche se vi siano casi in cui le risorse non sono un problema. La selezione delle caratteristiche viene utilizzata per tre ragioni: * semplificazione dei modelli per renderli più facili da interpretare da ricercatori / utenti; * tempi di addestramento (training) minori; * miglioramento generalizzato nella riduzione del problema di overfitting, ovvero una riduzione della varianza.
rdf:langString Отбор признаков, также известный как отбор переменных, отбор атрибутов или отбор предикторов (в редких случаях, генерализация) — это разновидность абстрагирования, процесс отбора подмножества значимых признаков (как зависимых, так и независимых переменных) для построения модели. Отбор признаков используется по четырём причинам: * упрощение модели для повышения интерпретируемости * для сокращения времени обучения * во избежание проклятия размерности * улучшение обобщающей способности модели и борьба с переобучением. Центральный посыл использования техники отбора признаков – мысль, согласно которой данные содержат некоторые признаки, если мысли излишни или незначительны, могут быть удалены без существенной потери информации. "Излишний" и "незначительный" являются двумя различными понятиями, поскольку один значимый признак может быть излишним при присутствии другого значимого признака, с которым он сильно коррелирует. Отбор признаков следует отличать от выделения признаков. Выделение признаков создаёт новые признаки, как функции от оригинальных признаков, в то время как отбор признаков возвращает подмножество признаков. Техники отбора признаков часто используются в областях, где имеется много признаков и выборки сравнительно малы (мало точек данных). Классическими местами применения отбора признаков являются анализ рукописных текстов и ДНК-микрочипы, где имеются много тысяч признаков и от десятков до сотен экземпляров выборки.
rdf:langString 在机器学习和统计学中,特征选择(英語:feature selection)也被称为变量选择、属性选择 或变量子集选择 。它是指:为了构建模型而选择相关特征(即属性、指标)子集的过程。使用特征选择技术有三个原因: * 简化模型,使之更易于被研究人员或用户理解, * 缩短训练时间, * 改善通用性、降低过拟合(即降低方差 ) 要使用特征选择技术的关键假设是:训练数据包含许多冗余 或无关 的特征,因而移除这些特征并不会导致丢失信息。 冗余 或无关 特征是两个不同的概念。如果一个特征本身有用,但如果这个特征与另一个有用特征强相关,且那个特征也出现在数据中,那么这个特征可能是冗余的。 特征选择技术与特征提取有所不同。特征提取是从原有特征的功能中创造新的特征,而特征选择则只返回原有特征中的子集。特征选择技术的常常用于许多特征但样本(即数据点)相对较少的领域。特征选择应用的典型用例包括:解析书面文本和微阵列数据,这些场景下特征成千上万,但样本只有几十到几百个。
rdf:langString В машинному навчанні та статистиці обира́ння озна́к, відоме також як обира́ння змі́нних, обира́ння атрибу́тів та обира́ння підмножини́ змі́нних (англ. feature selection, variable selection, attribute selection, variable subset selection) — це процес обирання підмножини доречних ознак (змінних, провісників) для використання в побудові моделі. Методики обирання ознак застосовують із декількома цілями: * спрощення моделей, щоби зробити їх легшими для інтерпретування дослідниками/користувачами, * скорочення тривалостей тренування, * уникання прокляття розмірності, * покращення узагальнення шляхом зниження перенавчання (формально, зниження дисперсії). Центральною передумовою при застосуванні методики обирання ознак є те, що дані містять деякі ознаки, що є або надлишковими, або недоречними, і тому їх може бути усунено без спричинення значної втрати інформації. «Надлишкові» та «недоречні» є двома різними поняттями, оскільки одна доречна ознака може бути надлишковою в присутності іншої доречної ознаки, з якою вона сильно корелює. Методики обирання ознак слід відрізняти від виділяння ознак. Виділяння ознак створює нові ознаки з функцій від первинних ознак, тоді як обирання ознак повертає підмножину ознак.Методики обирання ознак часто використовують у тих областях, де є багато ознак, і порівняно мало зразків (або точок даних). До споконвічних випадків застосування обирання ознак належать аналіз писаних текстів та даних ДНК-мікрочипів, де є багато тисяч ознак, і лише від декількох десятків до сотень зразків.
xsd:nonNegativeInteger 59529

data from the linked data cloud