Generalization error

http://dbpedia.org/resource/Generalization_error an entity of type: Thing

기계학습 및 통계적 학습이론의 지도학습 응용에서 일반화 오차(一般化誤差, generalization error) 또는 표본 외 오차(標本外誤差, out-of-sample)는 알고리즘이 전례가 없는 데이터에 대한 결과값을 얼마나 정확하게 예측할 수 있는지의 정도이다. 학습 알고리즘은 유한표본에서 평가되기 때문에, 학습 알고리즘 평가는 에 민감할 수 있다. 결과적으로, 현재 데이터에 관한 예측오차의 측정값은, 새로운 데이터를 예측하는 데 있어서 많은 정보를 제공하지 않을 수 있다. 일반화 오차는 학습 알고리즘의 과적합을 피함으로써 최소화될 수 있다. 기계학습 알고리즘의 성능은 학습과정을 통한 일반화 오차값의 플롯, 학습곡선으로 측정된다. rdf:langString
一个机器学习模型的泛化误差(Generalization error),是一个描述学生机器在从样品数据中学习之后,离教师机器之间的的函数。使用这个名字是因为这个函数表明一个机器的推理,即从样品数据中推导出的规则能够适用于新的数据的能力。 rdf:langString
For supervised learning applications in machine learning and statistical learning theory, generalization error (also known as the out-of-sample error or the risk) is a measure of how accurately an algorithm is able to predict outcome values for previously unseen data. Because learning algorithms are evaluated on finite samples, the evaluation of a learning algorithm may be sensitive to sampling error. As a result, measurements of prediction error on the current data may not provide much information about predictive ability on new data. Generalization error can be minimized by avoiding overfitting in the learning algorithm. The performance of a machine learning algorithm is visualized by plots that show values of estimates of the generalization error through the learning process, which are rdf:langString
У застосуваннях керованого навчання в машинному навчанні та теорії статистичного навчання, по́хибка узага́льнення (англ. generalization error, відома також як по́хибка за ме́жами ви́бірки, англ. out-of-sample error) — це міра того, наскільки точно алгоритм здатен передбачувати значення виходів для не бачених раніше даних. Оскільки навчальні алгоритми обчислюються на скінченних вибірках, обчислення навчальних алгоритмів може бути чутливим до . В результаті, вимірювання похибки передбачування на поточних даних може не давати достатньо інформації про передбачувальну здатність на даних нових. Похибку узагальнення може бути мінімізовано униканням перенавчання в навчальних алгоритмах. Продуктивність алгоритму машинного навчання вимірюється шляхом відкладання на графіку значень похибки узагальнен rdf:langString
rdf:langString Generalization error
rdf:langString 일반화 오차
rdf:langString Похибка узагальнення
rdf:langString 泛化误差
xsd:integer 2456249
xsd:integer 1073306062
rdf:langString For supervised learning applications in machine learning and statistical learning theory, generalization error (also known as the out-of-sample error or the risk) is a measure of how accurately an algorithm is able to predict outcome values for previously unseen data. Because learning algorithms are evaluated on finite samples, the evaluation of a learning algorithm may be sensitive to sampling error. As a result, measurements of prediction error on the current data may not provide much information about predictive ability on new data. Generalization error can be minimized by avoiding overfitting in the learning algorithm. The performance of a machine learning algorithm is visualized by plots that show values of estimates of the generalization error through the learning process, which are called learning curves.
rdf:langString 기계학습 및 통계적 학습이론의 지도학습 응용에서 일반화 오차(一般化誤差, generalization error) 또는 표본 외 오차(標本外誤差, out-of-sample)는 알고리즘이 전례가 없는 데이터에 대한 결과값을 얼마나 정확하게 예측할 수 있는지의 정도이다. 학습 알고리즘은 유한표본에서 평가되기 때문에, 학습 알고리즘 평가는 에 민감할 수 있다. 결과적으로, 현재 데이터에 관한 예측오차의 측정값은, 새로운 데이터를 예측하는 데 있어서 많은 정보를 제공하지 않을 수 있다. 일반화 오차는 학습 알고리즘의 과적합을 피함으로써 최소화될 수 있다. 기계학습 알고리즘의 성능은 학습과정을 통한 일반화 오차값의 플롯, 학습곡선으로 측정된다.
rdf:langString 一个机器学习模型的泛化误差(Generalization error),是一个描述学生机器在从样品数据中学习之后,离教师机器之间的的函数。使用这个名字是因为这个函数表明一个机器的推理,即从样品数据中推导出的规则能够适用于新的数据的能力。
rdf:langString У застосуваннях керованого навчання в машинному навчанні та теорії статистичного навчання, по́хибка узага́льнення (англ. generalization error, відома також як по́хибка за ме́жами ви́бірки, англ. out-of-sample error) — це міра того, наскільки точно алгоритм здатен передбачувати значення виходів для не бачених раніше даних. Оскільки навчальні алгоритми обчислюються на скінченних вибірках, обчислення навчальних алгоритмів може бути чутливим до . В результаті, вимірювання похибки передбачування на поточних даних може не давати достатньо інформації про передбачувальну здатність на даних нових. Похибку узагальнення може бути мінімізовано униканням перенавчання в навчальних алгоритмах. Продуктивність алгоритму машинного навчання вимірюється шляхом відкладання на графіку значень похибки узагальнення протягом процесу навчання, що називається кривими навчання.
xsd:nonNegativeInteger 13798

data from the linked data cloud