Akaike information criterion

http://dbpedia.org/resource/Akaike_information_criterion an entity of type: Thing

Le critère d'information d'Akaike, (en anglais Akaike information criterion ou AIC) est une mesure de la qualité d'un modèle statistique proposée par Hirotugu Akaike en 1973. Lorsque l'on estime un modèle statistique, il est possible d'augmenter la vraisemblance du modèle en ajoutant un paramètre. Le critère d'information d'Akaike, tout comme le critère d'information bayésien, permet de pénaliser les modèles en fonction du nombre de paramètres afin de satisfaire le critère de parcimonie. On choisit alors le modèle avec le critère d'information d'Akaike le plus faible. rdf:langString
赤池情報量規準(あかいけじょうほうりょうきじゅん; 元々は An Information Criterion, のちに Akaike's Information Criterionと呼ばれるようになる)は、統計モデルの良さを評価するための指標である。単にAICとも呼ばれ、この呼び方のほうが一般的である。統計学の世界では非常に有名な指標であり、多くの統計ソフトに備わっている。元統計数理研究所所長の赤池弘次が1971年に考案し1973年に発表した。 AICは、「モデルの複雑さと、データとの適合度とのバランスを取る」ために使用される。例えば、ある測定データを統計的に説明するモデルを作成することを考える。この場合、パラメータの数や次数を増やせば増やすほど、その測定データとの適合度を高めることができる。しかし、その反面、ノイズなどの偶発的な(測定対象の構造と無関係な)変動にも無理にあわせてしまうため、同種のデータには合わなくなる(過適合問題、Overfitting)。この問題を避けるには、モデル化のパラメータ数を抑える必要があるが、実際にどの数に抑えるかは難しい問題である。AICは、この問題に一つの解を与える。具体的にはAIC最小のモデルを選択すれば、多くの場合、良いモデルが選択できる。 公式は次の通りである。 ここでは最大尤度、は自由パラメータの数である。 rdf:langString
赤池信息量准则(英語:Akaike information criterion,简称AIC)是評估統计模型的复杂度和衡量统计模型「擬合」資料之优良性(英語:Goodness of Fit,白話:合身的程度)的一种标准,是由日本统计学家创立和发展的。赤池信息量准则建立在信息熵的概念基础上。 rdf:langString
معيار أكايكي للمعلومة (بالإنجليزية: Akaike information criterion - AIC)‏ هو مقياس للجودة النسبية لنمذجة إحصائية ما، المطبقة على مجموعة بيانات ما، اقترحه الإحصائي الياباني هيروتسوغو أكايكي، سنة 1973. معيار أكايكي، مستلهم من نظرية المعلومات، و يساعد على اختيار النموذج الأمثل، وفق مبدأ التقتير الإحصائي، على غرار ، أي أنه يرجح كفة النماذج التي تحقق أحسن توافق بين درجة تعقيد النموذج و قوته الوصفية. يقدم المعيار أيضا تقديرا نسبيا لكمية المعلومات الضائعة عند نمذجة المعلاج النظري المنتج للبيانات، قيد الدراسة. rdf:langString
The Akaike information criterion (AIC) is an estimator of prediction error and thereby relative quality of statistical models for a given set of data. Given a collection of models for the data, AIC estimates the quality of each model, relative to each of the other models. Thus, AIC provides a means for model selection. In estimating the amount of information lost by a model, AIC deals with the trade-off between the goodness of fit of the model and the simplicity of the model. In other words, AIC deals with both the risk of overfitting and the risk of underfitting. rdf:langString
El criterio de información de Akaike (AIC) es una medida de la calidad relativa de un modelo estadístico, para un conjunto dado de datos. Como tal, el AIC proporciona un medio para la selección del modelo. AIC maneja un trade-off entre la bondad de ajuste del modelo y la complejidad del modelo. Se basa en la entropía de información: se ofrece una estimación relativa de la información perdida cuando se utiliza un modelo determinado para representar el proceso que genera los datos. rdf:langString
Il criterio d'informazione di Akaike (in inglese Akaike's information criterion, indicato come AIC), è un metodo per la valutazione e il confronto tra modelli statistici sviluppato dal matematico giapponese Hirotsugu Akaike nel 1971 e presentato alla comunità matematica nel 1974. Fornisce una misura della qualità della stima di un modello statistico tenendo conto sia della bontà di adattamento che della complessità del modello. La regola è quella di preferire i modelli con l'AIC più basso. rdf:langString
Kryterium informacyjne Akaikego (AIC – od ang. Akaike Information Criterion) – zaproponowane przez Hirotugu Akaikego kryterium wyboru pomiędzy modelami statystycznymi o różnej liczbie predyktorów. Jest to jeden ze wskaźników dopasowania modelu. Na ogół model o większej liczbie predyktorów daje dokładniejsze przewidywania, jednak ma też większą skłonność do przeuczenia. Akaike zaproponował, aby wybierać ten model dla którego najmniejsza jest wartość: gdzie: Kryterium, wprowadzone początkowo w analizie szeregów czasowych, obecnie stosowane jest także w analizie regresji. rdf:langString
O critério de informação de Akaike (AIC) é uma métrica que mensura a qualidade de um modelo estatístico visando também a sua simplicidade. Fornece, portanto, uma métrica para comparação e seleção de modelos, em que menores valores de AIC representam uma maior qualidade e simplicidade, segundo este critério. Ao estimar a quantidade de informação perdida por um modelo, o AIC lida com o balanço entre a qualidade e parcimônia de um modelo, ou seja, lida tanto com sobreajuste quanto com subajuste. rdf:langString
Информационный критерий Акаике (AIC) — критерий, применяющийся исключительно для выбора из нескольких статистических моделей. Разработан в 1971 как «an information criterion» («(некий) информационный критерий») Хироцугу Акаике и предложен им в статье 1974 года. rdf:langString
́Інформаційний критерій Акаіке (ІКА, англ. Akaike information criterion, AIC) — це оцінювач похибки позавибіркового передбачування, і відтак відносної якості статистичних моделей, для заданого набору даних. Маючи сукупність моделей для цих даних, ІКА оцінює якість кожної з моделей відносно кожної з інших моделей. Таким чином, ІКА пропонує засоби для обирання моделі. В оцінюванні кількості інформації, що втрачає модель, ІКА має справу з компромісом між допасованістю моделі та її простотою. Іншими словами, ІКА працює як із ризиком перенавчання, так і з ризиком недонавчання. rdf:langString
rdf:langString معيار أكايكي للمعلومة
rdf:langString Akaike information criterion
rdf:langString Criterio de información de Akaike
rdf:langString Critère d'information d'Akaike
rdf:langString Test di verifica delle informazioni di Akaike
rdf:langString 赤池情報量規準
rdf:langString Kryterium informacyjne Akaikego
rdf:langString Critério de informação de Akaike
rdf:langString Информационный критерий Акаике
rdf:langString Інформаційний критерій Акаіке
rdf:langString 赤池信息量准则
xsd:integer 690512
xsd:integer 1110481644
rdf:langString معيار أكايكي للمعلومة (بالإنجليزية: Akaike information criterion - AIC)‏ هو مقياس للجودة النسبية لنمذجة إحصائية ما، المطبقة على مجموعة بيانات ما، اقترحه الإحصائي الياباني هيروتسوغو أكايكي، سنة 1973. معيار أكايكي، مستلهم من نظرية المعلومات، و يساعد على اختيار النموذج الأمثل، وفق مبدأ التقتير الإحصائي، على غرار ، أي أنه يرجح كفة النماذج التي تحقق أحسن توافق بين درجة تعقيد النموذج و قوته الوصفية. يقدم المعيار أيضا تقديرا نسبيا لكمية المعلومات الضائعة عند نمذجة المعلاج النظري المنتج للبيانات، قيد الدراسة. لا يجب مقاربة المعيار كاختبار لفرضية عدم نجاعة النموذج المدروس، بل هو مجرد معيار نسبي للمقارنة النسبية بين النماذج، و ليست له أية دلالة بخصوص الجودة المطلقة لنموذج ما.
rdf:langString The Akaike information criterion (AIC) is an estimator of prediction error and thereby relative quality of statistical models for a given set of data. Given a collection of models for the data, AIC estimates the quality of each model, relative to each of the other models. Thus, AIC provides a means for model selection. AIC is founded on information theory. When a statistical model is used to represent the process that generated the data, the representation will almost never be exact; so some information will be lost by using the model to represent the process. AIC estimates the relative amount of information lost by a given model: the less information a model loses, the higher the quality of that model. In estimating the amount of information lost by a model, AIC deals with the trade-off between the goodness of fit of the model and the simplicity of the model. In other words, AIC deals with both the risk of overfitting and the risk of underfitting. The Akaike information criterion is named after the Japanese statistician Hirotugu Akaike, who formulated it. It now forms the basis of a paradigm for the foundations of statistics and is also widely used for statistical inference.
rdf:langString El criterio de información de Akaike (AIC) es una medida de la calidad relativa de un modelo estadístico, para un conjunto dado de datos. Como tal, el AIC proporciona un medio para la selección del modelo. AIC maneja un trade-off entre la bondad de ajuste del modelo y la complejidad del modelo. Se basa en la entropía de información: se ofrece una estimación relativa de la información perdida cuando se utiliza un modelo determinado para representar el proceso que genera los datos. AIC no proporciona una prueba de un modelo en el sentido de probar una hipótesis nula, es decir AIC no puede decir nada acerca de la calidad del modelo en un sentido absoluto. Si todos los modelos candidatos encajan mal, AIC no dará ningún aviso de ello.
rdf:langString Le critère d'information d'Akaike, (en anglais Akaike information criterion ou AIC) est une mesure de la qualité d'un modèle statistique proposée par Hirotugu Akaike en 1973. Lorsque l'on estime un modèle statistique, il est possible d'augmenter la vraisemblance du modèle en ajoutant un paramètre. Le critère d'information d'Akaike, tout comme le critère d'information bayésien, permet de pénaliser les modèles en fonction du nombre de paramètres afin de satisfaire le critère de parcimonie. On choisit alors le modèle avec le critère d'information d'Akaike le plus faible.
rdf:langString Il criterio d'informazione di Akaike (in inglese Akaike's information criterion, indicato come AIC), è un metodo per la valutazione e il confronto tra modelli statistici sviluppato dal matematico giapponese Hirotsugu Akaike nel 1971 e presentato alla comunità matematica nel 1974. Fornisce una misura della qualità della stima di un modello statistico tenendo conto sia della bontà di adattamento che della complessità del modello. È basato sul concetto di entropia come misura di informazione, tramite cui valuta la quantità di informazione persa quando un dato modello è usato per descrivere la realtà. La regola è quella di preferire i modelli con l'AIC più basso. È un criterio di valutazione molto utile perché permette di confrontare tra loro anche modelli non annidati.
rdf:langString 赤池情報量規準(あかいけじょうほうりょうきじゅん; 元々は An Information Criterion, のちに Akaike's Information Criterionと呼ばれるようになる)は、統計モデルの良さを評価するための指標である。単にAICとも呼ばれ、この呼び方のほうが一般的である。統計学の世界では非常に有名な指標であり、多くの統計ソフトに備わっている。元統計数理研究所所長の赤池弘次が1971年に考案し1973年に発表した。 AICは、「モデルの複雑さと、データとの適合度とのバランスを取る」ために使用される。例えば、ある測定データを統計的に説明するモデルを作成することを考える。この場合、パラメータの数や次数を増やせば増やすほど、その測定データとの適合度を高めることができる。しかし、その反面、ノイズなどの偶発的な(測定対象の構造と無関係な)変動にも無理にあわせてしまうため、同種のデータには合わなくなる(過適合問題、Overfitting)。この問題を避けるには、モデル化のパラメータ数を抑える必要があるが、実際にどの数に抑えるかは難しい問題である。AICは、この問題に一つの解を与える。具体的にはAIC最小のモデルを選択すれば、多くの場合、良いモデルが選択できる。 公式は次の通りである。 ここでは最大尤度、は自由パラメータの数である。
rdf:langString Kryterium informacyjne Akaikego (AIC – od ang. Akaike Information Criterion) – zaproponowane przez Hirotugu Akaikego kryterium wyboru pomiędzy modelami statystycznymi o różnej liczbie predyktorów. Jest to jeden ze wskaźników dopasowania modelu. Na ogół model o większej liczbie predyktorów daje dokładniejsze przewidywania, jednak ma też większą skłonność do przeuczenia. Akaike zaproponował, aby wybierać ten model dla którego najmniejsza jest wartość: gdzie: – estymowane prawdopodobieństwo, przy założeniach danego modelu, uzyskania takiej właśnie wartości obserwacji jaka była naprawdę uzyskana, – liczba parametrów modelu. Kryterium, wprowadzone początkowo w analizie szeregów czasowych, obecnie stosowane jest także w analizie regresji. Należy podkreślić, że dokładniejszą metodą sprawdzania, czy model nie jest przeuczony, jest stosowanie walidacji krzyżowej.
rdf:langString Информационный критерий Акаике (AIC) — критерий, применяющийся исключительно для выбора из нескольких статистических моделей. Разработан в 1971 как «an information criterion» («(некий) информационный критерий») Хироцугу Акаике и предложен им в статье 1974 года. Предпосылкой к созданию критерия послужила задача оценки качества предсказаний модели на тестовой выборке при известном качестве на обучающей выборке при условии, что модель мы настраивали по методу максимального правдоподобия. То есть стояла задача оценки переобучения модели. Акаике, используя теорию информации (в том числе расстояние Кульбака — Лейблера), смог для ряда частных случаев получить искомую оценку.
rdf:langString O critério de informação de Akaike (AIC) é uma métrica que mensura a qualidade de um modelo estatístico visando também a sua simplicidade. Fornece, portanto, uma métrica para comparação e seleção de modelos, em que menores valores de AIC representam uma maior qualidade e simplicidade, segundo este critério. É fundamentado na teoria da informação. Quando um modelo estatístico é usado para representar um determinado processo, a representação nunca será exata, ou seja, o modelo nunca será perfeito e certamente algumas informações serão perdidas. O AIC estima a quantidade relativa de informação perdida por um determinado modelo: quanto menos informações um modelo perde, maior a qualidade desse modelo e menor a pontuação AIC. Ao estimar a quantidade de informação perdida por um modelo, o AIC lida com o balanço entre a qualidade e parcimônia de um modelo, ou seja, lida tanto com sobreajuste quanto com subajuste. Além disso, a base lógica do AIC se encaixa no princípio da Navalha de Occam. Segundo este princípio, dadas duas hipóteses (modelos estatísticos) de mesmo poder explicativo para determinado fenômeno, a hipótese mais simples têm maior chance de estar correta. O AIC leva em conta e penaliza a complexidade dos modelos e tende a favorecer a escolha de modelos mais simples. O AIC foi formulado pelo estatístico japonês Hirotugu Akaike e atualmente é uma das ferramentas amplamente utilizadas na inferência estatística.
rdf:langString ́Інформаційний критерій Акаіке (ІКА, англ. Akaike information criterion, AIC) — це оцінювач похибки позавибіркового передбачування, і відтак відносної якості статистичних моделей, для заданого набору даних. Маючи сукупність моделей для цих даних, ІКА оцінює якість кожної з моделей відносно кожної з інших моделей. Таким чином, ІКА пропонує засоби для обирання моделі. ІКА ґрунтується на теорії інформації. Коли статистичну модель використовують для представлення процесу, що породив дані, це представлення майже ніколи не буде точним, тож деяка інформація при застосуванні цієї моделі для представлення цього процесу втрачатиметься. ІКА оцінює відносну кількість інформації, що втрачає задана модель: що менше інформації втрачає модель, то вищою є її якість. В оцінюванні кількості інформації, що втрачає модель, ІКА має справу з компромісом між допасованістю моделі та її простотою. Іншими словами, ІКА працює як із ризиком перенавчання, так і з ризиком недонавчання. Інформаційний критерій Акаіке названо на честь статистика , який його сформулював. Він тепер формує основу однієї з парадигм , а також знаходить широкого вжитку в статистичному висновуванні.
rdf:langString 赤池信息量准则(英語:Akaike information criterion,简称AIC)是評估統计模型的复杂度和衡量统计模型「擬合」資料之优良性(英語:Goodness of Fit,白話:合身的程度)的一种标准,是由日本统计学家创立和发展的。赤池信息量准则建立在信息熵的概念基础上。
xsd:nonNegativeInteger 43257

data from the linked data cloud