Universal approximation theorem

http://dbpedia.org/resource/Universal_approximation_theorem an entity of type: WikicatArtificialNeuralNetworks

Dans la théorie mathématique des réseaux de neurones artificiels, le théorème d'approximation universelle indique qu'un réseau à propagation avant d'une seule couche cachée contenant un nombre fini de neurones (c'est-à-dire, un perceptron multicouche) peut approximer des fonctions continues sur des sous-ensembles compacts de Rn. rdf:langString
1989년 (Cybenko)가 발표한 시벤코 정리(Cybenko's theorem)는 다음과 같다. 를 형식의 연속 함수라 하자(예, ). 또는 의 부분집합에서 실수의 연속 함수 와 가 주어지면,다음을 만족하는 벡터 , 와매개 함수 이 존재한다. for all 이때, 이고, 이다. 이 정리는 하나의 은닉층을 갖는 인공신경망은 임의의 연속인 다변수 함수를 원하는 정도의 정확도로 근사할 수 있음을 말한다.단, 와 를 잘못 선택하거나 은닉층의 뉴런 수가 부족할 경우 충분한 정확도로 근사하는데 실패할 수 있다. rdf:langString
Теорема Цыбенко, Универсальная теорема аппроксимации — теорема, доказанная Джорджем Цыбенко в 1989 году, которая утверждает, что искусственная нейронная сеть прямой связи (англ. feed-forward; в которых связи не образуют циклов) с одним скрытым слоем может аппроксимировать любую непрерывную функцию многих переменных с любой точностью. Условиями являются: достаточное количество нейронов скрытого слоя, удачный подбор и , где — веса между входными нейронами и нейронами скрытого слоя, — веса между связями от нейронов скрытого слоя и выходным нейроном, — смещения для нейронов входного слоя. rdf:langString
在人工神经网络的数学理论中, 通用近似定理(或稱萬能近似定理)指出人工神經網路近似任意函數的能力。 通常此定理所指的神經網路爲前饋神經網路,並且被近似的目標函數通常爲輸入輸出都在歐幾里得空間的連續函數。但亦有研究將此定理擴展至其他類型的神經網路,如卷積神經網路、放射狀基底函數網路、或其他特殊神經網路。 此定理意味着神經網路可以用來近似任意的復雜函數,並且可以達到任意近似精準度。但它並沒有說明要如何選擇神經網絡參數(權重、神經元數量、神經層層數等等)來達到想近似的目標函數。 rdf:langString
في النظرية الرياضية الخاصة بالشبكات العصبونية، تنص مبرهنة التقريب العام على أن شبكة التغذية الأمامية متعددة الطبقات القياسية ذات طبقة واحدة مخفية، التي تشتمل على عدد لانهائي من العصبونات المخفية، هي مقراب عام بين الدوال المستمرة في المجموعات الفرعية المتراصة في Rn، وذلك تحت الفرضيات المتوسطة حول دالة التنشيط. ولقد تم إثبات الصياغات الأولى لتلك المبرهنة على يد جورج سيبينكو عام 1989 بالنسبة لدوال التنشيط الإسية. المبرهنة في الصيغة الرياضية: rdf:langString
In the mathematical theory of artificial neural networks, universal approximation theorems are results that establish the density of an algorithmically generated class of functions within a given function space of interest. Typically, these results concern the approximation capabilities of the feedforward architecture on the space of continuous functions between two Euclidean spaces, and the approximation is with respect to the compact convergence topology. rdf:langString
Na teoria matemática de redes neurais artificiais, o teorema da aproximação universal declara que uma rede neural pré-alimentada com uma única camada oculta que contém um número finito de neurônios (i.é., um conjunto multicamada de perceptron) pode aproximar funções contínuas em subconjuntos compactos de Rn, com pressupostos mínimos de função de ativação. O teorema afirma que redes neurais simples podem representar uma grande variedade de funções interessantes quando há os parâmetros adequados; no entanto, ele não desenvolve a apreensibilidade algorítmica desses parâmetros. rdf:langString
Теорема Цибенка, Універсальна теорема апроксимації — теорема, доведена Джорджем Цибенком (George Cybenko) в 1989 році, яка стверджує, що штучна нейронна мережа прямого зв'язку (англ. feed-forward; у яких зв'язки не утворюють циклів) з одним прихованим шаром може апроксимувати будь-яку неперервну функцію багатьох змінних з будь-якою точністю. Умовами є достатня кількість нейронів прихованого шару, вдалий підбір і , де rdf:langString
rdf:langString مبرهنة التقريب العام
rdf:langString Théorème d'approximation universelle
rdf:langString 시벤코 정리
rdf:langString Teorema da aproximação universal
rdf:langString Universal approximation theorem
rdf:langString Теорема Цыбенко
rdf:langString 通用近似定理
rdf:langString Теорема Цибенка
xsd:integer 18543448
xsd:integer 1122741589
rdf:langString في النظرية الرياضية الخاصة بالشبكات العصبونية، تنص مبرهنة التقريب العام على أن شبكة التغذية الأمامية متعددة الطبقات القياسية ذات طبقة واحدة مخفية، التي تشتمل على عدد لانهائي من العصبونات المخفية، هي مقراب عام بين الدوال المستمرة في المجموعات الفرعية المتراصة في Rn، وذلك تحت الفرضيات المتوسطة حول دالة التنشيط. ولقد تم إثبات الصياغات الأولى لتلك المبرهنة على يد جورج سيبينكو عام 1989 بالنسبة لدوال التنشيط الإسية. ولقد أثبت كورت هورنيك عام 1991 أنه ليس الاختيار الخاص بدالة التنشيط، بل هي بنية التغذية الأمامية متعددة الطبقات نفسها التي تمنح الشبكات العصبونية إمكانية أن تكون مقرابات عامة. ويفترض أن الوحدات الخارجة تكون دائما خطية. ومن أجل تبسيط الفكرة سنقوم باستنباط النتائج بوضوح حيث يكون هناك وحدة خارجة فقط. (يمكن بسهولة استخراج الحالة العامة من الحالة البسيطة.) المبرهنة في الصيغة الرياضية:
rdf:langString Dans la théorie mathématique des réseaux de neurones artificiels, le théorème d'approximation universelle indique qu'un réseau à propagation avant d'une seule couche cachée contenant un nombre fini de neurones (c'est-à-dire, un perceptron multicouche) peut approximer des fonctions continues sur des sous-ensembles compacts de Rn.
rdf:langString In the mathematical theory of artificial neural networks, universal approximation theorems are results that establish the density of an algorithmically generated class of functions within a given function space of interest. Typically, these results concern the approximation capabilities of the feedforward architecture on the space of continuous functions between two Euclidean spaces, and the approximation is with respect to the compact convergence topology. However, there are also a variety of results between non-Euclidean spaces and other commonly used architectures and, more generally, algorithmically generated sets of functions, such as the convolutional neural network (CNN) architecture, radial basis-functions, or neural networks with specific properties. Most universal approximation theorems can be parsed into two classes. The first quantifies the approximation capabilities of neural networks with an arbitrary number of artificial neurons ("arbitrary width" case) and the second focuses on the case with an arbitrary number of hidden layers, each containing a limited number of artificial neurons ("arbitrary depth" case). In addition to these two classes, there are also universal approximation theorems for neural networks with bounded number of hidden layers and a limited number of neurons in each layer ("bounded depth and bounded width" case). Universal approximation theorems imply that neural networks can represent a wide variety of interesting functions when given appropriate weights. On the other hand, they typically do not provide a construction for the weights, but merely state that such a construction is possible.
rdf:langString 1989년 (Cybenko)가 발표한 시벤코 정리(Cybenko's theorem)는 다음과 같다. 를 형식의 연속 함수라 하자(예, ). 또는 의 부분집합에서 실수의 연속 함수 와 가 주어지면,다음을 만족하는 벡터 , 와매개 함수 이 존재한다. for all 이때, 이고, 이다. 이 정리는 하나의 은닉층을 갖는 인공신경망은 임의의 연속인 다변수 함수를 원하는 정도의 정확도로 근사할 수 있음을 말한다.단, 와 를 잘못 선택하거나 은닉층의 뉴런 수가 부족할 경우 충분한 정확도로 근사하는데 실패할 수 있다.
rdf:langString Теорема Цыбенко, Универсальная теорема аппроксимации — теорема, доказанная Джорджем Цыбенко в 1989 году, которая утверждает, что искусственная нейронная сеть прямой связи (англ. feed-forward; в которых связи не образуют циклов) с одним скрытым слоем может аппроксимировать любую непрерывную функцию многих переменных с любой точностью. Условиями являются: достаточное количество нейронов скрытого слоя, удачный подбор и , где — веса между входными нейронами и нейронами скрытого слоя, — веса между связями от нейронов скрытого слоя и выходным нейроном, — смещения для нейронов входного слоя.
rdf:langString Na teoria matemática de redes neurais artificiais, o teorema da aproximação universal declara que uma rede neural pré-alimentada com uma única camada oculta que contém um número finito de neurônios (i.é., um conjunto multicamada de perceptron) pode aproximar funções contínuas em subconjuntos compactos de Rn, com pressupostos mínimos de função de ativação. O teorema afirma que redes neurais simples podem representar uma grande variedade de funções interessantes quando há os parâmetros adequados; no entanto, ele não desenvolve a apreensibilidade algorítmica desses parâmetros. Uma das primeiras versões do teorema foi provado por George Cybenko, em 1989, para funções de ativação sigmóide. Pode também se aplicar em funções de torre em redes neurais para reconhecimento visual.
rdf:langString Теорема Цибенка, Універсальна теорема апроксимації — теорема, доведена Джорджем Цибенком (George Cybenko) в 1989 році, яка стверджує, що штучна нейронна мережа прямого зв'язку (англ. feed-forward; у яких зв'язки не утворюють циклів) з одним прихованим шаром може апроксимувати будь-яку неперервну функцію багатьох змінних з будь-якою точністю. Умовами є достатня кількість нейронів прихованого шару, вдалий підбір і , де * — ваги між вхідними нейронами і нейронами прихованого шару * — ваги між зв'язками від нейронів прихованого шару і вихідним нейроном * — коефцієнт «упередженості» для нейронів прихованого шару.
rdf:langString 在人工神经网络的数学理论中, 通用近似定理(或稱萬能近似定理)指出人工神經網路近似任意函數的能力。 通常此定理所指的神經網路爲前饋神經網路,並且被近似的目標函數通常爲輸入輸出都在歐幾里得空間的連續函數。但亦有研究將此定理擴展至其他類型的神經網路,如卷積神經網路、放射狀基底函數網路、或其他特殊神經網路。 此定理意味着神經網路可以用來近似任意的復雜函數,並且可以達到任意近似精準度。但它並沒有說明要如何選擇神經網絡參數(權重、神經元數量、神經層層數等等)來達到想近似的目標函數。
xsd:nonNegativeInteger 27308

data from the linked data cloud