Adversarial machine learning

http://dbpedia.org/resource/Adversarial_machine_learning an entity of type: Thing

Η αντιπαραθετική μηχανική μάθηση, γνωστή και ως αντιπαλική μηχανική μάθηση, είναι μια τεχνική στον τομέα της μηχανικής μάθησης κατά την οποία ανιχνεύονται δεδομένα εισαγωγής που μπορούν να ξεγελάσουν ένα μοντέλο. Η τεχνική αυτή μπορεί να εφαρμοστεί για διάφορους λόγους, συμπεριλαμβανομένων την κακόβουλη επίθεση του εξαπατώμενου μοντέλου, την εξέταση της ευρωστείας του εξαπατώμενου μοντέλου σε επιθέσεις και την εξασφάλιση της ανεξαρτησίας του αποτελέσματος του εξαπατώντος μοντέλου από την τιμή που αξιολογεί το εξαπατώμενο. rdf:langString
Adversarial machine learning (Apprendimento automatico antagonistico) è una serie di tecniche volte a compromettere il corretto funzionamento di un sistema informatico che faccia uso di algoritmi di apprendimento automatico, tramite la costruzione di input speciali in grado di ingannare tali algoritmi: più nello specifico, lo scopo di tali tecniche è quello di causare la classificazione errata in uno di questi algoritmi. Inoltre, nel caso specifico dell'apprendimento supervisionato, è possibile costruire particolari input in grado di far trapelare informazioni sul training set usato, o di permettere la clonazione del modello stesso. rdf:langString
Adversarial machine learning is the study of the attacks on machine learning algorithms, and of the defenses against such attacks. A recent survey exposes the fact that practitioners report a dire need for better protecting machine learning systems in industrial applications. Some of the most common threat models in adversarial machine learning include evasion attacks, data poisoning attacks, Byzantine attacks and model extraction. rdf:langString
Unter einer Adversarial Attack (zu deutsch „feindlicher Angriff“) versteht man im Kontext von Künstlicher Intelligenz (KI) bzw. Deep Learning die Verwendung von Adversarial Examples (zu Deutsch „feindliche Beispiele“) zur Manipulation der Klassifikationsergebnisse. Ein Adversarial Example ist ein speziell manipuliertes Eingangs-Signal in ein künstliches Neuronales Netzwerk, welches dieses absichtlich zu Fehlklassifikationen verleitet. Die Manipulation wird so vorgenommen, dass ein menschlicher Beobachter diese nicht bemerkt oder nicht als solche erkennt. Beispielsweise bei einem zur Objekterkennung trainierten neuronalen Netzwerk könnten die Pixel eines Bildes leicht verändert werden, sodass diese Veränderungen für Menschen nicht sichtbar sind, das Netzwerk die Objekte auf dem Bild jedoch rdf:langString
O aprendizado de máquinas adversário é uma técnica de aprendizado de máquina que tenta enganar os modelos fornecendo informações enganosas. O motivo mais comum é causar um mau funcionamento em um modelo de aprendizado de máquina. rdf:langString
rdf:langString Adversarial Attack
rdf:langString Αντιπαραθετική μηχανική μάθηση
rdf:langString Adversarial machine learning
rdf:langString Adversarial machine learning
rdf:langString Aprendizado de máquina adversário
xsd:integer 45049676
xsd:integer 1118218325
rdf:langString Unter einer Adversarial Attack (zu deutsch „feindlicher Angriff“) versteht man im Kontext von Künstlicher Intelligenz (KI) bzw. Deep Learning die Verwendung von Adversarial Examples (zu Deutsch „feindliche Beispiele“) zur Manipulation der Klassifikationsergebnisse. Ein Adversarial Example ist ein speziell manipuliertes Eingangs-Signal in ein künstliches Neuronales Netzwerk, welches dieses absichtlich zu Fehlklassifikationen verleitet. Die Manipulation wird so vorgenommen, dass ein menschlicher Beobachter diese nicht bemerkt oder nicht als solche erkennt. Beispielsweise bei einem zur Objekterkennung trainierten neuronalen Netzwerk könnten die Pixel eines Bildes leicht verändert werden, sodass diese Veränderungen für Menschen nicht sichtbar sind, das Netzwerk die Objekte auf dem Bild jedoch falsch zuordnet. In allen Anwendungsbereichen neuronaler Netzwerke konnte die Anfälligkeit für Adversarial Examples gezeigt werden. Aufgrund der zunehmenden Erfolge tiefer neuronaler Netzwerke und deren Einsatz in sicherheitskritischen Aufgaben, wie im autonomen Fahren zur Erkennung von Verkehrsschildern, rücken Adversarial Attacks und Methoden zur Abwehr oder Erkennung solcher Adversarial Examples zunehmend in den Fokus der KI-Forschung. Die Störanfälligkeit von Neuronalen Netzen (beispielsweise im Kontext von Adversarial Examples) kann durch die Größe der Lipschitzkonstante plausibilisiert werden.
rdf:langString Η αντιπαραθετική μηχανική μάθηση, γνωστή και ως αντιπαλική μηχανική μάθηση, είναι μια τεχνική στον τομέα της μηχανικής μάθησης κατά την οποία ανιχνεύονται δεδομένα εισαγωγής που μπορούν να ξεγελάσουν ένα μοντέλο. Η τεχνική αυτή μπορεί να εφαρμοστεί για διάφορους λόγους, συμπεριλαμβανομένων την κακόβουλη επίθεση του εξαπατώμενου μοντέλου, την εξέταση της ευρωστείας του εξαπατώμενου μοντέλου σε επιθέσεις και την εξασφάλιση της ανεξαρτησίας του αποτελέσματος του εξαπατώντος μοντέλου από την τιμή που αξιολογεί το εξαπατώμενο.
rdf:langString Adversarial machine learning is the study of the attacks on machine learning algorithms, and of the defenses against such attacks. A recent survey exposes the fact that practitioners report a dire need for better protecting machine learning systems in industrial applications. To understand, note that most machine learning techniques are mostly designed to work on specific problem sets, under the assumption that the training and test data are generated from the same statistical distribution (IID). However, this assumption is often dangerously violated in practical high-stake applications, where users may intentionally supply fabricated data that violates the statistical assumption. Some of the most common threat models in adversarial machine learning include evasion attacks, data poisoning attacks, Byzantine attacks and model extraction.
rdf:langString Adversarial machine learning (Apprendimento automatico antagonistico) è una serie di tecniche volte a compromettere il corretto funzionamento di un sistema informatico che faccia uso di algoritmi di apprendimento automatico, tramite la costruzione di input speciali in grado di ingannare tali algoritmi: più nello specifico, lo scopo di tali tecniche è quello di causare la classificazione errata in uno di questi algoritmi. Inoltre, nel caso specifico dell'apprendimento supervisionato, è possibile costruire particolari input in grado di far trapelare informazioni sul training set usato, o di permettere la clonazione del modello stesso.
rdf:langString O aprendizado de máquinas adversário é uma técnica de aprendizado de máquina que tenta enganar os modelos fornecendo informações enganosas. O motivo mais comum é causar um mau funcionamento em um modelo de aprendizado de máquina. A maioria das técnicas de aprendizado de máquina foi projetada para funcionar em conjuntos de problemas específicos nos quais os dados de treinamento e teste são gerados a partir da mesma distribuição estatística (IID). Quando esses modelos são aplicados ao mundo real, os adversários podem fornecer dados que violam essa suposição estatística. Esses dados podem ser organizados para explorar vulnerabilidades específicas e comprometer os resultados.
xsd:nonNegativeInteger 61072

data from the linked data cloud