My Account Log in

1 option

Adversariale Robustheit Neuronaler Netze. Verteidigungen gegen Vermeidungsangriffe zur Testzeit / Bijan Kianoush Riesenberg.

Ebook Central Academic Complete Available online

View online
Format:
Book
Author/Creator:
Riesenberg, Bijan Kianoush, author.
Language:
German
Subjects (All):
Robust statistics.
Physical Description:
1 online resource (126 pages)
Edition:
First edition.
Place of Publication:
Hamburg, Germany : Diplomica Verlag, [2021]
Summary:
Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Veränderungen an der Eingabe vornehmen. Obwohl diese Änderungen für den Menschen kaum wahrnehmbar sind, ändert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu können, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gewährleisten können. Hier wird eine Übersicht über verschiedene Anwendungsfälle, Angriffe, die daraus entstehenden Problemstellungen, Ansätze zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.
Contents:
Adversariale Robustheit Neuronaler Netze. Verteidigungen gegen Vermeidungsangriffe zur Testzeit
Kurzfassung
Abstract
Inhaltsverzeichnis
1. Einleitung
2. Grundlagen
2.1. Optimierung
2.2. Lernen von Klassifikation
2.3. Neuronale Netze
2.4. Optimierung neuronaler Netze
3. Adversariales maschinelles Lernen
3.1. Taxonomie der adversarialen Klassifikation
3.2. Spieltheoretische Betrachtung
4. Adversariale Angriffe
4.1. Verfahren erster Ordnung
4.1.1. Fast Gradient Sign Methode
4.1.2. JSMA
4.1.3. Carlini &amp
Wagner Angriff
4.1.4. Elastic-Net Angriff
4.1.5. DeepFool
4.1.6. Projizierter Gradientenabstieg zur Maximierung der Missklassifikationsrate
4.2. Ableitungsfreie Verfahren
4.2.1. ZOO
4.2.2. Simultaneous perturbation stochastic approximation
5. Anwendungsfälle
5.1. Angriffe auf Spamfilter
5.2. Angriffe auf Malwareerkennung
5.3. Angriffe auf Computersehen
6. Adversariale Robustheit
6.1. Formale Robustheitsgarantien für neuronale Netze
6.2. Metriken
6.3. Augmentierung
6.3.1. Gauss Augmentierung
6.3.2. Adversariale Augmentierung
6.3.3. Adversariale Augmentierung als Regularisierungsmethode
6.4. Destillation
6.5. Detektion
6.5.1. Statistischer Test
6.5.2. Detektionstraining
6.5.3. Inkonsistenzprädikation
6.6. Eingabetransformation
6.6.1. Thermometer Kodierung
6.7. Evaluation gegen schwache Angreifer
6.8. Komplexität der Verifikation von Eigenschafteneines MLP
6.9. Verifikation und Zertifikation
6.9.1. ReLUplex
6.9.2. ReLUval
7. Schluss
Appendizes.
Notes:
Description based on publisher supplied metadata and other sources.
Description based on print version record.
Other Format:
Print version: Riesenberg, Bijan Kianoush Adversariale Robustheit Neuronaler Netze. Verteidigungen gegen Vermeidungsangriffe zur Testzeit
ISBN:
9783961463565
OCLC:
1295276397

The Penn Libraries is committed to describing library materials using current, accurate, and responsible language. If you discover outdated or inaccurate language, please fill out this feedback form to report it and suggest alternative language.

My Account

Shelf Request an item Bookmarks Fines and fees Settings

Guides

Using the Library Catalog Using Articles+ Library Account