1 option
Adversariale Robustheit Neuronaler Netze. Verteidigungen gegen Vermeidungsangriffe zur Testzeit / Bijan Kianoush Riesenberg.
- Format:
- Book
- Author/Creator:
- Riesenberg, Bijan Kianoush, author.
- Language:
- German
- Subjects (All):
- Robust statistics.
- Physical Description:
- 1 online resource (126 pages)
- Edition:
- First edition.
- Place of Publication:
- Hamburg, Germany : Diplomica Verlag, [2021]
- Summary:
- Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Veränderungen an der Eingabe vornehmen. Obwohl diese Änderungen für den Menschen kaum wahrnehmbar sind, ändert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu können, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gewährleisten können. Hier wird eine Übersicht über verschiedene Anwendungsfälle, Angriffe, die daraus entstehenden Problemstellungen, Ansätze zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.
- Contents:
- Adversariale Robustheit Neuronaler Netze. Verteidigungen gegen Vermeidungsangriffe zur Testzeit
- Kurzfassung
- Abstract
- Inhaltsverzeichnis
- 1. Einleitung
- 2. Grundlagen
- 2.1. Optimierung
- 2.2. Lernen von Klassifikation
- 2.3. Neuronale Netze
- 2.4. Optimierung neuronaler Netze
- 3. Adversariales maschinelles Lernen
- 3.1. Taxonomie der adversarialen Klassifikation
- 3.2. Spieltheoretische Betrachtung
- 4. Adversariale Angriffe
- 4.1. Verfahren erster Ordnung
- 4.1.1. Fast Gradient Sign Methode
- 4.1.2. JSMA
- 4.1.3. Carlini &
- Wagner Angriff
- 4.1.4. Elastic-Net Angriff
- 4.1.5. DeepFool
- 4.1.6. Projizierter Gradientenabstieg zur Maximierung der Missklassifikationsrate
- 4.2. Ableitungsfreie Verfahren
- 4.2.1. ZOO
- 4.2.2. Simultaneous perturbation stochastic approximation
- 5. Anwendungsfälle
- 5.1. Angriffe auf Spamfilter
- 5.2. Angriffe auf Malwareerkennung
- 5.3. Angriffe auf Computersehen
- 6. Adversariale Robustheit
- 6.1. Formale Robustheitsgarantien für neuronale Netze
- 6.2. Metriken
- 6.3. Augmentierung
- 6.3.1. Gauss Augmentierung
- 6.3.2. Adversariale Augmentierung
- 6.3.3. Adversariale Augmentierung als Regularisierungsmethode
- 6.4. Destillation
- 6.5. Detektion
- 6.5.1. Statistischer Test
- 6.5.2. Detektionstraining
- 6.5.3. Inkonsistenzprädikation
- 6.6. Eingabetransformation
- 6.6.1. Thermometer Kodierung
- 6.7. Evaluation gegen schwache Angreifer
- 6.8. Komplexität der Verifikation von Eigenschafteneines MLP
- 6.9. Verifikation und Zertifikation
- 6.9.1. ReLUplex
- 6.9.2. ReLUval
- 7. Schluss
- Appendizes.
- Notes:
- Description based on publisher supplied metadata and other sources.
- Description based on print version record.
- Other Format:
- Print version: Riesenberg, Bijan Kianoush Adversariale Robustheit Neuronaler Netze. Verteidigungen gegen Vermeidungsangriffe zur Testzeit
- ISBN:
- 9783961463565
- OCLC:
- 1295276397
The Penn Libraries is committed to describing library materials using current, accurate, and responsible language. If you discover outdated or inaccurate language, please fill out this feedback form to report it and suggest alternative language.