In dieser Serie diskutieren wir interessante Themen aus Software-Entwicklung und -Architektur – immer mit dem Fokus auf Praxistauglichkeit.
…
continue reading
Inhalt bereitgestellt von INNOQ. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von INNOQ oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Player FM - Podcast-App
Gehen Sie mit der App Player FM offline!
Gehen Sie mit der App Player FM offline!
Machine Learning Security
AAC•Episode-Home
Manage episode 297376540 series 2833409
Inhalt bereitgestellt von INNOQ. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von INNOQ oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
„Aus großer Kraft folgt große Verantwortung”
…
continue reading
- Joy Buolamwini: Fighting algorithmic bias needs to be ‘a priority’
- Invisible Women - Exposing Data Bias in a World Designed for Men
- Startschuss für intelligente Videoüberwachung in Mannheim
- MITRE ATT&CK
- Wired.com: An AI Used Facebook Data to Predict Mental Illness
- Paper: Depression detection from social network data using machine learning techniques
- Why, what and how: ML-Security
- Data Poisoning Attacks
- Will my ML-systems be attacked?
- Adversarial ML Threat Matrix
- Gartner Report on Cybersecurity
- EU regulation on AI
- Microsoft’s Tay
- Triggerless backdoors: The Hidden Threat of Deep Learning
- Privacy Attacks on ML-Systems
- Model Stealing
- Unintended Memorization of Neural Nets
- Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks, and Defenses
- Stealing Machine Learning Models via Prediction API
- Exploiting Machine Learning to Subvert Your Spam Filter
- Detection of Adversarial Training Examples in Poisoning Attacks Through Anomaly Detection
- What is Adversarial Machine Learning?
- Breaking Neural Networks with Adversarial Attacks
Feedback
Falls ihr Fragen oder Anregungen habt, schreibt uns gerne eine E-Mail an security-podcast@innoq.com.
Kapitel
1. Intro und Begrüßung (00:00:00)
2. Machine Learning (00:01:30)
3. Abrenzung Deep Learning (00:13:36)
4. Security im Machine Learning (00:23:00)
5. Angriffstaxonomie (00:40:00)
6. Risks für Modelle (00:49:05)
7. Model Extraction (01:24:00)
8. Data Extraction / Confidentiality (01:34:00)
9. Weitere Risks (01:57:31)
101 Episoden
AAC•Episode-Home
Manage episode 297376540 series 2833409
Inhalt bereitgestellt von INNOQ. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von INNOQ oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
„Aus großer Kraft folgt große Verantwortung”
…
continue reading
- Joy Buolamwini: Fighting algorithmic bias needs to be ‘a priority’
- Invisible Women - Exposing Data Bias in a World Designed for Men
- Startschuss für intelligente Videoüberwachung in Mannheim
- MITRE ATT&CK
- Wired.com: An AI Used Facebook Data to Predict Mental Illness
- Paper: Depression detection from social network data using machine learning techniques
- Why, what and how: ML-Security
- Data Poisoning Attacks
- Will my ML-systems be attacked?
- Adversarial ML Threat Matrix
- Gartner Report on Cybersecurity
- EU regulation on AI
- Microsoft’s Tay
- Triggerless backdoors: The Hidden Threat of Deep Learning
- Privacy Attacks on ML-Systems
- Model Stealing
- Unintended Memorization of Neural Nets
- Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks, and Defenses
- Stealing Machine Learning Models via Prediction API
- Exploiting Machine Learning to Subvert Your Spam Filter
- Detection of Adversarial Training Examples in Poisoning Attacks Through Anomaly Detection
- What is Adversarial Machine Learning?
- Breaking Neural Networks with Adversarial Attacks
Feedback
Falls ihr Fragen oder Anregungen habt, schreibt uns gerne eine E-Mail an security-podcast@innoq.com.
Kapitel
1. Intro und Begrüßung (00:00:00)
2. Machine Learning (00:01:30)
3. Abrenzung Deep Learning (00:13:36)
4. Security im Machine Learning (00:23:00)
5. Angriffstaxonomie (00:40:00)
6. Risks für Modelle (00:49:05)
7. Model Extraction (01:24:00)
8. Data Extraction / Confidentiality (01:34:00)
9. Weitere Risks (01:57:31)
101 Episoden
Alle Folgen
×Willkommen auf Player FM!
Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.