Как защитить алгоритм машинного обучения от Adversarial-примеров

25.10.2018

Насколько алгоритмы машинного обучения устойчивы к атакам, в результате которых система совершает ошибки? Когда логотип KFC распознается как дорожный знак «Стоп», кошка становится гуакамоле, а черепаха — винтовкой?

22 октября на конференции Moscow Python Conf аналитик Digital Security Сергей Дудоров рассмотрел методы нападения, защиты и тестирования алгоритмов машинного обучения на возможность противодействия Adversarial примерам с использованием библиотек CleverHans и Adversarial-robustness-toolbox.

Скачать презентацию доклада