SLAP – простая линейная атака на персептрон
https://doi.org/10.15514/ISPRAS-2024-36(3)-6
Аннотация
В статье представлен новый подход атаки на нейронные сети на основе перцептрона с кусочно-линейными функциями активации с использованием базовой линейной алгебры. Атака формулируется как система линейных уравнений и неравенств и демонстрирует упрощённый и эффективный в вычислительном отношении подход к созданию разнообразных наборов состязательных примеров. Алгоритмы предлагаемой атаки реализованы в коде, доступном в репозитории с открытым исходным кодом. В исследовании подчёркивается серьёзная проблема, которую представляет предлагаемая методология атаки для современной защиты нейронных сетей, подчеркивая острую необходимость в инновационных стратегиях защиты. Благодаря всестороннему изучению состязательных уязвимостей это исследование способствует повышению состязательной устойчивости машинного обучения, открывая путь для разработки более надежных и заслуживающих доверия систем искусственного интеллекта в реальных приложениях.
Ключевые слова
Об авторе
Андрей Игоревич ПЕРМИНОВЯвляется аспирантом, стажером-исследователем. Его научные интересы включают цифровую обработку сигналов, нейросетевую обработку данных, разработку доверенных моделей и алгоритмов машинного обучения и создание искусственных данных.
Список литературы
1. Репозиторий SLAEAttack (ссылка недоступна при слепом просмотре).
2. Chakraborty, A., Alam, M., Dey, V., Chattopadhyay, A., & Mukhopadhyay, D. (2021). A survey on adversarial attacks and defences. CAAI Transactions on Intelligence Technology, 6(1), 25-45.
3. Goodfellow, I. J., Shlens, J., & Szegedy, C. (2014). Explaining and harnessing adversarial examples. arXiv preprint arXiv:1412.6572.
4. Madry, A., Makelov, A., Schmidt, L., Tsipras, D., & Vladu, A. (2017). Towards deep learning models resistant to adversarial attacks. arXiv preprint arXiv:1706.06083.
5. Croce, F., & Hein, M. (2019). Sparse and imperceivable adversarial attacks. In Proceedings of the IEEE/CVF international conference on computer vision (pp. 4724-4732).
6. Wong, E., & Kolter, Z. (2018, July). Provable defenses against adversarial examples via the convex outer adversarial polytope. In International conference on machine learning (pp. 5286-5295). PMLR.
7. Cifar10 dataset, https://www.cs.toronto.edu/ kriz/cifar.html. Last accessed 12 Mar 2024
8. QP solvers, https://pypi.org/project/qpsolvers/. Last accessed 12 Mar 2024
9. Сats and Dogs Dataset, https://www.microsoft.com/enus/ download/details.aspx?id=54765. Last accessed 12 Mar 2024
10. Targ, S., Almeida, D., & Lyman, K. (2016). Resnet in resnet: Generalizing residual architectures. arXiv preprint arXiv:1603.08029.
11. Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). Imagenet classification with deep convolutional neural networks. Advances in neural information processing systems, 25.
12. Tan, M., & Le, Q. (2019, May). Efficientnet: Rethinking model scaling for convolutional neural networks. In International conference on machine learning (pp. 6105-6114). PMLR.
Рецензия
Для цитирования:
ПЕРМИНОВ А.И. SLAP – простая линейная атака на персептрон. Труды Института системного программирования РАН. 2024;36(3):83-92. https://doi.org/10.15514/ISPRAS-2024-36(3)-6
For citation:
PERMINOV A.I. SLAP – Simple Linear Attack for Perceptron. Proceedings of the Institute for System Programming of the RAS (Proceedings of ISP RAS). 2024;36(3):83-92. (In Russ.) https://doi.org/10.15514/ISPRAS-2024-36(3)-6