Безносиков Александр Николаевич
- Стажер-исследователь:Факультет компьютерных наук / Департамент больших данных и информационного поиска / Научно-учебная лаборатория компании Яндекс
- Начал работать в НИУ ВШЭ в 2021 году.
- Научно-педагогический стаж: 2 года.
Полномочия / обязанности
Проведение всего цикла исследовательских работ перспективных методов машинного обучения в рамках работы лаборатории.
Образование, учёные степени
- 2023Кандидат наук: Московский физико-технический институт (национальный исследовательский университет)
- 2022
Магистратура: Московский физико-технический институт (национальный исследовательский университет), специальность «Прикладные математики и физика», квалификация «Магистр»
- 2020
Бакалавриат: Московский физико-технический институт (национальный исследовательский университет), специальность «Прикладные математика и физика», квалификация «Бакалавр»
Публикации10
- Статья Rogozin A., Beznosikov A., Dvinskikh D., Kovalev D., Dvurechensky P., Gasnikov A. Decentralized saddle point problems via non-Euclidean mirror prox // Optimization Methods and Software. 2023. P. 1-26. doi
- Глава книги Beznosikov A., Samsonov S., Sheshukova M., Gasnikov A., Naumov A., Moulines E. First Order Methods with Markovian Noise: from Acceleration to Variational Inequalities, in: Advances in Neural Information Processing Systems 36 (NeurIPS 2023). Curran Associates, Inc., 2023. P. 44820-44835.
- Статья Sadiev A., Borodich E., Beznosikov A., Dvinskikh D., Chezhegov S., Tappenden R., Takáč M., Alexander Gasnikov. Decentralized personalized federated learning: Lower bounds and optimal algorithm for all personalization modes // EURO Journal on Computational Optimization. 2022. Vol. 10. Article 100041. doi
- Глава книги Beznosikov A., Richtarik P., Diskin M., Ryabinin M., Alexander Gasnikov. Distributed Methods with Compressed Communication for Solving Variational Inequalities, with Theoretical Guarantees, in: Thirty-Sixth Conference on Neural Information Processing Systems : NeurIPS 2022. Curran Associates, Inc., 2022. P. 14013-14029.
- Глава книги Gorbunov E., Rogozin A., Beznosikov A., Dvinskikh D., Gasnikov A. Recent Theoretical Advances in Decentralized Distributed Convex Optimization, in: High-Dimensional Optimization and Probability: With a View Towards Data Science. Springer, 2022. Ch. 191. P. 253-325. doi
- Статья Beznosikov A., Gorbunov E., Gasnikov A. Derivative-Free Method For Composite Optimization With Applications To Decentralized Distributed Optimization // IFAC-PapersOnLine. 2021. Vol. 53. No. 2. P. 4038-4043. doi
- Глава книги Beznosikov A., Novitskii V., Gasnikov A. One-Point Gradient-Free Methods for Smooth and Non-smooth Saddle-Point Problems, in: Mathematical Optimization Theory and Operations Research: 20th International Conference, MOTOR 2021, Irkutsk, Russia, July 5–10, 2021, Proceedings / Ed. by P. M. Pardalos, M. Y. Khachay, A. Kazakov. Cham : Springer, 2021. doi Ch. 261179. P. 144-158. doi
- Статья Gladin E., Sadiev A., Gasnikov A., Dvurechensky P., Beznosikov A., Alkousa M. Solving Smooth Min-Min and Min-Max Problems by Mixed Oracle Algorithms // Communications in Computer and Information Science. 2021. Vol. 1476. P. 19-40. doi
- Статья Sadiev A., Beznosikov A., Dvurechensky P., Gasnikov A. Zeroth-Order Algorithms for Smooth Saddle-Point Problems // Communications in Computer and Information Science. 2021. Vol. 1476. P. 71-85. doi
- Статья Beznosikov A., Sadiev A., Gasnikov A. Gradient-Free Methods with Inexact Oracle for Convex-Concave Stochastic Saddle-Point Problem // Communications in Computer and Information Science. 2020. Vol. 1275. P. 105-119. doi
Информация*
- Общий стаж: 3 года
- Научно-педагогический стаж: 2 года
- Преподавательский стаж: 2 года
В НУЛ компании Яндекс прошел семинар "Локальные методы распределенной оптимизации"
17 апреля 2024 года прошел семинар Научно-учебной лаборатории компании Яндекс.
«Каждая статья на NeurIPS — значительный результат»
Сотрудники факультета компьютерных наук НИУ ВШЭ представят 12 своих работ на 37-й конференции NeurIPS. Conference and Workshop on Neural Information Processing Systems — одно из самых значительных событий в сфере искусственного интеллекта и машинного обучения. В этом году она пройдет с 10 по 16 декабря в Новом Орлеане (США).
Десять статей исследователей ФКН приняты на конференцию NeurIPS 2021
35-ая конференция NeurIPS 2021 (Conference on Neural Information Processing Systems) — одна из крупнейших в мире конференций по машинному обучению и нейронным сетям, которая проводится с 1989 года. В 2021 году конференция проходит онлайн 6-14 декабря.