Центр оптико-нейронных технологий
ФГУ ФНЦ НИИСИ РАН
НИИСИ РАН
Структура
Проекты
Контакты

Ассоциация нейроинформатики
Конференция НЕЙРОИНФОРМАТИКА
Журналы:
Нейроинформатика
Optical Memory and Neural Networks
Карандашев Яков Михайлович

 

Кандидат физико-математических наук, ведущий научный сотрудник, заместитель руководителя центра оптико-нейронных технологий НИИСИ РАН.

Биография
Публикации

Контакты:
117218, г. Москва, ул. Нахимовский проспект, д. 36, корпус 1.
E-mail: karandashev@niisi.ras.ru
Телефон: +7 (499) 124-97-44.

Биография

Карандашев Я.М. родился в 1987 году. В 2010 году окончил факультет Радиотехники и кибернетики Московского физико-технического института (ФРТК МФТИ) по специальности прикладные физика и математика. В 2013 году окончил аспирантуру в НИИСИ РАН. Защитил кандидатскую диссертацию на тему Исследование методов трансформации энергетической поверхности в задачах бинарной минимизации квадратичного функционала в 2013 г. С 2007 года работает в Институте оптико-нейронных технологий (в дальнешем ставший ЦОНТ НИИСИ РАН).

Работает в области нейронных сетей уже более 10 лет, имеет порядка 40 публикаций.

Читает курсы лекций по программированию на python, по машинному обучению и нейронным сетям в Математическом институте им. С.М. Никольского Российского университета дружбы народов на факультете ФМиЕН. Руководит дипломными работами у студентов РУДН, а также аспирантами в аспирантуре НИИСИ РАН.

Являлся инициатором и руководителем гранта РФФИ 16-31-00047 «Точное вычисление статистической суммы двумерных моделей методом подсчёта пфаффиана матрицы развёрнутого дуального графа».

Член международного нейросетевого сообщества (INNS) в 2019 г. https://www.inns.org/

Профиль ИСТИНА МГУ - https://istina.msu.ru/profile/Ya_rad_wsem@mail.ru/

Член редколлегии журналов:

1. Optical Memory and Neural Networks (Information Optics), https://www.springer.com/journal/12005/editors

2. Mathematical Modelling of Natural Phenomena (MMNP), https://www.mmnp-journal.org/about-the-journal/editorial-board#Editors

Награды:

  • "Мой первый грант" от РФФИ для молодых учёных, 2016.
  • Медаль РАН для студентов высших учебных заведений России за лучшие научные работы по направлению «Информатика, вычислительная техника и автоматизация» в 2010 году.
  • Трэвел грант от Европейского нейросетевого сообщества за лучшую студенческую работу на конференции International Conference on Artificial Neural Networks (ICANN), 2010.
  • Первое место в олимпиаде по физике по республике Удмуртия среди 11-х классов, 2004.

Основные научные результаты за последние 5 лет:

  • Моделирование горения является ключевым аспектом полномасштабного 3D-моделирования современных и перспективных двигателей для авиационно-космических силовых установок. В данной работе изучается возможность решения задач химической кинетики с использованием искусственных нейронных сетей. С помощью классических численных методов были построены наборы обучающих данных. Выбирая среди различных архитектур многослойных нейронных сетей и настраивая их параметры, была разработана модель, способная решить эту проблему. Полученная нейронная сеть работает в рекурсивном режиме и может предсказывать поведение химической многовидовой динамической системы на много шагов.
  • Проведена аппроксимация алгоритма обратного распространения ошибки для обучения глубоких нейронных сетей, который предназначен для работы с синапсами, реализованными на мемристорах. Основная идея состоит в том, чтобы представлять значения как входного сигнала, так и значения дельты с помощью серии импульсов, которые запускают множественные положительные или отрицательные обновления синаптического веса, и использовать операцию min вместо произведения двух сигналов. В вычислительном моделировании мы показано, что предложенное приближение обратного распространения ошибки хорошо сходится и может быть подходящим для мемристорных реализаций многослойных нейронных сетей.
  • Предложен и реализован (код доступен по ссылке https://github.com/Thrawn1985/2D-Partition-Function) алгоритм точного вычисления статистической суммы для двумерных графических моделей с бинарными переменными при помощи вычисления Пфаффиана матрицы смежности дуального графа решётки. Сложность алгоритма составляет O(N^2). Тестовые эксперименты показали хорошее согласие с аналитическим решением Онсагера для двумерной модели Изинга.
  • Исследовано изменение термодинамических свойств спиновой системы при переходе от классической двумерной модели Изинга к модели изинговского спинового стекла, в которой парные спин-спиновые взаимодействия представляют собой случайные по величине и по знаку величины. Формализм перехода сводится к изменению амплитуды мультипликативного шума (равномерно-распределенного с единичным средним), наложенного на исходную изинговскую матрицу спин-спинового взаимодействия. Приведены аналитические выражения, справедливые для конечных размеров решетки и учитывающие наличие шума. Результаты сравниваются с данными численного эксперимента, проведенного для случая квадратной решетки с линейными размерами. Экспериментально установлена зависимость критических величин (температуры, внутренней энергии, теплоемкости) от амплитуды шума; аналогичные зависимости установлены для энергии основного состояния и его намагниченности. Показано, что когда дисперсия шума достигает единицы наблюдается скачкообразное изменение основного состояния из полностью коррелированного в некоррелированное: намагниченность основного состояния скачком изменяется от 1 до 0, а наблюдавшийся при меньших шумах фазовый переход исчезает.
  • Рассмотрена задача дискретизации весов обученной глубокой нейронной сети предназначенная для уменьшения требований к оперативной памяти и ускорения алгоритма распознавания. Показано, что экспоненциальная дискретизация предпочтительнее линейной, поскольку позволяет достичь тех же значений точности при меньшем (на 1 или 2) количестве бит. СетьVGG-16 даёт удовлетворительное качество (top5 accuracy 69%) уже при 3-х битовой экспоненциальной дискретизации. ResNet50 при 4-х битах даёт top5 accuracy 84%. Остальные сети неплохо работают при 5 битах (на сетях Xception, Inception-v3 и MobileNet-v2 top5 accuracy составила 87%, 90% и 77% соответственно). При меньшем числе бит точность резко падает.

Публикации

  1. V.B. Betelin, B.V. Kryzhanovsky, N.N. Smirnov, V.F. Nikitin, I.M. Karandashev, M.Yu. Malsagov, E.V. Mikhalchenko. Neural network approach to solve gas dynamics problems with chemical transformations. // Acta Astronautica. Volume 180. 2021. Pages 58-65. https://doi.org/10.1016/j.actaastro.2020.11.058. (WoS, Q1, 2.83 JCR 2019).

  2. Malsagov M.Yu., Khayrov E.M., Pushkareva M.M., Karandashev I.M. Exponential discretization of weights of neural network connections in pre-trained neural networks. // Optical Memory and Neural Networks (Information Optics). Vol. 28. No. 4. pp. 262–270. 2019. https://doi.org/10.3103/S1060992X19040106. (Scopus, Q2, импакт фактор - 0.34 SJR 2019).

  3. I.M. Karandashev, B.V. Kryzhanovsky. Change in density of states of 2D Ising model when next-neighbour interaction is introduced. // Optical Memory and Neural Networks. Vol. 28. No. 3. pp. 165–174. 2019. https://doi.org/10.3103/S1060992X19030032. (Scopus, Q2, импакт фактор - 0.34 SJR 2019).

  4. Malsagov M.Y., Karandashev I.M., Kryzhanovsky B.V. Approximation of Edwards-Anderson spin-glass model density of states. // Lu H., Tang H., Wang Z. (eds) Advances in Neural Networks – ISNN 2019. ISNN 2019. Lecture Notes in Computer Science. Vol. 11555. Springer, Cham. pp. 173-179. 2019. https://doi.org/10.1007/978-3-030-22808-8_18. (Scopus, Q3, импакт фактор - 0.25 SJR 2019).

  5. Iakov Karandashev, Boris Kryzhanovsly. Global Minimum Depth in Edwards-Anderson Model. // MacIntyre, J., Iliadis, L., Maglogiannis, I., Jayne, C. (Eds.) Engineering Applications of Neural Networks – EANN 2019. Xersonisos, Crete, Greece. May 24-26. 2019. pp. 391-398. https://doi.org/10.1007/978-3-030-20257-6_33.

  6. B.V. Kryzhanovsky and I.M. Karandashev. Next Neighbors Addition-Induced Change of 2D Ising Model Critical Parameters. // Optical Memory and Neural Networks, Vol. 28. No. 2. pp. 89–94. 2019. https://doi.org/10.3103/S1060992X19020073. (Scopus, Q2, импакт фактор - 0.34 SJR 2019).

  7. I.M. Karandashev. Planar Ising-Spin Models in Probabilistic Machine Learning. // Advances in Neural Computation, Machine Learning, and Cognitive Research II. pp.14-38. 2018. https://doi.org/10.1007/978-3-030-01328-8_2.

  8. B. Kryzhanovsky. M. Malsagov, I. Karandashev. Investigation of finite-size 2D Ising model with a noisy matrix of spin-spin interactions. // Special issue: Entropy and Complexity of Data. Entropy 2018. 20. No. 8. p. 585. https://doi.org/10.3390/e20080585. (WoS, Q2, импакт фактор - 2.494 JCR 2019).

  9. I.M. Karandashev, B.V. Kryzhanovsky, M.Yu. Malsagov. Spectral Characteristics of a finite 2D Ising model. // Optical Memory & Neural Networks (Information Optics), 2018, Vol. 27. No. 3. pp. 147–151. https://doi.org/10.3103/S1060992X18030025 (Scopus, Q2, импакт фактор - 0.34 SJR 2019).

  10. B.V. Kryzhanovsky, M.Yu. Malsagov, I.M. Karandashev. Dependence of Critical Parameters of 2D Ising Model on Lattice Size. // Optical Memory and Neural Networks (Information Optics), 2018, Vol. 27. No. 1. pp. 10–22. https://doi.org/10.3103/S1060992X18010046. (Scopus, Q2, импакт фактор - 0.34 SJR 2019).

  11. I.M. Karandashev, B.V. Kryzhanovsky, and M.Yu. Malsagov. The Analytical Expressions for a Finite-Size 2D Ising Model. // Optical Memory and Neural Networks (Information Optics). 2017, Vol. 26. No. 3. pp. 165–171. https://doi.org/10.3103/S1060992X17030031. (Scopus, Q2, импакт фактор - 0.34 SJR 2019).

  12. Yakov M. Karandashev, Magomed Yu. Malsagov. Polynomial algorithm for exact calculation of partition function for binary spin model on planar graphs. // Optical Memory and Neural Networks (Information Optics). 2017. Vol. 26. No. 2. pp. 87–95. https://doi.org/10.3103/S1060992X17020035. (Scopus, Q2, импакт фактор - 0.34 SJR 2019).

  13. D.V. Negrov, I.M. Karandashev, V.V. Shakirov, Yu.A. Matveyev, W.L. Dunin-Barkowski, A.V. Zenkevich. A Plausible Memristor Implementation of Deep Learning Neural Networks. // Neurocomputing. Volume 237. 2017. Pages 193–199. https://doi.org/10.1016/j.neucom.2016.10.061. (WoS, Q1, импакт фактор - 4.438 JCR 2019). http://www.sciencedirect.com/science/article/pii/S0925231216313042.

  14. D.V. Negrov, I.M. Karandashev, V.V. Shakirov, Yu.A. Matveyev, W.L. Dunin-Barkowski, A.V. Zenkevich. A Plausible Memristor Implementation of Deep Learning Neural Networks. // Front. Syst. Neurosci. 9178, 10.3389/fnsys.2015.00178. 2015, http://arxiv.org/abs/1511.07076.

  15. Yakov M. Karandashev, Magomed Yu. Malsagov. Polynomial algorithm for exact calculation of partition function for binary spin model on planar graphs. // https://arxiv.org/abs/1611.00922.

  16. I.M. Karandashev and B.V. Kryzhanovsky. Matrix Transformation Method in Quadratic Binary Optimization. // Optical Memory and Neural Networks (Information Optics) 04/2015; 24(2). pp. 67-81.
    http://www.researchgate.net/publication/282492662_Matrix_transformation_method_in_quadratic_binary_optimization.

  17. I.M. Karandashev, B.V. Kryzhanovsky. Attraction Area of Minima in Quadratic Binary Optimization. // Optical Memory and Neural Networks (Information Optics), vol.23, No.2, pp.84-88, 2014.

  18. I. Karandashev and B. Kryzhanovsky. Increasing the attraction area of the global minimum in the binary optimization problem. // J. Glob. Optim., V. 56, 3 (2013), pp. 1167-1185, DOI: 10.1007/s10898-012-9947-7.

  19. I. Karandashev, B. Kryzhanovsky and L. Litinskii. Weighted Patterns as a Tool to Improve the Hopfield Model. // Physical Review E 85, 041925 (2012).

  20. Я.М. Карандашев Исследование методов трансформации энергетической поверхности в задачах бинарной минимизации квадратичного функционала. // Автореферат. 2013.
© Центр оптико-нейронных технологий
Федеральное государственное учреждение
Федеральный научный центр
Научно-исследовательский институт системных исследований
Российской академии наук
All rights reserved.
2016 г.