Preview

Труды Института системного программирования РАН

Расширенный поиск

Труды Института системного программирования РАН (Труды ИСП РАН) издаются Институтом в традиционной бумажной форме с 2000 г. (с ISBN). До 2010 г. у издания отсутствовал строгий график выхода очередных выпусков, но обычно каждый год публиковались 1-2 новых "регулярных" тома, а иногда и специальные тематические тома.

С 2010 г. Труды ИСП РАН также публикуются на данном сайте в виде периодического электронного издания с одновременной публикацией небольшим тиражом в бумажной форме (ISSN 2220-6426 (Online), ISSN 2079-8156 (Print)). До начала 2014 г. ежегодно издавались два регулярных тома; по решению редакционной коллегии допускалось издание дополнительных тематических томов. С 2014 г. Труды ИСП РАН издаются в более традиционной форме: один том в год, по шесть выпусков (номеров) в каждом томе.

Это издание зарегистрировано в Федеральном агентстве по печати и массовым коммуникациям как средство массовой информации – научное электронное периодическое издание (регистрационное свидетельство Эл № ФС77-42228), а также в НТЦ "ИНФОРМРЕГИСТР" Федерального агентства по информационным технологиям как электронное научное издание (номер государственной регистрации 0421100143). Издание включено в Перечень ВАК российских рецензируемых научных журналов, в которых должны быть опубликованы основные научные результаты диссертаций на соискание ученых степеней доктора и кандидата наук (позиция в списке 1952).

Текущий выпуск

Том 32, № 1 (2020)
7-26 40
Аннотация

Проектирование механизма управления доступом в операционной системе (ОС), требующей высокого уровня доверия, является сложной задачей. Еще более сложной она стан овится, если требуется интеграция нескольких разнородных механизмов, таких как ролевое управление доступом (role-based access control, RBAC) и мандатное управление доступом (mandatory access control, MAC). Данная статья представляет результаты разработки иерархической интегрированной модели управления доступом и информационных потоков (hierarchical integrated model of access control and information flows, HIMACF), интегрирующей механизмы RBAC, MAC и мандатного контроля целостности (mandatory integrity control, MIC) с сохранением их ключевых свойств безопасности. Эта модель является дальнейшим развитием МРОСЛ-ДП-модели, она формализована на языке Event-B и ее корректность доказана формально. В иерархическом представлении модели каждый ее уровень (или модуль) представляет отдельный механизм управления доступом, благодаря чему модель может быть верифицирована помодульно, что снижает общую трудоемкость ее верификации за счет переиспользования при доказательстве корректности очередного уровня результатов верификации нижележащих уровней. Данная модель реализована в ОС Astra Linux Special Edition на основе инфраструктуры Linux Security Modules (LSM).

27-56 28
Аннотация

Существующие модели мандатного контроля целостности в операционных системах накладывают ограничения на доступы активных компонент системы к пассивным и представляют эти доступы непосредственно. Такое представление можно использовать в случае операционных систем с монолитной архитектурой, где части системы, обеспечивающие доступ к ресурсам, входят в доверенную вычислительную базу. Однако эти части являются нетривиальными компонентами со сложной реализацией, в связи с чем доказательство отсутствия в них ошибок (уязвимостей) и, следовательно, соответствия модели реальной системе – чрезвычайно трудная задача, которая на практике, как правило, полностью не решается. В данной статье представлена модель мандатного контроля целостности для микроядерной операционной системы KasperskyOS. Базирование системы на микроядре предполагает минимизацию доверенной вычислительной базы. При таком подходе доступ к ресурсам предоставляется с помощью компонент, не входящих в доверенную вычислительную базу. Это создает предпосылки для гарантии соответствия системы определенным свойствам безопасности даже в случае некорректного функционирования этих компонент. В модели для представления частей системы, обеспечивающих доступ к ресурсам, введено понятие драйвера объектов, и операции получения доступа активных компонент (сущностей) к пассивным компонентам (объектам) выполняются посредством драйверов объектов. В статье определены требования, которым должны удовлетворять драйверы объектов и некоторые другие сущности. В модель также добавлены элементы, позволяющие провести ее анализ в случае нарушения данных требований. Сформулирована и доказана теорема о постоянном нахождении модели в целостном состоянии (об отсутствии в модели информационных потоков от менее целостных компонентов к более целостным либо несравнимым) в случае удовлетворения всеми сущностями сформулированных требований, а также об ограниченном характере распространения эффекта от нарушения целостности системы в случае наличия в системе компонентов, нарушающих требования. Корректная реализация модели гарантирует, что если компрометирована часть системы, уровень целостности компонентов которой ограничен некоторыми уровнями целостности, то это не приведет к компрометации части системы с более высокими или несравнимыми уровнями целостности. Описан язык спецификации политик мандатного контроля целостности, разработанный в соответствии с правилами модели, и приведен пример использования языка для задания политики безопасности системы, работающей под управлением KasperskyOS. Целью политики является обеспечение безопасности процесса обновления системы.

57-70 55
Аннотация

В работе рассматриваются вопросы создания систем визуализации для бортовых комплексов гражданской авиации. Все программное обеспечение, используемое на борту судна, должно соответствовать международно-принятым стандартам безопасности. Это накладывает дополнительные требования и к используемому оборудованию, и к процессу разработки системы. Данная работа посвящена специфике использования многоядерных процессоров в авиационных встраиваемых системах для повышения производительности программной реализации библиотеки OpenGL SC. Возможность использования многоядерных процессоров в критических для безопасности системах обеспечивается в перспективной российской операционной системе реального времени (ОСРВ) JetOS. Рассматриваются также реализация многооконной визуализации с использованием библиотеки OpenGL SC.

71-88 22
Аннотация

В статье описаны технологии автоматического тестирования программного обеспечения применительно к промышленным системам компьютерной графики и оптического моделирования. Автоматизация тестирования становится жизненно необходимой в условиях ограниченности ресурсов при частом выпуске версий, которые нередко возникают у производителей программного продукта. Представлены как методы регрессионного тестирования вычислительного ядра таких комплексов, так и способы тестирования пользовательского интерфейса. Для регрессионного тестирования используется механизм сценариев на языке Python. Рассмотрены методы его распараллеливания, которые позволяют значительно сократить время тестирования. Поскольку в оптическом моделировании широко применяются стохастические методы, результаты расчетов могут отличаться, что осложняет регрессионное тестирование. В этом случае предлагается применять некоторый порог при сравнении результатов. Автоматизированные тесты для тестирования пользовательского интерфейса разработаны на основе инструмента AutoIt. Отдельно описаны подходы к тестированию пользовательского интерфейса систем, реализованных в виде дополнений (plug-in) к существующим комплексам автоматизации проектирования, исходный код которых закрыт и недоступен для авторов автоматических тестов.

89-108 20
Аннотация

В данной статье рассматриваются существующие подходы к сравнению видеокодеков, показываются недостатки некоторых популярных методов и предлагаются новые методики. С помощью анализа коллекции пользовательских видео показано, что один из популярных среди исследователей и разработчиков видеокодеков открытый набор видео не является репрезентативным с точки зрения соответствия реальным пользовательским видео. Также предложен метод создания репрезентативных наборов видео, покрывающих все сегменты пространственной и временной сложности пользовательских видеопоследовательностей. В разделе статьи, посвященном алгоритмам оценки качества видео, используемым в сравнениях видеокодеков, показаны недостатки популярных методов VMAF и NIQE. Также в статье показаны недостатки общепринятого метода финального ранжирования видеокодеков при проведении сравнений (BD-rate), и с учетом выявленных недостатков предложен алгоритм ранжирования, названный BSQ-rate. Данные результаты были получены в процессе исследований, проводимых в рамках ежегодных сравнений, организуемых видеогруппой лаборатории компьютерной графики и мультимедиа МГУ.

109-120 16
Аннотация

Дополненная реальность, как результат введения в поле восприятия данных, обеспечивающих лучшую визуализации информации, все больше привлекает внимание специалистов в области программного обеспечения для демонстрационных комплексов и геоинформационных систем. Наглядность визуализируемой информации имеет важное значение как для работы оператора, так и пользователей информационной системы. Использование закономерностей зрительного восприятия объектов, связанных со свойствами «золотого» сечения, позволяет сформулировать критерий наглядности визуализируемых данных, характеризующий комплексное восприятия информации, отображаемой на экране видеомонитора или проекционной панели. Цель представленного в статье исследования заключается в определении критерия наглядности визуализируемых данных на основе свойств «золотого» сечения и исследования условий ее обеспечения на примере отображения метаданных на экране монитора и проекционной панели. Критерий наглядности визуализации данных определяется через коэффициент покрытия площади экрана информацией. Оптимальное значение коэффициента соответствует математическому определению «золотого» сечения. В качестве результата исследования следует выделить анализ свойств «золотого» сечения при отображении информации и определение критерия наглядности визуализации данных, что позволяет операторам и потребителям комплексно воспринимать видеоданные на электронных средствах проекции. Разработаны итерационные алгоритмы выбора масштаба отображения данных по критерию наглядности: алгоритм анализа отображаемых данных слоя на примере электронной карты и алгоритм последовательного анализа слоев. Исследовано влияние масштаба отображаемых данных на наглядность их визуализации на экранах различных размеров. Практическая ценность результатов состоит в том, что предложенный критерий представляет математическую трактовку свойства «золотого» сечения для визуализации информации на современных электронных средствах отображения данных.

121-136 19
Аннотация

Цель исследования заключается в разработке и тестировании алгоритмов для распознавания по видео людей и инструментов, с которыми они работают в конкретный момент времени. В рамках исследования в качестве базового решения был предложен и реализован алгоритм, состоящий из нескольких этапов: распознавание в видео-кадрах людей и определение координат краевых точек прямоугольника, в котором находится человек; определение в видео кадрах координат ключевых точек обнаруженных людей; распознавание в видео-кадрах инструментов и определение координат их краевых точек; определение инструментов, с которыми человек работает в конкретный момент времени (время считается по номеру кадра из видео). Для реализации алгоритма было проведено исследование, в ходе которого было протестировано дообучение существующих моделей компьютерного зрения для следующих задач компьютерного зрения: детекция объектов (Object detection) и людей, в частности, определение ключевых точек людей (Pose estimation), наложение объектов (Object Overlaying). В качестве метрики для мультиклассификационной задачи определения инструментов, которые находятся в руках у человека в каждом кадре (Object Overlaying), использовались следующие показатели: точность, чувствительность и f1-мера. Алгоритм запущен на web-сервисе и протестирован специалистами.

137-152 18
Аннотация

Представлен обзор эффективных алгоритмов вероятностного тематического моделирования больших текстовых коллекций. Рассматриваются алгоритмы обучения моделей латентного размещения Дирихле (LDA) и аддитивно регуляризованных тематических моделей (ARTM) для многопроцессорных систем. Предложена систематизация технических приёмов для организации параллельных вычислений, распределённого хранения данных, потоковой обработки, уменьшения потребления оперативной памяти, повышения отказоустойчивости. Проведён сравнительный анализ доступных реализаций.

153-180 31
Аннотация

Многие специалисты в области управления данными считают, что появление доступной для практического использования энергонезависимой байт-адресуемой основной памяти (Non-Volatile Main Memory, NVM) приведет к появлению нового вида сверхскоростных систем управления базами данных (СУБД) с одноуровневым хранением данных (NVM-ориентированных СУБД). Однако, как отмечается во введении данной статьи, число исследователей, активно занимающихся исследованиями архитектур NVM-ориентированных СУБД, за последние годы не возросло. Наибольшую активность проявляют молодые исследователи, не боящиеся рисков, которые, безусловно, имеются в этой новой области. Во втором разделе статьи рассматривается состояние дел в области аппаратных средств NVM. Анализ показывает, что NVM в форм-факторе DIMM уже стали реальностью, и что в ближайшем будущем можно ожидать появления на рынке NVM-DIMM со скоростью обычной DRAM и стойкостью, близкой к стойкости жестких дисков. Третий раздел посвящен обзору родственных работ, среди которых наиболее продвинутыми представляются работы молодых исследователей Джоя Арулраджа и Исмаила Укида. В четвертом разделе мы утверждаем и обосновываем, что работы, выполненные к настоящему времени в области NVM-ориентированных СУБД, не привели к появлению чистой архитектуры. Этому мешает анализируемый нами набор ограничивающих факторов. В связи с этим, в пятом разделе мы приводим набросок «чистой» архитектуры NVM-ориентированной СУБД, на выбор которой влияют только стремление к простоте и эффективности. В заключение подводятся итоги статьи и утверждается потребность в дополнительном исследовании многих аспектов «чистой» архитектуры NVM-ориентированной СУБД.

181-204 91
Аннотация

Термин «большие данные» относится к объемным коллекциям цифровых данных, генерируемых каждую секунду. Производимые наборы данных представлены в структурированном, полуструктурированном и неструктурированном форматах по всему миру, и их трудно анализировать с применением традиционных систем управления базами данных. В последнее время аналитика больших данных становится важной областью исследований из-за популярности Интернета и появления новых веб-технологий. Эта растущая область исследований представляет собой междисциплинарную деятельность, которая привлекает исследователей из различных областей. Исследователи проектируют, разрабатывают и внедряют инструменты, технологии, архитектуры и платформв для анализа этих больших объемов данных. Эта статья начинается с краткого введения в проблематику большие данные и связанные с ними концепции, включая основные характеристики больших данных, после чего обсуждаются наиболее важные открытые исследовательские проблемы и возникающие тенденции. Далее приводится обзор исследований в области аналитики больших данных, обсуждаются преимущества использования решений для больших данных и обсуждаются виды оценок, требуемых перед переходом с традиционных решений. Наконец, представлен обзор основных существующих приложений, обеспечивающий общую панораму аналитики больших данных.

205-220 29
Аннотация
По мере увеличения производительности и роста объёма оперативной и внешней памяти, наряду с уменьшением стоимости оборудования, производительность СУБД для некоторых классов запросов всё чаще определяется характеристиками процессора и эффективностью его использования. Для исполнения SQL-запросов в реляционных СУБД используется различные модели выполнения, которые отличаются характеристиками, но так или иначе подвержены существенным накладным расходам при интерпретации плана запроса. Накладные расходы связаны с большим количеством ветвлений, неявными вызовами функций-обработчиков и выполнением лишних проверок. Одно из решений — динамическая компиляция запросов, которая оправдана только в том случае, когда время, затрачиваемое на интерпретацию запроса, превосходит время, затрачиваемое на компиляцию и выполнение оптимизированного кода. Данное требование может быть удовлетворено только тогда, когда объем обрабатываемых запросом данных достаточно велик. Если время интерпретации запроса исчисляется миллисекундами, то затраты на динамическую компиляцию могут в сотни раз превосходить время выполнения сгенерированного машинного кода. Чтобы оправдать расходы, затрачиваемые на динамическую компиляцию таких запросов, необходимо иметь возможность повторного использования сгенерированного машинного кода в последующих выполнениях, тем самым избавившись от затратных операций по его оптимизации и компиляции. В рамках данной работы рассматривается метод кэширования машинного кода в динамическом компиляторе запросов СУБД PostgreSQL. Предлагаемый метод позволяет избавиться от накладных расходов, затрачиваемых на оптимизацию и компиляцию. Результаты проведенного тестирования показывают, что динамическая компиляция запросов с возможностью переиспользования машинного кода позволяет получить существенное ускорение на запросах типа OLTP.


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.