Preview

Труды Института системного программирования РАН

Расширенный поиск
Том 34, № 2 (2022)
7-16
Аннотация

Одним из ключевых аспектов корректности подсистемы памяти микропроцессора является ее функционирование в соответствии с протоколом когерентности памяти. В данной статье представлен подход к генерации тестовых программ для верификации когерентности памяти микропроцессоров семейства "Эльбрус". Рассмотрены требования к тестовым программам когерентности памяти. Представлена структура карты памяти, позволяющая гибко описывать используемые в тестовых программах области памяти и типы обращений к ним. Описан метод генерации тестовых программ на основе карты памяти. Предложен способ автоматической генерации карт памяти. Сгенерированные тестовые программы использовались при проведении верификации на RTL-моделях и прототипах на базе ПЛИС.

17-24
Аннотация

Автоматизированное тестовое покрытие на данный момент является широко распространенной практикой в долгосрочных проектах разработки программного обеспечения. Согласно подходу к разработке тестов, каждый автоматизированный тест должен повторно использовать функции, реализованные в тестовой среде. Представленное исследование направлено на совершенствование подхода к разработке тестовой среды с использованием методов обработки естественного языка. Алгоритм включает следующие этапы: подготовка тестовых сценариев; преобразование абзацев сценария в синтаксическое дерево с использованием предварительно обученной модели OpenIE; сравнение шагов тестирования с интерфейсами тестового фреймворка с использованием модели GloVe; преобразование заданного семантического дерева в код языка Kotlin. Статья содержит описание прототипа системы автоматической генерации языковых тестов Kotlin из спецификации на естественном языке.

25-42
Аннотация

Современное программное обеспечение стремительно развивается, принося новые ошибки, и все больше компаний следуют безопасному циклу разработки ПО. Одними из самых популярных средств для поддержки безопасного цикла разработки являются фаззинг и символьная интерпретация программ, позволяющие автоматически тестировать программу и искать в ней ошибки. Гибридный фаззинг — наиболее эффективный подход, который заключается в применении комбинации этих двух техник, при котором две техники работают совместно. Другим способом искать программные ошибки является символьная интерпретация с использованием предикатов безопасности — условий на входные данные, при выполнении которых будет проявлена ошибка. В этой работе мы предлагаем метод автоматизированного поиска ошибок с помощью динамической символьной интерпретации, совмещающий гибридный фаззинг с проверкой предикатов безопасности. Гибридный фаззинг требуется для получения большого количества различных входных данных, а ошибки работы с памятью и неопределенного поведения в программах ищут предикаты безопасности, которые позволяют находить ошибки деления на нуль, выхода за границы массива, целочисленного переполнения и другие. Результаты работы предикатов безопасности верифицируются с помощью санитайзеров, чтобы отбросить ложно положительные срабатывания. В результате практического применения предложенного метода к программам с открытым исходным кодом было найдено 11 различных новых ошибок в 5 разных проектах.

43-56
Аннотация

Разработка и эксплуатация систем, основанных на знаниях, осложняется рядом проблем обеспечениях жизнеспособности, которые неизбежно возникают в областях с интенсивным использованием данных таких, например, как, анализ социальных сетей и медиа (Social Network Analysis, SNA). Во многом это связано со свойствами слабоструктурированных объектов и процессов, которые подвергаются анализу специалистами с привлечением методов автоматизированной обработки данных (data mining, машинное обучение, BI-анализ и пр.). Для того чтобы аналитическая платформа, основанная на знаниях, была жизнеспособной, она должна обеспечивать интеграцию разнородной информации, включать интерпретацию информации в понятном для разных категорий пользователей виде и поддерживать инструменты для расширения функциональности. В данной работе предложены онтологический подход к интеграции информации и паттерны проектирования для разработки ядра аналитической платформы, отвечающего за управление репозиторием онтологий, генерацию предметно-ориентированных языков (Domain-Specific Languages, DSL) и синхронизацию программного кода с DSL-моделями.

57-66
Аннотация

Целью данной работы является исследование возможности применения акторного подхода для моделирования бизнес-процессов разработки аналитических систем. В исследовании анализируются существующие проблемы управления процессами разработки аналитических систем, определяются основные подходы к моделированию бизнес-процессов и предлагается подход к моделированию на основе акторного подхода, обладающий высокой гибкостью и улучшенным контролем над бизнес-артефактами. В статье также описаны примеры возможного применения данного подхода в инструменте управления бизнес-процессами.

67-76
Аннотация

В наше время для обеспечения конкурентоспособности, эффективноти и привлекательности для инвесторов компаниям нужны надежные и устойчивые к угрозам бизнес-процессы. Остается актуальным вопрос о методах построения таких бизнес-процессов. В данной статье предлагается программная система, которая предполагает использование методов и инструментов DSM (Domain Specific Modeling), онтологического подхода, методов имитационного моделирования, теории массового обслуживания, сетей Петри. В качестве примера рассматривается логистический процесс погрузки судов в порту. Программными средствами, реализующими имитационное моделирование и DSM, являются ANYLOGIC и METALANGUAGE.

77-88
Аннотация

В статье исследуются различные стратегии семплирования текстовых данных при выполнении автоматической классификации предложений с целью обнаружения недостающих библиографических ссылок. Построение семплов осуществляется на основе предложений в качестве семантических единиц текста, к которым добавляется их непосредственный контекст, состоящий из нескольких соседних предложений. Исследуется ряд стратегий семплирования, которые различаются размером и положением контекста. Эксперимент проведен на данных из сборника научных работ по естественнонаучной и инженерной тематике. Показано, что включение контекста предложений в семплы улучшает результат классификации предложений. Предложен метод автоматического определения оптимальной стратегии семплирования для данной текстовой коллекции: оптимальная стратегия определяется результатом голосования одинаковых классификаторов, получающих на вход одни и те же данные, семплированные различными способами. Семплирование с учетом контекста предложения в сочетании с процедурой жесткого голосования (hard voting) показало точность классификации 98% (оценка F1). Предложенный подход к обнаружению недостающих библиографических ссылок может использоваться в рекомендательных модулях прикладных интеллектуальных информационных систем.

89-110
Аннотация

Работа посвящена повышению качества результатов сегментации изображений документов различных научных статей и нормативно-правовых актов нейросетевыми моделями путём обучения с использованием модифицированных функций потерь, учитывающих особенности изображений выбранной предметной области. Проводится анализ существующих функций потерь, а также разработка новых функций, оперирующих, как только координатами ограничивающих прямоугольников, так и использующих информацию о пикселях входного изображения. Для оценки качества выполняется обучение нейросетевой модели сегментации с модифицированными функциями потерь, а также проводится теоретическая оценка с помощью симуляционного эксперимента, показывающего скорость сходимости и ошибку сегментации. В результате исследования созданы быстро сходящиеся функции потерь, улучшающие качество сегментации изображений документов с использованием дополнительной информации о входных данных.

111-122
Аннотация

Работа посвящена исследованию и разработке системы управления заданиями автоматизированного сбора данных из сети Интернет. Статья содержит описание реализованных методологий и повествует о созданных приемах взаимодействия с контейнерами, содержащими в себе приложения для сбора данных. В ходе работы были изучены и представлены существующие различные сервисы автоматизированного сбора данных из сети Интернет: готовые решения с открытым исходным кодом, облачные сервисы с обширным функционалом, а также собственное решение под управлением Kubernetes. В результате работы реализована и внедрена в платформу для анализа данных Talisman система управления заданиями, которая обеспечивает горизонтальную масштабируемость, изолированность окружения сборщиков и независимость от технологии их разработки.

123-134
Аннотация

Данная работа посвящена исследованию средств автоматизации управления приложениями с сохранением состояния в среде Kubernetes, в частности объектными системами хранения данных. Произведён обзор существующих инструментов управления, способных решить поставленные задачи, на основе которого дана сравнительная характеристика рассмотренных средств и выбран инструмент, удовлетворяющий введённым критериям. По результатам сравнительного анализа представлен подход автоматического управления объектным хранилищем с помощью Operator SDK и Custom Resource Definition. Предложена архитектура системы управления контейнеризированной версией СХД на платформе Kubernetes и интеграции оператора с пользовательской системой мониторинга. Описанный подход реализован в программном средстве - операторе ресурса объектной системы хранения данных. В работе описаны детали реализации программного обеспечения, структура дескриптора пользовательского ресурса хранилища и методы тестирования конечной системы. В результате была получена система управления объектной СХД на платформе Kubernetes, что позволило сократить как трудозатраты по содержанию и обслуживанию системы, так и её стоимость за счёт уменьшения зависимости от аппаратного обеспечения.

135-144
Аннотация

Использование значений индикатора уровня принятого сигнала (RSSI) для обнаружения присутствия человека является хорошо известным методом определения Wi-Fi. В данной статье рассматривается обзор существующих алгоритмов, решающих эту задачу. Предложены два новых метода, основанных на дискретном фильтре Колмогорова-Винера и нейронной сети с управляемыми рекуррентными нейронами. Представлены результаты эксперимента по обнаружению человека вместе с анализом точности алгоритмов.

145-158
Аннотация

Для организаций, которые осуществляют контроль особо охраняемых природных территорий Российской Федерации, актуальна задача по консолидации данных о проводимых наблюдениях. Эти данные, называемые летописями природы, долгое время велись в упрощенной, бумажной форме и не имели четкой структуры. Задача автоматизации бизнес-процессов по сбору данных и обменом этими данными между участниками научного сообщества, а также построение аналитических моделей, необходимых для научных подразделений парков и заповедников, является важной и актуальной. В связи с этим актуальна автоматизация процесса экологического мониторинга путём разработки модуля электронного документооборота на базе интеграционной платформы для бизнес-решений Directum RX. Цель исследования заключается в автоматизации процесса экомониторинга на базе платформы Directum RX, которая позволяет построить систему управления корпоративным контентом, а также создать полноценную систему хранения и поиска данных по сбору информации о наблюдениях. В статье описана ролевая модель для работы с системой, архитектура системы и разработанные компоненты модуля «Экомониторинг» на базе платформы Directum RX. Для этого был использован структурный метод путем разбиения задачи на множество независимых этапов, доступных для понимания и решения с помощью иерархического упорядочивания. Разработана интеграция с сервисом Яндекс погода с целью дальнейшего использования в аналитических моделях. Разработано решение по управлению универсальным классификатором животных в соответствие с принятом в мире классификатором биологической систематики. Продемонстрирована автоматизация действий пользователей по сбору и обработке информации о наблюдениях. В результате работы был автоматизирован процесс экологического мониторинга в одном из заповедников Российской Федерации.

159-178
Аннотация

В данной работе приводится общее описание программного обеспечения Slurm-ВНИИТФ, разработки ФГУП РФЯЦ-ВНИИТФ им. академ. Е.И. Забабахина, включая его архитектуру и возможности по управлению ресурсами и планированию прохождения задач на высокопроизводительных вычислительных системах, предназначенных для решения задач численного моделирования (ВВС). Проведенные в ходе многолетних работ, связанных с эксплуатацией ВВС, исследования, показывают, что базовых возможностей программного обеспечения Slurm (Simple linux utility for resource management) явно недостаточно для эффективного использования вычислительных ресурсов в крупных вычислительных центрах, поэтому авторами данной публикации предлагается усовершенствованная политика управления задачами и ресурсами, описываются модули расширения (плагины) к Slurm, разработанные в ФГУП РФЯЦ-ВНИИТФ им. академ. Е.И. Забабахина и реализующие эту политику.

 

179-190
Аннотация

Статья посвящена проблеме донорства крови и возможным путям популяризации этой деятельности с использованием современных информационных технологий. Анализируются существующие программные решения и предлагается новое веб-приложение, реализующее все функции, необходимые потенциальным донорам крови, чтобы сделать этот процесс более понятным и комфортным.

191-200
Аннотация

Представление последовательности ДНК возможно в различном виде. Граф вариации один из самых точных методов, который позволяет работать с нетипичными участками и учитывать все их разнообразие. На основе этой структуры данных и метода полигенной оценки риска была построена система интерпретации ДНК. В результате был получен коэффициент корреляции между путем в графе, отвечающим за конкретную последовательность ДНК, и признаком. Затем мы сравнили его с коэффициентом, полученным аналогичным методом, но использующим представление последовательности с использованием эталонного генома. Такое сравнение помогло оценить эффективность представления в виде графа. После этого был построен модифицированный метод подсчета полигенной оценки на данных выравнивания инструмента vg, который также был сравнен с существующими методами. Модифицированный метод показал улучшение прогноза признака.

201-208
Аннотация

С развитием современных технологий в медицинских организациях появилась возможность модернизировать существующие методы мониторинга здоровья населения и выявления заболеваний. Использование телемедицины позволит сократить расходы и повысить эффективность и доступность медицинских услуг, включая мониторинг состояния здоровья с помощью удаленной (за пределами медицинских и профилактических учреждений) регистрации и обработки ЭКГ, с помощью которой можно обнаружить заболевания на начальных этапах. В настоящей работе предлагается подход к отображению данных пользователям телемедицинских систем раннего обнаружения заболеваний с помощью ЭКГ без участия медицинского персонала. Данный подход может быть использован при разработке графического интерфейса телемедицинских систем раннего обнаружения заболеваний с помощью ЭКГ.



Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 2079-8156 (Print)
ISSN 2220-6426 (Online)