В статье рассматривается задача оценки карты разводимости при проектировании интегральных схем на этапе размещения цифровых блоков с использованием нейросетевых моделей. Раннее прогнозирование разводимости позволит инженеру-проектировщику схем изменить план размещения, расположение макросов и портов ввода-вывода, чтобы предотвратить проблемы с маршрутизацией межсоединений на более поздних этапах, тем самым сократив количество запусков инструментов автоматизации электронного проектирования и общее время разработки схемы. В работе предлагается использовать начальные параметры топологии, которые не учитывались в предыдущих работах и позволяют моделям делать более точные прогнозы карты разводимости.
Описывается метод синтеза самопроверяемых цифровых устройств с улучшенными показателями контролепригодности, основанный на синтезе схем встроенного контроля путем логической коррекции сигналов и применении кода Хэмминга (7, 4) с контролем вычислений по двум диагностическим признакам. В качестве признаков используется принадлежность кодовых слов коду (7, 4) и самодвойственность каждой функции, описывающей информационные и проверочные символы кода. Представлены «базовая» структура организации схемы встроенного контроля для семивыходного комбинационного устройства, в которой используются типовые блоки (кроме блока вычисления функций логической коррекции) и алгоритм синтеза блока вычисления функций логической коррекции, отвечающего условиям обеспечения самодвойственности формируемых сигналов и принадлежности кодовых слов коду (7, 4). Исследованы особенности применения «базовой» структуры организации схем встроенного контроля при контроле вычислений устройствами с числом выходов n > 7. С ростом n показатели сложности технической реализации типовых компонентов отдельных схем встроенного контроля уменьшаются в сравнении с традиционным методом дублирования, однако за счет роста сложности компаратора общие показатели сложности их технической реализации, наоборот, растут. Это приводит к уменьшению роста «запаса эффективности по структурной избыточности» предлагаемого метода с ростом n. Эффективность применения представленного метода по сравнению с дублированием может быть достигнута при существенном уменьшении показателей сложности отдельных блоков вычисления функций логической коррекции (с учетом возможностей по совместной оптимизации их структур). Предварительная оценка позволяет рекомендовать использование разработанного метода для частных случаев объектов диагностирования с небольшим числом выходов (не более 30). В каждом конкретном случае, однако, нужно проводить оценку эффективности по сравнению с дублированием. В сравнении с дублированием по показателю контролепригодности метод оказывается более выигрышным, поскольку дает возможность более просто обеспечивать формирование тестов для элементов схемы встроенного контроля, чем при использовании дублирования и позволяет достигать их формирования даже в тех случаях, когда это невозможно при дублировании. Предложенный метод синтеза самопроверяемых устройств может рассматриваться при проектировании высоконадежных цифровых систем на современной элементной базе.
Авторами рассматривается задача PIR (Private Information Retrieval) обеспечения безопасных запросов к базе данных, размещенной на облаке при наличии активного противника, который не вмешивается в выполнение протокола, но может производить атаку с известными открытыми запросами. Для представления номера бита i в виде числа, все цифры которого различны, в предложенных алгоритмах применяется система счисления по основанию l с числом разрядов d. Использование перестановок цифр номера запрашиваемого бита в качестве секретных ключей шифрования уменьшает вероятность угадывания номера бита. Хранящиеся на облаке биты исходной базы данных группируются в виде массивов, что позволяет снизить коммуникационную сложность. Используется датчик псевдослучайных чисел для замены значения бита в зависимости от запрашиваемого клиентом номера бита i. Это позволяет в случае сговора пассивного противника, находящегося на облаке, и активного противника вне облака, затруднить сопоставление значения бита конкретному номеру. Приведены оценки коммуникационной сложности, вероятности угадывания номера бита при однократной атаке с известным открытым запросом номера бита i и при атаке с неограниченным числом известных открытых запросов.
Статья посвящена разработке моделей деструктивного воздействия на целостность моделей машинного обучения на основе SIR-прогнозирования масштаба угроз и рисков при различных сценариях развития компьютерных атак. В статье представлена оригинальная модель угроз информационной безопасности техническим компонентам искусственного интеллекта в условиях разнородно массовых компьютерных атак, отображающая уязвимые места и способы возможных действий злоумышленников. Авторами разработана методология адаптации модернизированных SIR-моделей природных эпидемий для выявления подобия и аналогов в характере распространения деструктивных сбоев в системах ИИ, вызванных разнородно-массовыми и таргетированными воздействиями. Выявленные закономерности позволили оценить риски возможного ущерба целостности и разработать эффективные стратегии предотвращения и исправления искажений моделей машинного обучения.
В последнее время начали исследовать область состязательных атак на метрики качества изображений, в то время как область защиты от них остается малоизученной. В данном исследовании мы стремимся охватить эту область и проверить возможность переноса защиты от атак с классификаторов изображений на методы оценки качества изображений. В этой работе мы применили несколько широко распространенных атак на модели оценки качества изображений и проверили успешность защиты от них. Методологии очистки охватывают различные техники предварительной обработки, включая геометрические преобразования, сжатие, очищение от шума и современные методы на основе нейронных сетей. Кроме того, мы рассматриваем проблему оценки эффективности методов защит, предлагая способы оценки визуального качества выходных данных и успешности нейтрализации атак. Мы тестируем защиту от атак на три метрики IQA – Linearity, MetaIQA и SPAQ.
Предлагается новый метод матирования видео с людьми на основе нейросетей, не требующий дополнительных входных данных, таких как тернарные карты. Разработанная нейросетевая архитектура достигает стабильности получаемых карт прозрачности во времени за счёт свёрточных LSTM-модулей в прямых соединениях U-Net в сочетании со сглаживанием карт сегментации на основе поблочной оценки движения. Также предлагается алгоритм генерации искусственного движения, генерирующий обучающие видеоклипы для сети матирования видео, используя фотографии с эталонными картами прозрачности и фоновые видео. К фотографиям и их картам прозрачности применяются случайные карты сдвигов, имитирующие движение в реальных видео. Затем производится композиция результата с фоновыми клипами. Искусственное движение позволяет обучать глубокие нейросети, работающие с видео, в отсутствие большого размеченного набора видеоданных, и предоставляет эталонный оптический поток переднего плана обучающих видео для использования в функциях потерь.
В статье рассматриваются современные подходы к повышению производительности вычислительных систем на основе системы остаточных классов. Цель исследования – анализ специальных наборов модулей системы остаточных классов, которые позволяют проводить ключевые вычислительные операции, такие как сложение, обратное преобразование и определение знака, с минимальными затратами. Экспериментальные результаты показали, что базис {2^n-1,2^n,2^n+1} оказался наиболее эффективным среди трех модульных наборов. Данный базис является перспективным для использования в высокопроизводительных вычислительных системах.
Полупроводниковый диод и полевой транзистор с заземлённым затвором (GGMOS) часто используются в качестве элементов защиты от электростатического разряда (ЭСР) в схемотехнике КМОП ИМС. В статье представлена реализация макромоделей данных компонентов с использованием ПО для схемотехнического моделирования с открытым исходным кодом. Предложенные модели могут служить для моделирования воздействия ЭСР на ИМС. Подобное моделирование позволяет оценить стойкость ИМС к воздействию ЭСР на ранней стадии проектирования.
Применение расчетных инструментов с открытым исходным кодом довольно распространенная практика в академической среде. Использование подобных инструментов в отрасли сопряжено с определенными рисками и сложностями. Однако, реалии и актуальные вызовы вынуждают отраслевые предприятия пересмотреть подходы к организации труда в части расчетных работ и математического моделирования, диверсифицировать имеющиеся методики и инструменты. В данной публикации описан опыт комплексного применения программного обеспечения с открытым исходным кодом в разработке авиационной техники, а также изложены преимущества и недостатки такого подхода, пути его дальнейшего развития. Рассмотрены система управления проектами OpenProject, система управления версиями Gitea, набор инструментов многодисциплинарной оптимизации OpenMDAO, параметрический редактор геометрии летательных аппаратов с возможностью расчета аэродинамических характеристик OpenVSP, программный комплекс численного моделирования течения жидкостей и газов OpenFOAM.
В работе представлено исследование по выбору наиболее релевантных векторных представлений для текстов на русском языке, которые используются в метрике BERTScore. Эта метрика используется для оценки качества сгенерированных текстов, которые могут быть получены в результате решения таких задач, как автоматическое реферирование текстов, машинный перевод и др.
В данной статье мы рассматриваем задачу анализа тональности новостных статей, посвященных санкциям против России, с особым вниманием к вторичным санкциям. С учетом геополитической напряженности, влияющей на мировые события, понимание тональности новостей о санкциях имеет важное значение для политиков, аналитиков и широкой общественности. Мы изучаем вызовы и особенности анализа тональности в данном контексте, учитывая языковые сложности, геополитическую динамику и предвзятость данных в новостных материалах. Используя методы обработки естественного языка и модели машинного обучения, включая большие языковые модели (LLM), одномерные сверхточные слои (Conv1D) и полно связные нейросети (FFN), мы стремимся извлечь информацию о тональности из новостных статей. Наш анализ предоставляет ценные сведения об общественном мнении, реакции рынков и геополитических тенденциях. В рамках данной работы мы стремимся осветить тональный ландшафт, связанный с санкциями против России, и их более широкие последствия.
Большим языковым моделям (LLM) находят применение в самых различных областях благодаря растущим способностям в задачах обработки естественного языка. Внедрение LLM в системы, ошибки которых могут нести негативные последствия, требует всестороннего изучения достоверности их работы. Оценка фактуальности LLM позволяет понять, насколько сгенерированный текст соответствует реальным фактам. Существует множество фактологических систем сравнения, но лишь небольшая их часть проверяет знания моделей в российской доменной области. В подобных оценочных стандартах избегают дискуссионных и чувствительных тем, в отношении которых у России существует вполне сформированная позиция. Для преодоления проблемы неполноты чувствительных оценок нами был разработан бенчмарк SLAVA, состоящий из четырнадцати тысяч вопросов в российском домене, представляющих различные области знания. При оценке фактуальности для каждого вопроса измерялось свойство провокативности, определяющее степень чувствительности респондента к запрашиваемой теме. Результаты исследования позволили сформировать рейтинг мультиязычных LLM по ответам на вопросы значимых тематик: истории, политологии, социологии и географии. Проведенное исследование может стимулировать появление новых фактологических систем сравнения, которые будут способствовать гармонизации инфопространства, формированию мировоззренческого суверенитета.
Работа посвящена изучению когнитивной функции, связанной с генерацией эллиптических предложений в русском языке. Тестирование этой функции проводилось с помощью системы с открытым исходным кодом. Материал для тестирования охватывает только глагольные и именные эллипсисы, теоретически полностью восстановимые на основе контекста. В качестве материала тестирования были выбраны тексты планиметрических задач. При анализе результатов тестирования выявлены следующие факты: влияние знаний респондента в предметной области (планиметрии) на понимание предложений и на понимание синтаксических правил конструирования эллипсисов; тенденция к самообучению респондентов; тенденция респондентов удалять из предложений любые фрагменты, которые они считают избыточными. Таким образом, когнитивная функция формирования эллипсисов имеет интегративный характер и включает лингвистическую составляющую (синтаксис), знание предметной области и мыслительные операции формирования предложений. В связи с выявленной сложностью тестируемой функции усложняется и задача оценки результатов тестирования. Статья посвящена рассмотрению различных моделей оценивания работы респондентов как на интегральной основе, так и по отношению к каждой выявленной составляющей когнитивной функции.
Классификация самодийских языков в последние годы является одной из наиболее спорных тем исследования. В последние десятилетия предложено как минимум 6 различных классификаций, которые противоречат друг другу. Нет ни одной дочерней группы самодийских языков, по поводу существования которой все авторы были бы согласны. В статье проанализированы как современные словари, собранные в экспедициях от последних носителей, так и наиболее ранние словники самодийских языков, доступные в глобальной сети посредством платформы ЛингвоДок.
Целью данной работы является описание некоторых фонетических, морфологических и лексических особенностей английского языка аборигенов Австралии, обнаруженных в ходе анализа текстов на этом варианте английского языка с помощью платформы LingvoDoc и программы Praat. В исследовании изложены методы, цели и преимущества использования лингвистической платформы LingvoDoc для выявления и систематизации грамматических и лексических особенностей английского языка аборигенов Австралии. Многие исследователи отмечают, что английский язык австралийских аборигенов является отдельным этнолектом, отличающимся от английского, на котором говорят австралийцы британского происхождения. Используя LingvoDoc для создания ряда словарей, описывающих особенности, характерные для английского языка аборигенов в конкретных регионах Австралии, мы можем делать выводы о корреляциях между лексическими и грамматическими особенностями этого этнолекта и различными экстралингвистическими факторами. Исследуемые тексты включают записи интервью со старейшинами, музыкантами, учителями и художниками коренного австралийского происхождения, а также тексты песен и личные истории. Информанты происходят из разных мест по всей Австралии и принадлежат к различным возрастным группам от подросткового до пожилого возраста. Тексты были сгруппированы по местам происхождения информантов, и для каждого из этих мест был создан отдельный словарь в Lingvodoc. Каждый словарь был прикреплен к населенному пункту на карте мира, что помогло нам отследить корреляцию между происхождением информантов и грамматическими (лексическими) характеристиками их речи. Этот метод показывает, какие лингвистические паттерны могут быть характерны для говорящих из определенных географических областей, тем самым раскрывая возможные корреляции. Фонетическая часть нашего исследования направлена на выявление различий между формантами гласных в стандартном австралийском английском и в английском языке аборигенов Австралии.
Статья посвящена выявлению распределения маркирования двойственного числа существительных аналитическим и синтетическим способом в южных, переходных, центральных и северных диалектах и говорах селькупского языка. В качестве материала послужили корпусные данные объемом более 85000 словоформ, расположенные на цифровой платформе Lingvodoc и в личных архивах (файлы программы Fieldworks Language Explorer), а также общие грамматические и лексические труды по языку. Было выявлено, что использование базового селькупского суффикса двойственного числа ‑q(V) вместе с существительными в селькупских диалектах распределено неоднородно – показатель не обнаруживается в ряде материалов, когда присоединяется напрямую к основе (переходные говоры, южная часть нарымского диалекта), однако используется везде с одушевленными существительными, обозначающими совокупность двух однородных предметов при помощи суффиксов взаимной связи -sa- и собирательного множества ‑mɨ-. В южной части нарымского диалекта и в переходных говорах фиксируются новообразования дуалиса в виде показателей -štja или ‑štjaq(V). В васюганских и северных материалах представлены случаи появления удвоенного дуалиса с суффиксами взаимной связи или собирательного множества: -sa- / -mɨ- + -qV-q(V). Следует отделять более северную и южную части нарымского диалекта, где в первом случае появляется суффикс двойственного числа ‑q(V), а во втором отмечаются инновации в виде -štja и ‑štjaq(V). Во всех селькупских материалах главной или одной из главных стратегий маркирования двойственности существительных является аналитическая стратегия, при которой используется числительное sitte ‘два’ и существительное в единственном (в отдельных случаях во множественном) числе.
Основной целью данной работы является разработка новой модели для задачи экстрактивной суммаризации текстов, которая использует скрытую кластерную структуру текста. Авторы предлагают двухэтапный подход, включающий модель ранжирования предложений и модель обнаружения скрытой структуры текста. Для воспроизводимости результатов можно было бы сделать более детальное описание гиперпараметров и процедуры обучения моделей, также было бы информативно представить примеры полученных суммаризаций.
Контроль перегрузки является ключевым аспектом современных сетей. Первые алгоритмы контроля перегрузки, такие как TCP Tahoe и TCP Reno, были разработаны в конце XX века, и их основные идеи остаются актуальными до сих пор. С развитием высокоскоростных сетей для них были созданы специализированные алгоритмы, например, TCP BIC и TCP CUBIC. Однако классические алгоритмы, основанные на определённых правилах, не всегда оказываются эффективными во всех сетевых условиях, и с развитием 4G, 5G и спутниковой связи задача контроля перегрузки стала более актуальной. Это привело к появлению решений этой задачи на основе машинного обучения и обучения с подкреплением, в частности таких, которые способны адаптироваться к динамически изменяющимся условиям сети. В статье представлены и рассмотрены как классические алгоритмы контроля перегрузки, так и наиболее популярные и новые алгоритмы, основанные на машинном обучении, а также некоторые реализации с использованием технологии multipath. Кроме того, выделены наиболее значимые проблемы алгоритмов на основе машинного обучения и обсуждены потенциальные направления будущих исследований в данной области.
В статье рассматриваются методы динамической верификации программных систем, представляющих собой средства защиты информации (СЗИ) или включающих такие средства в свой состав. Для обеспечения высокого уровня доверия и защищенности программных систем необходимо применять разные методы и технологии верификации, при этом важны не только потенциальная мощность метода, но возможность использовать его в реальных условиях промышленной разработки крупных и сложных программных систем. Строгость и точность верификации обеспечивают формальные методы, однако использование классических формальных методов диктует особые, крайне высокие требования к персоналу и влечёт за собой дополнительные трудозатраты. Статья предлагает технологию динамической верификации СЗИ, которая, с одной стороны, близка к техникам тестирования, поэтому проще для освоения инженерами-тестировщиками, и, с другой стороны, в качестве базы использует формальные модели управления доступом и спецификации внешних интерфейсов СЗИ, которые уже появляются у разработчиков ОС и СУБД, чья продукция должна соответствовать требованиям нового национального стандарта ГОСТ Р 59453.4-2025 «Защита информации. Формальная модель управления доступом. Часть 4. Рекомендации по верификации средства защиты информации, реализующего политики управления доступом, на основе формализованных описаний модели управления доступом». Данный стандарт также представлен в статье.
В статье представлен метод поиска утечек памяти и других схожих ресурсов в статическом анализаторе Svace. Формулируются требования к статическому анализатору, представляющие стоящую за Svace философию, кратко описывается основная инфраструктура анализа на основе межпроцедурного символьного выполнения с объединением состояний и показывается, как ее можно применить для поиска утечек. Описываются атрибуты, которые необходимо вычислить в ходе анализа, демонстрируется, как они вычисляются, как используются спецификации функций выделения и освобождения памяти, а также как учитываются участки памяти, выходящие из-под контроля анализатора. Предлагается способ учета отсутствующих в исходном коде ограничений на выделение и освобождение памяти с помощью создания искусственных функций. Представляются экспериментальные результаты работы метода на наборе тестов Juliet и открытом пакете Binutils, показывающие жизнеспособность предлагаемых идей.
Тестирование ПО автоматизированных систем на разных стадиях их жизненного цикла отличается по целям, решаемым задачам, объектам, методам и результатам тестирования, несмотря на отличие свойств этих объектов. При этом в научно-технической литературе используются одни и те же термины для описания разнотипных объектов, несмотря на различие их свойств и методов работы с ними в процессе тестирования. Целью работы являются рассмотрение используемого в жизненном цикле ПО автоматизированных систем комплекса понятий в области тестирования и изменение смыслового содержания этих понятий в зависимости от того, какими свойствами должно обладать ПО АС на текущем этапе ЖЦ. Соответственно изменяются характеристики тестируемого ПО, объемы тестов, степень соответствия объекта тестирования и необходимых для конкретного вида тестирования ресурсов для его применения. Понимание этих отличий существенно влияет на используемые виды и методы тестирования, а также на требования к средствам автоматизации тестирования.
Альтернативные уровни детализации (LOD) являются одним из наиболее перспективных подходов к эффективному рендерингу сложных пространственно-трехмерных сцен. Подход получил развитие в методах иерархических уровней детализации (HLOD) и иерархических динамических уровней детализации (HDLOD), которые в настоящее время хорошо проработаны и успешно применяются для консервативного и интерактивного рендеринга больших динамических сцен. Вместе с тем, вопросам эффективной генерации уровней детализации не уделялось должного внимания, а они оказываются критичными в ряде приложений, связанных с визуальным моделированием сложных индустриальных проектов и масштабных инфраструктурных программ. В работе рассматриваются перспективные техники ускорения генерации HLOD и HDLOD. Также обсуждается возможность быстрого обновления иерархических уровней детализации с учетом перманентных локальных изменений в трёхмерной модели, характерных для приложений совместной работы.
В данной работе представлен систематический обзор механизмов усиления защищенности (hardening) операционных систем и пользовательских приложений. Рассматриваются различные типы защитных механизмов, включая механизмы защиты памяти, защиты аппаратного стека, защиты динамической памяти, рандомизация адресного пространства, защита потока управления и защита целостности системы. Детально анализируются принципы работы данных механизмов, их эффективность и влияние на производительность систем. Особое внимание уделяется реализации защитных механизмов в современных операционных системах, в частности, в ядре Linux. Работа предназначена для специалистов в области информационной безопасности, разработчиков операционных систем и исследователей, занимающихся вопросами защиты информации.
ISSN 2220-6426 (Online)