Технология клонирования голоса сделала значительные шаги вперед в последние годы, с применением от персонализированных виртуальных ассистентов до сложных развлекательных систем. В данном исследовании проводится сравнение девяти моделей клонирования голоса, сосредотачиваясь на подходах нулевого и тонкой настройки. Модели клонирования голоса с нулевым обучением привлекают внимание своей способностью генерировать высококачественные синтетические голоса без необходимости в больших объемах обучающих данных для каждого нового голоса, а также возможностью осуществлять онлайн выводы в режиме реального времени. В отличие от них, модели, не относящиеся к нулевому обучению, обычно требуют дополнительных данных, но могут обеспечить улучшенную точность воспроизведения голоса. Исследование включает два ключевых эксперимента. Первый эксперимент оценивает эффективность моделей клонирования голоса с нулевым обучением, анализируя их способность точно воспроизводить целевые голоса без предварительного ознакомления. Второй эксперимент включает тонкую настройку моделей на целевых спикеров для оценки улучшений в качестве голоса и адаптивности. Модели оцениваются на основе ключевых показателей, оценивающих качество голоса, сохранение идентичности спикера, а также субъективные и объективные показатели производительности. Результаты показывают, что, хотя модели с нулевым обучением предлагают большую гибкость и простоту использования, модели с тонкой настройкой могут обеспечить более высокую производительность.
В статье рассматривается актуальная проблема обеспечения безопасности программного обеспечения на раннем этапе его разработки. Особое внимание уделяется статическому анализу кода, который является ключевым инструментом для выявления уязвимостей на ранних этапах жизненного цикла разработки программного обеспечения. Статья подчеркивает важность интеграции инструментов статического анализа в процесс разработки с целью раннего обнаружения и устранения уязвимостей. Рассмотрены методы поиска ошибок статических анализаторов, а также основные компоненты статического анализатора Svace, разработанного в Институте системного программирования РАН. Представлена классификация анализов, используемых в статическом анализаторе Svace. Детально рассмотрен статический анализ исходного кода на языке программирования Python. В качестве практического примера приведен анализ проекта Pandas 2.2.1, выполненный с помощью Svace. Результатом послужило выявление 241 уязвимости на 590709 строк кода, что показывает высокую плотность предупреждений на миллион строк кода и подтверждает эффективность статического анализа в обеспечении безопасности программного обеспечения.
В связи с использованием современными компиляторами C/C++ агрессивных оптимизаций, эксплуатирующих неопределённое поведение, существует потребность в безопасном компиляторе, который не проводит подобные оптимизации, а также предотвращает использование разработчиком небезопасных конструкций. В ИСП РАН был реализован безопасный компилятор на основе GCC, однако часть разработчиков предпочитает GCC Clang, который не лишён проблемы эксплуатации неопределённого поведения. В этой работе рассматриваются возможности Clang по осуществлению безопасной компиляции и описывается реализация безопасного компилятора на его основе. Для созданного безопасного компилятора показывается применимость на практике и оценивается влияние на производительность программ.
В работе предложена реализация траекторного профилирования методом инструментирования, реализованная в компиляторе LCC для архитектур «Эльбрус» и SPARC и предназначенная для улучшения работы специфических оптимизаций для процессоров с архитектурой типа VLIW.
В статье рассматривается вопрос разделения входной информации искусственных нейронных сетей на модули с помощью ортогональных преобразований. Благодаря такому разделению становится возможным модульная организация нейронных сетей с разделением слоев, что, в свою очередь, позволяет использовать предлагаемый подход для организации распределенных вычислений. Такой подход требуется при организации работы нейронных сетей в среде туманных и периферийных вычислений, организации высокопроизводительных вычислений на множестве вычислительных узлов невысокой производительности. Теоретически обоснована возможность поперечнослойного разделения искусственных нейронных сетей с помощью ортогональных преобразований и приведены примеры практической реализации такого подхода. Проведено сравнение характеристик модульных нейронных сетей с применением различных видов ортогональных преобразований, в том числе с помощью вейвлет-преобразования Хаара.
Несмотря на то, что программирование – это творческий процесс, достаточно много времени уходит на решение рутинных задач. Как и в других индустриях в сфере информационных технологий стремятся автоматизировать рутинные задачи. Во многих случаях применяются нейронные сети. Программирование не является исключением: Github заверяют, что уже около 30% кода написано при помощи Copilot. Этот инструмент основан на модели Codex – трансформере, обученном на исходном коде программ. Однако представление кода в виде последовательности, как это сделано в Copilot, не так эффективно. В данной работе мы показали, что использование трансформеров и графового представления кода приводит к очень хорошим результатам даже для маленьких моделей.
В статье: построена математическая модель распределенных вычислений при ограниченном числе копий структурированного программного ресурса; в случаях неограниченного и ограниченного параллелизма по числу процессоров многопроцессорной распределенной вычислительной системы решены задачи нахождения минимального времени выполнения неоднородных, однородных и одинаково распределенных конкурирующих процессов в синхронном режиме, обеспечивающем непрерывное выполнение каждого блока программного ресурса всеми процессами.
Статья посвящена анализу использования алгоритмов машинного обучения для обнаружения атак с использованием пользовательской веб-среды или функциональности пользовательских приложений. Рассматриваются алгоритмы обучения с преподавателем и кластеризации. В наборе данных используется выборка транзакций онлайн-покупок, собранная розничным продавцом электронной коммерции. Набор данных содержит 39 221 транзакцию. Для обнаружения атак в веб-среде были выбраны наиболее оптимальные реализации алгоритмов машинного обучения после их обзора и сравнительного анализа. Был определен и реализован наиболее эффективный по времени и качеству алгоритм для рассматриваемой выборки данных. Данные, полученные по каждому методу, представлены в виде таблиц. В рамках данной работы параметрами для оценки эффективности исследуемых алгоритмов являются показатели времени обучения, а также характеристики из матрицы путаницы и отчета о классификации для алгоритмов классификации, а также fowlkes_mallows_score, rand_score, adjusted_rand_score, Однородность, полнота, V-мера для алгоритмов кластеризации.
Система остаточных классов – это распространенная непозиционная система счисления. Система остаточных классов может эффективно использоваться в приложениях с преобладающей долей операций сложения, вычитания и умножения благодаря параллельному выполнению операций и отсутствию битовых сдвигов. Обратное преобразование числа из системы остаточных классов в позиционную систему счисления требует использования специальных алгоритмов. Основное внимание в данной статье уделено представлению нового метода преобразования, который использует Китайскую теорему об остатках, функцию ядра Акушского и ранг числа. Подробно описан алгоритм преобразования, представлены числовые примеры. Представлено доказательство связи между рангами позиционных характеристик с помощью Китайской теоремы об остатках. В результате тщательного анализа и сравнения с существующими методами преобразования сделан вывод, что представленный подход занимает в среднем на 8 % меньше времени, чем приближенный метод.
В работе описаны результаты экспериментального сравнения методов синтеза комбинационных логических схем, реализующих заданные булевы функции. Рассмотрены следующие методы: Акерса, би-декомпозиции, каскадов, Минато-Морреале, Рида-Маллера и DSD-разложения. Сравнение основывалось на оценке энергопотребления, задержки и площади синтезируемых логических схем. Оценка осуществлялась без процесса технологического отображения схем. Выбор данных параметров обусловлен тем, что они являются основными критериями технологически независимой оптимизации, в которой данные методы находят широкое применение. В качестве исходных данных использовались булевы функции с числом аргументов от 4 до 10, которые были сгенерированы на основе информации о частоте встречаемости различных NPN-классов эквивалентности булевых функций от 4 переменных. В результате исследования было установлено, что метод Минато-Морреале является наиболее универсальным при решении задач технологически независимой оптимизации и может быть использован для различных критериев.
В эпоху глубокого обучения нейронные сети постепенно заменяют статистические подходы к прогнозированию временных рядов в различных областях, например, в сфере пространственно-временного моделирования. Однако недостаток открытых наборов данных в этой области препятствует развитию нейросетевых методов. Альтернативным решением для сбора данных является генерация синтетических данных, но существующие методы фокусируются только на генерации некоррелированных независимых временных рядов. В этой работе мы представляем метод генерации временных рядов с пространственной корреляцией. Он использует набор параметризуемых авторегрессионных моделей для генерации одномерных временных рядов в сочетании с подходом к выбору параметров модели, что позволяет моделировать пространственные взаимоотношения. В работе приведена реализация метода и результаты экспериментов, которые показывают применимость данных для пространственно-временного моделирования.
В данной статье предлагается метод визуализации моделей ациклических процессов, основанный на объединении графов непосредственного следования и диаграмм Санкей. Графы непосредственного следования – популярная графическая модель для визуализации моделей дискретных процессов, в то время как диаграммы Санкей используются для представления потоковых данных. Наш метод, основанный на потоковых диаграммах, позволяет выделять на общей модели отдельные экземпляры или группы экземпляров процесса. Для подхода, предложенного в работе, представлена реализация в виде веб-приложения, которое позволяет, на основе журналов событий ациклических процессов, строить и анализировать поведение процессов. Применимость предложенного подхода иллюстрируется и оценивается на примерах образовательных процессов.
В данной статье обсуждается проблема применения метода динамической верификации к большим и сложным системам, в частности, операционным системам общего назначения. Современные практики и стандарты разработки критических систем требуют наличия формальной модели политики безопасности. Полнота и непротиворечивость формальных требований, указанных в модели политики безопасности, должна быть верифицирована с использованием формальных методов. Позже, когда будет разработана реализация системы, необходимо установить, что реализованные механизмы безопасности соответствуют указанным в модели требованиям. При использовании такого подхода удобно иметь единую модель, подходящую как для формальной верификации, так и для тестирования реализации. Для достижения этой цели необходимо, с одной стороны, выделить подмножество языковых конструкций модели, подходящих для обоих методов, а с другой, разработать специальные методики анализа трасс выполнения, позволяющие эффективно выполнять тысячи тестов. В статье приводится анализ языковых конструкций, позволяющих эффективное использование модели в рамках динамической верификации. Также в статье представлены методы оптимизации процесса динамической верификации систем. Предложенные методы были реализованы в прототипе инструмента анализа трасс и протестированы на модели системы контроля доступа для операционных систем на основе Linux.
В работе представлены результаты численного эксперимента по идентификации термокарстовых объектов, образовавшихся в результате климатических изменений в регионах распространения вечной мерзлоты, на основе спутниковых графических данных. Разработана прикладная компьютерная программа, предназначенная для идентификации спутниковых графических данных реализующая трехслойную нейронную сеть. Идентификация термокарстовых объектов прикладной программой производилась на основе метода обучения нейронной сети с использованием тренировочных данных. В качестве функции активации в нейронной сети применялась сигмоидальная функция, корректировка весовых коэффициентов сети основывалась на методе обратного распространения ошибок. Изучена зависимость эффективности идентификации объектов от различных начальных параметров нейронной сети, таких как, скорость обучения, количество нейронов в скрытом слое и количество эпох обучения. Выявлены оптимальные значения вышеуказанных параметров, обеспечивающих наибольшие показатели эффективности нейронной сети. Проведено сравнение полученных результатов с данными других исследователей. В целом, результаты проведенного в работе исследования показали перспективность рассмотренного метода для развития автоматизированных средств дистанционного мониторинга термокарстовых процессов.
В работе сформулирована и решена задача определения гидравлической крупности для единичной частицы. Для решения задачи предложена оригинальная разновидность метода сглаженных частиц (SPH), в котором осаждаемая частица оказывает влияние на движение окружающих ее частиц воды, но расчет сил, действующих на частицу (кроме инерционных сил, учитывающих эффекты присоединённой массы), выполняется по формулам аналитической механики для материальной точки. Верификация предложенной математической постановки и реализующего ее алгоритма расчета выполнена с использованием открытого авторского кода «SPH_Lab2d». Получены зависимости для гидравлической крупности частицы от ее диаметра для различных случаев дискретизации объема жидкости. Численные результаты демонстрируют хорошую согласованность с экспериментальными данными и известными феноменологическими зависимостями для кварцевого песка.
ISSN 2220-6426 (Online)