Оценка затрат/усилий на программное обеспечение является ключевой темой исследований более шести десятилетий из-за его влияния на отрасль. Несмотря на многочисленные модели, подходы, основанные на регрессии, доминируют в литературе. Проблемы включают в себя недостаточные наборы данных с достаточным количеством точек данных и произвольную интеграцию различных исходных баз данных. В этом исследовании предлагается использовать тест Крускала-Уоллиса для проверки интеграции отдельных исходных баз данных с целью избежать смешивания несвязанных данных, увеличения точек данных и улучшения моделей оценки. Было проведено тематическое исследование с данными из офиса международной компании в Мексике, который обеспечивает разработку программного обеспечения для «микросервисов и API». Были проанализированы данные за 2020 год. Качество модели оценки значительно улучшилось. MMRE снизился на 25,4% (с 78,6% до 53,2%), стандартное отклонение снизилось на 97,2% (с 149,7% до 52,5%), а показатель Pred (25%) вырос на 3,2 процентных пункта. Количество точек данных увеличилось, и были соблюдены ограничения линейной регрессии. Тест Крускала-Уоллиса эффективно улучшил модели оценки, подтвердив интеграцию базы данных.
Постоянной проблемой в разработке программного обеспечения является устранение дефектов в этом обеспечении. И эффективное управление и устранение дефектов имеют жизненно важное значение для обеспечения надежности программного обеспечения, что, в свою очередь, является важнейшим атрибутом качества любой системы программного обеспечения. Прогнозирование программных дефектов, поддерживаемое методами машинного обучения (ML) – это многообещающий подход к решению проблемы программных дефектов. Тем не менее, одной из общих проблем в прогнозировании дефектов программного обеспечения на основе ML является проблема дисбаланса данных. В этой статье мы представляем эмпирическое исследование, направленное на оценку влияния различных методов балансировки классов на проблему дисбаланса классов в прогнозировании дефектов программного обеспечения. Мы провели ряд экспериментов, которые включали девять различных методов балансировки классов по семи различным классификаторам. Мы использовали наборы данных из репозитория PROMISE, предоставленные программным проектом NASA. Мы также использовали различные метрики, включая AUC, точность, полнота, отзыв и меру F1, чтобы оценить эффективность методов балансировки различных классов. Кроме того, мы применили проверку гипотез, чтобы определить любые существенные различия в метрических результатах между наборами данных со сбалансированными и несбалансированными классами. Основываясь на наших выводах, мы пришли к выводу, что балансировка классов в прогнозировании дефектов программного обеспечения дает значительное улучшение общей производительности. Поэтому мы решительно выступаем за включение балансировки классов в качестве этапа предварительной обработки в этой области.
С увеличением сложности разработки программного обеспечения для решения современных бизнес-задач необходимы такие подходы, как предметно-ориентированное проектирование (Domain-Driven Design, DDD). DDD уже используется в различных программных проектах с разными архитектурными стилями. Хотя в некоторых исследованиях изучалось разложение бизнес-доменов или унаследованных монолитных систем на микросервисы, пока отсутствует конкретная информация относительно практической реализации DDD в этом архитектурном стиле. Для повышения ясности в отношении использования DDD в разработке систем на основе микросервисов в нашей статье систематизированы выводы о целях использования DDD, его моделях, связанных технологиях и методах. Нами был проведен систематический обзор литературы из 35 статей. Тематический анализ помог выявить 11 тем и пять тем более высокого порядка. Основываясь на проделанном анализе, мы пришли к выводу, что идентификация микросервисов становится основной мотивацией принятия разработчиками DDD, но при этом вовсе не является единственной причиной использования DDD, о которой сообщается в литературе. Наконец, наш анализ выявил преимущества и проблемы в использовании DDD в архитектуре микросервисов, которые будут учитываться при проведении работ в будущем.
Программный синтез – это процесс автоматического создания программного обеспечения на основе спецификации требований. В этой статье представлен систематический обзор литературы, посвященный синтезу программ из спецификаций, выраженных на естественном языке. Исследуемая проблематика заключается в сложности автоматического создания точного и надежного кода из высокоуровневых, неоднозначных описаний на естественном языке – барьер, который ограничивает более широкое использование средств автоматизации при разработке программного обеспечения. Для исследования этой проблемы авторы систематически изучали работы, опубликованные в период с 2014 по 2024 год, делая акцент на работы, в которых рассматриваются различные подходы к синтезу программ на основе данных на естественном языке. Обзор следует строгой методологии, включающей поисковые строки, адаптированные для сбора соответствующих исследований из пяти основных источников данных: IEEE, ACM, Springer, Elsevier и MDPI. В процессе отбора применялись строгие критерии включения и исключения, что привело к окончательному набору из 20 высококачественных исследований. Результаты показывают значительные достижения в этой области, особенно в интеграции больших языковых моделей (LLM) с методами синтеза программ. Обзор также освещает проблемы и завершается изложением ключевых тенденций и предложением будущих направлений исследований, нацеленных на преодоление этих проблем и расширение применимости синтеза программ в различных областях.
Управлять выполнением проектов необходимо в различных областях знаний, особенно в области проектирования и разработки программного обеспечения. Для организаций проекты являются центральным элементом создания стоимости. Они позволяют достигать поставленных целей с помощью конкретных методологий, инструментов и программного обеспечения. Одним из наиболее признанных инструментов по степени влияния на улучшение процессов, и не только в этой области знаний, являются модели зрелости. Эти модели уже начали внедряться в управление проектами. Модели зрелости управления проектами являются полезными инструментами для оценки процесса управления с помощью референтных процессов (например, PMBOK). Референтные процессы описывают лучшие практики, позволившие достичь успеха в реализации проектов. Целью данного документа является выявление исследовательских работ, которые описывают модели зрелости, предложенные специально для управления проектами. На основе проведенного анализа для руководителей проектов, использующих модели зрелости в контексте управления проектами, создана полезная классификация.
Процесс разработки программного обеспечения является сложным и трудоемким. Оценка ресурсов является одной из наиболее важных обязанностей в разработке программного обеспечения. Поскольку в настоящее время это единственный приемлемый показатель, функциональный размер программы используется для генерации моделей оценки общепринятым способом. С другой стороны, измерение функционального размера требует времени. Использование искусственного интеллекта (ИИ) для автоматизации определенных рабочих мест разработчиков программного обеспечения набрало популярность в последние годы. Определение размеров и оценка функциональности программного обеспечения является одной из областей, в которой может использоваться искусственный интеллект. В этом исследовании мы исследуем, как применять концепции и рекомендации метода COSMIC к измерениям с использованием ChatGPT 4o, большой языковой модели (LLM). Чтобы определить, может ли ChatGPT выполнять измерения COSMIC, мы обнаружили, что ChatGPT не может надежно производить точные результаты. К основным недостаткам, обнаруженным в ChatGPT, относится его неспособность точно извлекать из текста движения данных, группы данных и функциональных пользователей. Из-за этого измерения ChatGPT не соответствуют двум основным требованиям к измерениям: точности и воспроизводимости.
Квантовые вычисления, существенным образом основанные на квантовой механике, представляют значительные проблемы для людей, не имеющих достаточных знаний квантовой физики. Для работы в этой области необходимы значительные научные познания в квантовой теории, математике и смежных областях. Кроме того, междисциплинарный характер квантовых вычислений для эффективной командной работы требует наличия различных социальных навыков. В этой статье рассматривается и систематизируется научная литература, выявляя ключевые технические и социальные навыки, необходимые для подготовки студентов и специалистов в области квантовых вычислений, и помогая учебным заведениям разрабатывать соответствующие курсы и учебные планы.
Сложность борьбы со стрессом, связанным с работой, как сложной неформальной структурированной областью деятельности (CISD), включает в себя различные социальные, технические, культурные и научные факторы, что увеличивает организационные проблемы и подчеркивает необходимость когнитивных решений для улучшения понимания таких сложных сценариев. В статье рассматриваются три эмпирико-теоретических подхода к концептуализации и определению когнитивных решений реальных проблем в CISD: Авторами изучалась литература по использованию специфических алгоритмов машинного обучения нейронных сетей для разработки моделей профилактики стресса на работе; использованию когнитивных решений, в частности онтологий, для четкого представления знаний; также изучалась системная методологическая основа структурированного подхода к концептуализации и спецификации. Проведенное исследование показывает необходимость построения методологической модели, которая должна эффективно поддерживать эти когнитивные решения, для улучшения качества осуществляемых организационных мероприятий за счет использования системного мышления и управления знаниями.
Разработка на основе поведения (BDD) фокусируется на определении поведения системы с помощью примеров, поощрений совместной работы и согласований разработки с потребностями бизнеса. В предлагаемой статье авторы описывают результаты изучения тематического синтеза BDD, подчеркивая его проблемы, преимущества и последствия для разработки программного обеспечения. Анализируя 23 исследования, ход которых отражен в четырех академических базах данных, исследование выявляет тенденции и направления в следовании принципам и реализации BDD. Авторами подчеркивается роль BDD в преодолении разрыва между техническими и нетехническими заинтересованными сторонами, согласовании разработки программного обеспечения с бизнес-целями. Несмотря на первоначальные проблемы с внедрением BDD, проведенное исследование показывает его значительное долгосрочное и благотворное влияние на качество программного обеспечения, а также на достижение удовлетворенности заинтересованных сторон. Будущие исследования должны быть сосредоточены на разработке эффективного обучения и инструментов для поддержки внедрения BDD в различных средах.
Появление цифровизации и технологий Интернета вещей (IoT) ставит новые задачи по управлению системами учета электроэнергии. Интеграция институциональных систем выставления счетов за электроэнергию с государственными измерительными инфраструктурными системами (AMI) имеет важное значение для эффективного управления. Для обеспечения целостности данных при автоматизации снятия показаний электроэнергии предлагается использовать технологию распределенного реестра (блокчейн). Настоящая работа описывает инновационную модель, предназначенную для улучшения освещения общественного пространства в Мексике путем интеграции систем AMI и IoT, а также использования алгоритмов LZ4 и IPFS для сжатия данных. Выбранный подход направлен на оптимизацию обработки больших объемов данных, его использование приводит к повышению эффективности данных, повышению безопасности, снижению затрат и улучшению управления энергоресурсами.
Рассматриваются актуальные аспекты организации сервис-ориентированных вычислений в вычислительной среде с гетерогенными ресурсами. Обсуждается развитие технологий разработки и применения сервис-ориентированных научных приложений, в которых схемы решения задач формируются в виде рабочих процессов. Приводятся существующие стандарты описания рабочих процессов. Предлагается новый инструментальный комплекс для создания сервис-ориентированных научных приложений, развивающий и дополняющий возможности систем подобного назначения.
Термин учебная аналитика (LA) был введен Обществом исследований в области аналитики обучения (SoLAR) в 2011 году, и в последнее десятилетие это направление развивалось самым позитивным образом. Эта область аналитики данных может быть определена как интеллектуальный анализ образовательных данных (EDM). В дополнение к тому, что LA позволяет лучше понять поведение и процессы обучения студентов, учебная аналитика также обеспечивает более четкое выявление результатов обучения студентов, в то время как EDM фокусируется на оказании помощи преподавателям и учащимся при анализе процесса обучения с использованием популярных методов интеллектуального анализа данных. Целью данного исследования является изучение первого десятилетия работы с применением методов учебной аналитики в высших учебных заведениях (HEI) в контексте обучающих информационных систем с целью поддержки учреждений, преподавателей и студентов для снижения показателей отсева. В этой статье представлен систематический обзор литературы с 17-ю первичными исследованиями, проведенными в период с 2014 по 2024 год. Полученные результаты отражают использование LA для улучшения или оптимизации обучения с использованием академической истории студентов, полученной с помощью систем управления обучением, и отмечают нехватку работ с акцентом на обучение или академическое консультирование. В конечном счете, вскрыта недостаточность применения методов LA в ВУЗах к информации от Программы институционального обучения, интегрированной с информацией от систем управления обучением, которые могли бы внести свой вклад в постоянство студентов.
Пандемия COVID-19 стала первым кризисом в области здравоохранения, затронувшим весь мир в этом столетии. Собранные данные выявили отсутствие организации и контроля в мерах здравоохранения, сдерживании и смягчении последствий, а также отсутствие планирования и координации в использовании предметов медицинского назначения, что побудило к разработке моделей прогнозирования, которые предоставили прогнозную информацию о развитии пандемии. В этой работе временные ряды накопленных случаев заражения были получены с помощью официальных данных, предоставленных Министерством здравоохранения правительства Мексики. К этой информации были применены шесть детерминированных и стохастических прогностических моделей для сравнения их эффективности в прогнозировании случаев заражения COVID-19. Эти модели были применены к данным из двух городов Мексики, Колимы и штата Мексика. В исследовании делается вывод о том, что модели ARIMA и ANN MLP лучше адаптируются к данным, которые генерируются ежедневно, поэтому они имеют улучшенную способность прогнозирования.
ISSN 2220-6426 (Online)