Моделі та методи оптимізації обробки даних у багатосерверному середовищі з використанням операцій черг та порційної автентифікації даних
DOI:
https://doi.org/10.15276/ict.01.2024.02Анотація
Ця робота мотивована необхідністю підвищення швидкості обчислень у сучасному промисловому використанні, включно з, але не обмежуючись, моделюванням потоків пилу. Оскільки ці задачі залишаються складними і з часом стають ще складнішими, виникає потреба в оптимізації використання ресурсів багатосерверної системи, що, своєю чергою, вимагає нових підходів до покращення обробки даних. Метою цієї роботи є розробка інформаційної технології, яку можна застосовувати в більш складних системах, де використовується більше одного сервера, з акцентом на управління чергами операцій.
Запропоноване рішення спрямоване на оптимізацію розподілу обчислювальних навантажень між серверами та підвищення точності моделювання щодо часу, необхідного для виконання обчислень. Це забезпечує підвищення ефективності обчислень, особливо під час роботи з великими наборами даних. Іншим ключовим аспектом є розробка порційної моделі та методу, спрямованих на підвищення автентичності та цілісності даних у розподілених операціях.
Запропонований підхід запобігає можливим атакам типу IP-спуфінгу та «людина посередині» (MITM) під час передавання даних у межах однієї локальної мережі, забезпечуючи якість і узгодженість функціонування розподілених обчислювальних систем у багатосерверному середовищі. Експериментальні дослідження підтвердили ефективність запропонованого рішення: воно суттєво скорочує час, необхідний для виконання обчислень, і водночас підвищує життєздатність процесів моделювання.
Управління чергами операцій, паралельна обробка даних і порційна автентифікація формують архітектуру системи, яка була реалізована та продемонструвала високу ефективність у реальних умовах. Запропоноване рішення може бути використане для оптимізації процесів комп’ютерного моделювання, наукових обчислень, аудіо- та відеоконвертації, а також для розв’язання багатьох інших завдань, що потребують масштабованості в умовах зростання обсягів даних і ускладнення обчислювальних процесів.