Abstract
У даному дослідженні розглянуто можливість побудови розширюваного методу класифікації зображень із використанням згорткової нейронної мережі генерації вкладених представлень для подальшого використання з простішими алгоритмами машинного навчання. Можливість використання цього підходу для додавання нових класів шляхом додаткового навчання без зміни топології мережі векторизації була продемонстрована на двох наборах даних: MNIST та Fashion-MNIST. Для цього було навчено звичайну класифікаційну згорткову нейронну мережу на обох наборах даних з використанням перших трьох класів. Відповідні натреновані мережі були модифіковані для генерації вкладених представлень. Додаткові шари для генерації ембеддингів в обох мережах були натреновані з використанням триплетної функції втрат з метою видобування ознак з виходу згорткових шарів, при цьому зберігаючи розрізнення між класами. Декілька простіших алгоритмів машинного навчання були натреновані для класифікації на основі отриманих вкладених представлень. Для перевірки гіпотези розширюваності, до навчальних наборів мереж було додано четвертий клас, мережі дотреновано та інші алгоритми навчено з нуля. Було виміряно точність класифікації на основі вкладених представлень мереж з 3 та 4 класами. Додатково було проведено аналіз витрат часу для звичайних класифікаційних мереж і запропонованого методу. Результати дослідження свідчать про те, що цей підхід може зменшити час і складність повторного навчання, особливо для більш складних завдань класифікації зображень, а також пропонує додаткові можливості, такі як пошук схожості у векторних базах даних. Однак для простіших завдань звичайні класифікаційні мережі залишаються більш ефективними з точки зору часу. Бібл. 8, іл. 4, таб. 2.
Talk to us
Join us for a 30 min session where you can share your feedback and ask us any queries you have
Similar Papers
Disclaimer: All third-party content on this website/platform is and will remain the property of their respective owners and is provided on "as is" basis without any warranties, express or implied. Use of third-party content does not indicate any affiliation, sponsorship with or endorsement by them. Any references to third-party content is to identify the corresponding services and shall be considered fair use under The CopyrightLaw.