Metoda detekcji wad spawalniczych w stanowisku zrobotyzowanym z wykorzystaniem głębokiej sieci neuronowej

pol Artykuł w języku polskim DOI: 10.14313/PAR_239/67

wyślij Arkadiusz Adamczak Instytut Technologii Informatycznych, Łódź

Pobierz Artykuł

Streszczenie

Współczesna automatyzacja i robotyzacja procesów produkcyjnych wymaga nowych i szybkich metod kontroli jakości produktu. W przypadku spawania łukowego w systemach zrobotyzowanych, gdzie proces produkcyjny przebiega wielkoseryjnie istotną rzeczą jest szybka kontrola poprawności wykonanego spawu. System w oparciu o dane wizualne powinien być zdolny automatycznie określić czy dana spoina spełnia podstawowe wymagania jakościowe a tym samym mieć możliwość zatrzymania procesu w razie zidentyfikowanych wad. W artykule przedstawiono wyniki badań nad stworzeniem wizyjnej metody oceny poprawności wykonanej spoiny w oparciu o głęboką sieć neuronową klasyfikującą, lokalizującą i segmentującą wady spawalnicze. Zaproponowana metoda detekcji została rozbudowana przez zastosowanie połączenia kamery systemu wizyjnego z sześcioosiowym robotem przemysłowym w celu umożliwienia detekcji większej liczby wad spawalniczych oraz pozycjonowania w sześciowymiarowej przestrzeni pracy. Przedstawione w artykule wyniki prac badawczych otrzymano podczas realizacji projektu „Opracowanie metody bazującej na zastosowaniu głębokich sieci neuronowych do inspekcji wizyjnej połączeń spawanych w toku prac B+R” realizowanego w zakładzie ZAP-Robotyka Sp. z o.o. w Ostrowie Wielkopolskim.

Słowa kluczowe

detekcja wad spoin, głębokie uczenie maszynowe, przemysł 4.0, stanowisko zrobotyzowane

Detection Method of Welding Defects in a Robotic Station Using the Deep Neural Network

Abstract

Modern automation and robotization of production processes requires new and fast methods of product quality control. In the case of arc welding in robotic systems, where the production process takes place in large series, it is important to quickly control the correctness of the weld. Based on visual data, the system should be able to automatically determine whether a given weld meets the basic quality requirements, and thus be able to stop the process in the event of identified defects. The article presents the results of research on the creation of a visual method for assessing the correctness of the weld seam based on the deep neural network classifying, locating and segmenting welding defects. The proposed detection method was extended by using a combination of a vision system camera with a six-axis industrial robot in order to enable detection of a larger number of welding defects and positioning in a six-dimensional workspace. The research results presented in this article were obtained during the implementation of the project entitled „Development of a method based on the use of deep neural networks for visual inspection of welded joints in the course of R&D works” implemented at the company ZAP-Robotyka Sp. z o.o. in Ostrów Wielkopolski.

Keywords

Deep Learning, detections of weld defects, industry 4.0, robotic station

Bibliografia

  1. The future of manufacturing: 2020 and beyond, [www.nist.gov/system/files/documents/2016/11/16/iw_kronos_research_report_2016.pdf]
  2. Cegielski P., Bugyi Ł., Wybrane aspekty identyfikacji zakłóceń procesu spawania łukowego MIG/MAG, „Przegląd spawalnictwa”, R. 89, Nr 6, 2017, 30–35.
  3. Raj B., Subramanian C.V., Jayakumar T., Non-destructive testing of welds. 2000.
  4. Ghorai S., Mukherjee A., Gangadaran M., Dutta P.K., Automatic defect detection on hot-rolled flat steel products, “IEEE Transactions on Instrumentation and Measurement”, Vol. 62, No. 3, 2013, 612–621, DOI: 10.1109/TIM.2012.2218677.
  5. Guo W., Qu H., Liang L., WDXI: The Dataset of X-Ray Image for Weld Defects, 14th International Conference on Natural Computation, Fuzzy Systems and Knowledge Discovery (ICNC-FSKD), Huangshan, China, 2018, 1051–1055, DOI: 10.1109/FSKD.2018.8686975.
  6. Dutta A., Zisserman A., The VIA annotation software for images, audio and video. Proceedings of the 27th ACM International Conference on Multimedia, 2019, DOI: 10.1145/3343031.3350535.
  7. Abadi M., et al., Tensorflow: A system for large-scale machine learning. 12th USENIX symposium on operating systems design and implementation (OSDI 16), 2016, 265–283.
  8. Chollet F., et al., Keras: The python deep learning library. Astrophysics Source Code Library, 2018, ascl: 1806.022.
  9. O’Shea K., Nash R., An Introduction to Convolutional Neural Networks, arXiv:1511.08458v2.
  10. He K., Gkioxari G., Dollr P., Girshick R., Mask R-CNN, arXiv:1703.06870.
  11. He K., Zhang X., Ren S., Sun J., Deep Residual Learning for Image Recognition, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016, 770–778, DOI: 10.1109/CVPR.2016.90.
  12. Ren S., He K., Girshick R., Sun J., Faster R-CNN: Towards real-time object detection with region proposal networks, Advances in Neural Information Processing Systems (NIPS 2015), 91–99.
  13. Lin T.Y., et al., Microsoft COCO: Common Objects in Context. In: Fleet D., Pajdla T., Schiele B., Tuytelaars T. (eds) Computer Vision – ECCV 2014. Lecture Notes in Computer Science, Vol. 8693. Springer, Cham. DOI: 10.1007/978-3-319-10602-1_48