System bezpieczeństwa dla współpracującego robota przemysłowego na bazie kamer głębi

pol Artykuł w języku polskim DOI: 10.14313/PAR_234/41

Dawid Masłowski*, wyślij Michał Czubenko** * Intema Sp z o.o. ** Politechnika Gdańska, Wydział Elektroniki, Telekomunikacji i Informatyki

Pobierz Artykuł

Streszczenie

W artykule zarysowano problematykę robotyzacji małych przedsiębiorstw, w szczególności aspekt robotyzacji z uwzględnieniem robotów współpracujących. Szeroko omówiono zagadnienie robotów współpracujących oraz bezpieczeństwa człowieka podczas takiej współpracy. Przedstawiono również najbardziej popularne systemy bezpieczeństwa w odniesieniu do obowiązujących norm. W głównej części artykułu przedstawiono Cooperating Automaton System with Stereovision Invigilating the Environment (CASSIE), system dedykowany do monitorowania bezpieczeństwa robotów kooperacyjnych za pomocą multimodalnych sensorów głębi. Ukazano również efekt działania takiego systemu. 

Słowa kluczowe

HSI, robot produkcyjny, stereowizja, system bezpieczeństwa, system wizyjny

Safety System for an Industrial Cooperating Robot Based on Depth Cameras

Abstract

This article outlines the problems of robotization in small production enterprises, in particular the aspect of their robotization with colaborating robots. The issue of cobots, especially the human security aspect in such a cooperation has been presented. The most popular safety systems in relation to applicable standards has been also presented. The main part of the article shows the Cooperating Automaton System with Stereovision Invigilating the Environment (CASSIE), a system dedicated for safety monitoring of cobot environment using multimodal depth sensors. The effect of such a system has also been shown. 

Keywords

HSI, inspection system, machine learning, production robot, vision system

Bibliografia

  1. Eurostat (2019): Job vacancies between 2017 and 2019.
  2. Dhiraj A.B., Countries with the Most Industrial Robots per 10,000 Employees, ”Ceoworld Magazine”, 14. 03. 2018.
  3. Kowalczuk Z., Czubenko M., Przegląd robotów humanoidalnych, ”Pomiary Automatyka Robotyka”, R. 19, Nr 4, 2015, 33-42, DOI: 10.14313/PAR_218/33.
  4. Kulik J., Wojtczak Ł., Bezpieczna interakcja człowieka z robotem – realna potrzeba czy chwilowy trend wśród krajowych MSP, ”Pomiary Automatyka Robotyka”, R. 22, Nr 1, 2018, 67–74,  DOI: 10.14313/PAR_227/67.
  5. Kowalczuk Z., Czubenko M., Computational approaches to modeling artificial emotion–an overview of the proposed solutions, ”Frontiers in Robotics and AI, 21, 2016, DOI: 10.3389/frobt.2016.00021.
  6. Colgate JE., Peshkin M.A., Cobots, US Patent 5,952,796, 1999.
  7. IFR International Federation of Robotics, Demystifying Collaborative Industrial Robots, 2018.
  8. Michalos G., Makris S., Tsarouchi P., Guasch T., Kontovrakis D., Chryssolouris G., Design Considerations for Safe Human-robot Collaborative Workplaces, ”Procedia CIRP”, Vol. 37, 2015, 248–253, DOI: 10.1016/j.procir.2015.08.014.
  9. Long P., Chevallereau C., Chablat D., Girin A., An industrial security system for human-robot coexistence, ”Industrial Robot: An International Journal”, Vol. 45, No. 2, 2018, 220–226,  DOI: 10.1108/IR-09-2017-0165.
  10. Kowalczuk Z., Czubenko M., Intelligent decision-making system for autonomous robots, ”International Journal of Applied Mathematics and Computer Science”, Vol. 21, No. 4, 2011, 671–684, DOI: 10.2478/v10006-011-0053-7.
  11. Cobotsguide, Cobot Comparison Chart, 2019.
  12. Yen S.-H., Tang P.-C., Lin Y.-C., Lin C.-Y., Development of a Virtual Force Sensor for a Low-Cost Collaborative Robot and Applications to Safety Control, ”Sensors”, Vol. 19, No. 11, 2019,  DOI: 10.3390/s19112603.
  13. Albu-Schäffer A., Haddadin S., Ott C., Stemmer A., Wimböck T., Hirzinger G., The DLR lightweight robot: design and control concepts for robots in human environments, ”Industrial Robot: An International Journal”, Vol. 5, 2007, 376–385,  DOI: 10.1108/01439910710774386.
  14. Popov D., Klimchik A., Mavridis N., Collision detection, localization & classification for industrial robots with joint torque sensors, [in:] 26th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN), IEEE, 2017, 838–843, DOI: 10.1109/ROMAN.2017.8172400.
  15. Halme R.-J., Lanz M., Kämäräinen J., Pieters R., Latokartano J., Hietanen A., Review of vision-based safety systems for human-robot collaboration, ”Procedia CIRP”, Vol. 72, 2018, 111–116, DOI: 10.1016/j.procir.2018.03.043.
  16. Winkler A., Suchý J., Vision based collision avoidance of industrial robots, ”IFAC Proceedings Volumes”, Vol. 44, No. 1, 2011, 9452–9457, DOI: 10.3182/20110828-6-IT-1002.00472.
  17. Kaldestad K.B., Haddadin S., Belder R., Hovland G., Anisi D.A., Collision avoidance with potential fields based on parallel processing of 3D-point cloud data on the GPU, [in:] International Conference on Robotics and Automation (ICRA), IEEE, 2014, 3250–3257, DOI: 10.1109/ICRA.2014.6907326.
  18. Yang S., Xu W., Liu Z., Zhou Z., Pham D.T., Multi-source vision perception for human-robot collaboration in manufacturing, [in:] 15th International Conference on Networking, Sensing and Control (ICNSC), IEEE, 2018, 1–6,  DOI: 10.1109/ICNSC.2018.8361333.
  19. Saveriano M., Lee D., Distance based dynamical system modulation for reactive avoidance of moving obstacles, [in:] International Conference on Robotics and Automation (ICRA), IEEE, 2014, 5618–5623, DOI: 10.1109/ICRA.2014.6907685.
  20. Ahmad R., Plapper P., Human-Robot Collaboration: Twofold strategy algorithm to avoid collisions using ToF sensor,  ”International Journal of Materials, Mechanics and Manufacturing”, Vol. 4, No. 2, 2015, 144–147, DOI: 10.7763/IJMMM.2016.V4.243.
  21. Varhegyi T., Melik-Merkumians M., Steinegger M., Halmetschlager-Funek G., Schitter G., A Visual Servoing Approach for a Six Degrees-of-Freedom Industrial Robot by RGB-D Sensing, ”Automation and Robotics”, 2017, DOI: 10.3217/978-3-85125-524-9-14.
  22. Grunnet-Jepsen A., Winer P., Takagi A., Sweetser J., Zhao K., Khuong T., Nie D., Woodfill J., Using the Intel RealSense Depth cameras D4xx in Multi-Camera Configurations. Intel.
  23. Stefańczyk M., Kornuta T., Akwizycja obrazów RGBD: metody, ”Pomiary Automatyka Robotyka”, R. 18, Nr 1, 2014, 82-90,  DOI: 10.14313/PAR_203/82.
  24. Kowalczuk Z., Merta T., Wizualizacja obrazu stereowizyjnego w systemie VISROBOT, ”Pomiary Automatyka Kontrola”, R. 60, Nr 10, 2014, 803–808.
  25. Kowalczuk Z., Merta T., Three-dimensional mapping for data collected using variable stereo baseline, [in:] 21st International Conference on Methods and Models in Automation and Robotics (MMAR), IEEE, 2016, 1082–1087, DOI: 10.1109/MMAR.2016.7575288.
  26. Merta T., Odwzorowanie obiektów ograniczonego środowiska na trójwymiarowej mapie cyfrowej z wykorzystaniem robotów mobilnych zaopatrzonych w stereowizje, Praca doktorska, Politechnika Gdańska, Gdańsk 2019.
  27. Redmon J., Farhadi A., YOLOv3: An incremental improvement, ”arXiv preprint arXiv:1804.02767”, 2018.
  28. Cao Z., Hidalgo G., Simon T., Wei S.-E., Sheikh Y., OpenPose: realtime multi-person 2D pose estimation using Part Aff- nity Fields, “arXiv preprint arXiv:1812.08008”, 2018.