Journal Search Engine
Search Advanced Search Adode Reader(link)
Download PDF Export Citaion korean bibliography PMC previewer
ISSN : 1598-6721(Print)
ISSN : 2288-0771(Online)
The Korean Society of Manufacturing Process Engineers Vol.20 No.12 pp.1-7
DOI : https://doi.org/10.14775/ksmpe.2021.20.12.001

A Study on Worker Risk Reduction Methods using the Deep Learning Image Processing Technique in the Turning Process

Yong Hwan Bae*, Young Tae Lee**, Ho-Chan Kim***#
*Department of Mechanical Education, ANU UNIV.
**Department of Electronic Engineering Education, ANU UNIV.
***Department of Mechanical and Automotive Engineering, ANU UNIV.
#Corresponding Author : hckim@anu.ac.kr Tel: +82-54-820-5269, Fax: +82-54-820-5044
27/10/2021 09/11/2021 15/11/2021

Abstract


The deep learning image processing technique was used to prevent accidents in lathe work caused by worker negligence. During lathe operation, when the chuck is rotated, it is very dangerous if the operator's hand is near the chuck. However, if the chuck is stopped during operation, it is not dangerous for the operator’s hand to be in close proximity to the chuck for workpiece measurement, chip removal or tool change. We used YOLO (You Only Look Once), a deep learning image processing program for object detection and classification. Lathe work images such as hand, chuck rotation and chuck stop are used for learning, object detection and classification. As a result of the experiment, object detection and class classification were performed with a success probability of over 80% at a confidence score 0.5. Thus, we conclude that the artificial intelligence deep learning image processing technique can be effective in preventing incidents resulting from worker negligence in future manufacturing systems.



선삭공정에서 딥러닝 영상처리 기법을 이용한 작업자 위험 감소 방안 연구

배 용환*, 이 영태**, 김 호찬***#
*안동대학교 기계교육과
**안동대학교 전자공학교육과
***안동대학교 기계자동차공학과

초록


    © The Korean Society of Manufacturing Process Engineers. All rights reserved.

    This is an Open-Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/3.0) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

    1. 서 론

    제조공정에서 안전사고 예방은 매우 중요한 일 이다. 예를 들어 기계가공과 같이 수작업이 많은 가공분야에서 손(hand)의 역할은 제품 제작과정에 서 매우 중요하다. 산업이 아무리 발달하더라도 수가공은 어느 정도 존재할 것이다. 기계가공분야 의 기술 발달과 생산성 향상으로 인하여 대부분이 수치제어 공작기계가 도입되어, 사람 손이 주로 개입할 일이 없지만, 중소기업에서는 아직도 작업 자가 공작물 세팅, 공작기계 운전, 계측을 직접하 는 일이 다수이다.

    특히 기능훈련 기관인 공업고등학교와 직업훈련 기관, 중소기업등에서는 아직까지도 범용 선반가 공이나 밀링가공등의 기계가공을 수행하고 있다. 가까운 이웃인 일본에서는 아직도 기계가공분야 자격증 중에서 수동 선반가공 자격증과 수동 밀링 가공 자격증이 존재하는 것으로 알고 있다.

    기계가공에서 작업자는 공작물을 세팅하고 공작 기계를 직접 운전하는 일이 많다. 대다수의 경우 는 작업자가 공작물 회전을 멈추고 공작물을 측정 하는 경우가 많으나, 실수로 공작물 회전중에 작 업자의 손이 안전영역을 넘어서 침범하는 경우가 종종 있다. 가장 대표적인 경우는 회전중 칩을 제 거하는 경우가 가장 대표적인 경우이다.

    최근 4차 산업혁명 기술의 본격적인 산업분야 응용중 하나는 자율주행기술이다. 자율주행의 핵 심은 운전자가 눈으로부터 들어오는 정보를 판단 하여 핸들을 자동적으로 돌리고 브레이크를 밟거 나 기타 외부의 상황을 판단하여 사람 대신 기계 장치를 조작하는 것을 말하는데, 이 자율주행에서 가장 중요한 역할을 하는 것이 시각 정보이다. 옛 말에 사람 몸이 천냥이면 눈이 구백냥이라는 말이 있듯이 그 만큼 인간의 정보인식, 판단, 행동에서 시각적 정보의 중요성을 대변하고 있다. 자율주행 중 시각정보는 주로 영상 입력장치를 거쳐 입력된 이미지를 다양한 인식기술을 이용하여 판단하는 기술을 이용한다. 이중 입력된 이미지를 인식하는 기술인 컴퓨터 영상처리 기술은 최근 4차 산업혁 명의 핵심기술인 인공지능 기술과 결합하여 인간 의 판단능력에 거의 근접되어 있다고 생각된다. 이 인공지능기술 중 딥러닝(deep learning)기술은 영상처리 분야에서 핵심적인 영역이라 생각된다.[1]

    딥러닝 기법 비전을 이용한 연구를 분야별로 살 펴보면 건설분야 안전 연구[2~4], 자동차 자율주행 연구[5~6], 생물 모니터링등[7]에 관한 연구가 수행되 었다.

    본 연구는 딥러닝 영상처리 기법이 이용된 적이 거의 없는 선반가공시 척이 회전할 때 작업자의 손이 척에 접근하는 것은 매우 위험하므로 이를 시간당 이미지 인식율이 빠른 딥러닝 영상처리 기 법을 이용하여 빠른 시간내에 위험요소를 감지하 면 척을 정지시킬 수 있고, 안전사고를 예방할 수 있다.

    이를 위하여 Colab에서 Python을 기본언어로 영 상처리 라이브러리인 OpenCV와 영상프레임 처리 속도(FPS:Frame Per Second)가 빠른 딥러닝 영상처 리 기법중 하나인 YOLO(You Only Look Once)를 이용하여 선반 작업자가 작업중 척에 물린 공작물 이 정지중일때는 작업자가 칩을 제거하거나 공작 물 표면상태나 공작물 측정을 위하여 손의 개입이 필요하므로 안전해야 하고, 공작물이 회전중일때 손이 이미지 영역에 들어왔을 때 매우 위험하므로 이를 인식하여 위험을 감지하고자 한다.

    2. 딥러닝 영상처리 이론

    2.1 딥러닝 영상처리 기법

    영상처리 기술 개발에 인공지능 기법의 하나인 딥러닝(deep learning)이 효과적으로 사용되는 이유 는 영상내 분석 대상의 복잡한 특징을 추출하는 기 능을 학습하기 위해서는 데이터로부터 높은 수준의 특징들을 학습할 수 있는 능력이 필요한데, 딥러닝 기법이 이러한 요구를 잘 만족시키는 특징을 가지 고 있다. 이전의 영상처리에서는 특징 추출 및 분 류 모델은 화소(pixel), 에지(edge), 명도 변화의 방 향, 좁은 영역의 텍스처등의 낮은 수준 특징들을 이용하여 높은 성능을 획득하기 어려웠으며, 대상 (object)간 겹침등 노이즈에 따른 환경 변화에 잘 적 응하지 못하였다. 그러나 얼굴 인식에서 눈, 코, 입, 손모양의 형태 및 위치와 같은 고수준 특징들을 이 용할 경우 딥러닝 기술 적용하면 정확하고 안정적 인 성능을 얻을 수 있다.[8]

    실시간 영상 인식은 알고리즘과 모델을 사용하 여 이미지와 비디오의 시각 자료를 이해하고 해석 하도록 컴퓨터를 훈련시킬 수 있는 인공 지능 분 야로 인공 지능을 사용하여 이미지를 감지하고 레 이블(label)을 지정하는 작업이 포함된다. 이 이미 지는 사용자가 제공한 기능을 사용하여 분류시키 는 이미지 분류(image classification), 주어진 시각 자료에서 다양한 객체를 감지하고 객체 주변에 경 계(대부분 상자)를 그려 분류하는 객체 지역화 (object localization), 두 가지 프로세스를 거쳐 객 체를 분류한 다음 각 객체에 대한 경계를 그리고 특징에 따라 레이블을 지정하는 객체감지(object detection)로 인식이 이루어진다. 객체감지에 사용되 는 딥러닝 신경망기법은 주로 컨벌류션 신경망 (Convolutional Neural Network(CNN))이 이용되고, 이 를 이용하여 최근에 정확도와 인식속도를 높이는데 YOLO를 이용한다.[9]

    2.2 컨볼루션 신경망(CNN)

    초기 CNN을 개발한 아이디어는 고양이의 시선 에 따라 뇌에서 자극 받는 위치가 모두 다르다는 점을 착안하여 CNN을 만들었다. CNN은 이미지 전체를 작은 단위로 쪼개어 각 부분을 분석하는 기술이 핵심을 이루고 있다. CNN은 이미지를 인 식하기 위해 패턴을 찾는 데 유용하다. 데이터를 통해 특징을 스스로 학습하고, 패턴을 사용하여 이미지를 분류하고 특징을 수동으로 추출할 필요 가 없다. CNN은 이미지 인식이 주로 사용되는 분 야인 휴대폰 잠금해제 인식이나 자율 주행 자동차 와 같은 분야에 많이 사용된다.

    응용 분야에 따라 CNN을 처음부터 만들 수도 있고, 데이터셋으로 사전 학습된 모델을 사용할 수도 있다. CNN은 다양한 필터를 이용하여 여러 개의 합성곱 계층(convolution layer)을 만들고 객체 의 두드러진 특징들을 추출하기 위한 풀링 계층 (pooling layer)들을 이용한다. 이 두 단계가 특징을 추출하는 특징 추출(feature extraction) 부분이고, 완전 결합된(fully connected)신경망을 이용하여 마 지막에 분류 역할을 하는 분류기(classification) 부분 이다[10-11].

    CNN을 메인 모델로 사용하는 딥러닝 기반 영 상인식 모델은 연대별 Lenet, Alexnet, GoogLeNet, VGGNet, Resnet, YOLO, Densenet, SENet 등으로 발전되었고, 최근까지 진화를 거듭하면서 정확도 와 영상처리속도를 높이고 있는 중이다.[12]

    2.3 IoU와 NMS

    딥러닝 영상처리에서 IoU는 관심영역으로 지정 된 두가지 물체의 위치 즉 바운딩박스(bounding box)가 얼마나 일치하는지를 수학적으로 나타낸 지표이다. 이것은 두영역의 합집합에 대한 교집합 의 비율로 나타낸다. 만약 두 개의 바운딩 박스를 X,Y라 하면 IoU는 다음 수식으로 나타낸다.

    I o U = X Y X Y
    (1)

    NMS(Non Maximum Suppression)는 동일한 물체 를 가르키는 여러개의 바운딩박스의 중복을 제거 하기 위한 것으로 NMS는 탐지된 객체의 바운딩 박스중에서 비슷하게 겹치는 박스를 제거하고 그 물체를 가르키는 가장 적합한 바운딩 박스를 선택 하는 기법이다. 과정은 다음과 같다. 먼저, 특정 확신임계치(confidence threshold) 이하의 바운딩 박 스는 제거한다. 둘째, 남은 바운딩 박스들을 확신 스코어(confidence score) 기준으로 모두 큰것부터 작은 것 순으로 정렬한다. 셋째, 맨앞에서 박스하 나를 선택하고, 이 박스와 IoU가 특정임계치 이상 인 박스는 모두 제거한다. 여기서 IoU가 특정임계 치 이상이라면 두 개의 박스는 서로 같은 물체를 가르키는 것이므로 확신점수가 낮은 박스는 제거 하고 높은 박스를 남겨둔다. 통상 확신임계치가 높을수록 IoU임계치가 낮을수록 더 많은 박스들 이 제거된다.

    2.4 YOLO 구조와 작동원리

    YOLO의 구조는 앞에서 이야기한 CNN을 기본 프레임으로 하고 있다. Fig. 1은 YOLO를 이용한 딥러닝 영상인식 프로세스를 나타낸 것이다. Fast-RCNN은 특징맵을 추출한 후 selective search와 같은 RPN(Region Proposal Network)을 통해 RoI(Region of Interest)를 추출하고, RoI를 특징맵에 프로젝션(projection)시킨 후 분류작업을 수행하는데 비하여, Fig. 1에서 알 수 있듯이 YOLO는 바운딩박 스(bounding box)를 선별하는 지역화 작업과 분류작 업을 동시에 수행하기 때문에 최종 객체탐지 결과 를 동시에 보여주므로 속도가 매우 빠르다.

    다른 객체탐지 모델처럼 CNN을 통해 7x7 특징 맵을 추출하는데 이것을 그리드셀(grid cell)이라 하며, 각 셀마다 2개의 바운딩박스를 생성하며 이 과정에서 각 바운딩박스정보(x(박스길이센터), y (박스높이센터), w(폭), h(높이))와 셀이 객체일 확 신 점수(confidence score)등의 정보를 생성하는데 이것은 완전연결층을 통하여 학습을 통하여 생성 된다. 그 다음 단계는 생성된 많은 바운딩박스를 통합하여 최고 확률이 높은 객체를 찾아내는 NMS과정을 거친다. 먼저 확신 점수가 한계치 이 하인 박스는 모두 제거하고, 다음으로 2개의 바운딩 박스 교집합을 합집합으로 나눈값 IoU(Intersection of Union) 한계값을 이용하여 특정 이상 한계값을 가진 것 중 큰 확신점수 박스는 남기고 겹치는 작 은 확신점수는 지워나간다. 이런 최종과정을 거치 면 마지막에는 Fig. 1처럼 명확한 객체를 가르키 는 바운딩 박스만 남게 된다.

    3. 결과 및 고찰

    3.1 실험장치

    본 연구에서 사용한 선반은 Fig. 2와 같은 ㈜화 천 HL-380을 사용하였다. 작업조건은 620rpm과 1260rpm에서 작업자가 수작업으로 진행하며 척이 회전할때와 정지했을 때 두 부분으로 나누어 진행 했으며, 척이 회전하고 있을 때 손이 작업영역으로 들어가면 매우 위험하므로 이 경우를 탐지하고, 척 이 회전하지 않을때는 작업자가 척에 물린 공작물 을 빼내거나 혹은 측정을 하거나 기타 바이트 장착 등과 같이 위험하지 않으므로 안전에 문제가 없다. 이외에도 여러 가지 환경설정이 가능하나, 오직 위 험한 경우는 척이 회전할때를 구분하고 이때 손이 작업영역내에 있는지를 탐지하는 것만을 대상으로 하였다.

    영상획득은 널리 사용되는 휴대폰으로 동영상 촬 영을 실시하여 얻은 동영상에서 추출한 영상과 정 지 이미지 영상들을 학습에 사용하였다. 학습데이 터는 훈련용 데이터(train data)와 검증용 데이터 (valid data), 테스트용 데이터(test data)로 구별하여 사용하였다.

    3.2 데이터셋 준비과정

    본 연구에 사용된 데이터셋의 예를 Fig. 3에 표 시하였다. 이 그림에서 획득한 원본 동영상 이미지 를 학습을 위한 훈련용데이터로 만들기 위해서는 선반의 회전과 정지상태 및 손모양을 매 이미지마 다 표시를 한후 데이터 셋을 마련하고, 이러한 훈 련용 데이터를 YOLO에서 학습하기 위해서는 별도 의 추가 파일을 만들어서 인식시켜야 하는데 이러 한 파일의 예가 yaml 화일과 라벨링(labeling)화일이 다. 이 yaml화일내에는 학습용과 검증용 이미지 경 로와 탐지해야 할 클래스(class)갯수와 클래스 이름 리스트가 기록되어 있고, 라벨링 파일에는 각각의 학습용 및 검증용 이미지 데이터마다 손모양과 척 의 정지 회전시의 위치에 관한 정보를 담고 있다.

    YOLO 딥러닝 모델이 학습을 진행할 때 yaml 화 일내의 경로 정보를 가지고 와서 학습을 시작하여, 배치사이즈(batch size)와 에포크(epoch)에 따라 학습 을 진행하고 최적의 weight를 결정한다.

    본 연구에서는 작업자의 손의 다양한 모양을 탐 지하고 재현율을 높이기 위하여 작업자 손 이외에 다른 실험에 사용된 손모양 데이터셋을 함께 학습 시켰다.

    3.3 정밀도(precision)와 재현율(recall)

    일반적으로 딥러닝을 이용한 객체탐지에서 시 스템의 성능을 나타내는 세 가지 지표는 평균정밀 도(mean Averge Precision:mAP)와 재현율(recall), 정 밀도(precison)이다. 정밀도는 예측을 긍정(positive) 으로 한 대상중에 예측과 실제값이 긍정으로 일치 하는 데이터의 비율을 뜻하는데, 만약 탐지 알고 리즘이 영상에서 객체 10개를 차로 검출했는데, 실제 환경에서 10개중 그중 4대는 차이고, 나머지 는 다른 객체라면 정밀도는 0.4가 된다. 재현율은 검출율을 의미하는데, 실제 환경에서 차가 8대가 있으면 8대를 옳게 검출해야 하는데, 이중 4대만 올바르게 검출하였다면, 재현율은 0.5가 된다. 일 반적으로 재현율의 변화에 대한 정밀도 변화 곡선 을 PR곡선이라 하는데, PR곡선 아래 면적을 분류 해야 할 클라스 개수로 나누어 준 것이 mAP이다. mAP@0.5는 IoU값이 0.5 이상일때 평균정밀도를 나 타내고, mAP@0.5:0.95는 IoU값이 0.5에서 0.05씩 증 가시켜 0.95가 될때까지 평균정밀도를 나타낸 것이 다. 그리고 딥러닝에서 한 단위 에포크는 주어진 총 학습데이터 갯수를 일정한 배치사이즈로 잘라서 한번 학습하는 것을 의미한다.

    Fig. 4는 본 연구에서 학습데이터 이미지와 라 벨링 테이터를 이용하여 배치사이즈 16과 에포크 100으로 YOLO시스템의 딥러닝 모델을 이용하여 학습후 검증용데이터를 이용하여 객체탐지를 실시 했을 때 학습결과를 나타낸 것이다. 그림에서 알 수 있듯이 정밀도, 재현율, mAP@0.5는 에포크 70 까지는 과적합(overfitting) 많이 생기다가 이후 최적 으로 학습되어 거의 100%에 도달되었음을 알 수 있으나, mAP@0.5:0.95는 에포크 100까지 과적합 문 제가 발생되어서 mAP@0.5에 비하여 성능이 떨어 지지만 평균정밀도는 80%이상으로 학습되었음을 알 수 있다. 이상의 결과를 볼때 정밀도와 재현율 학습결과를 볼 때 IoU임계치 0.5까지는 객체탐지와 클라스분류를 정확히 하고 있다고 볼 수 있다. mAP@0.5:0.95에서 IoU임계치를 올릴수록 과적합은 발생하지만 전체 인식율은 점차적으로 향상됨을 알 수 있다.

    3.4 고찰

    본 연구에서는 화천선반(HL-380)에서 620rpm과 1260rpm에서 작업자가 원통상의 물체를 회전시키 면서 작업을 할 때, 작업자의 손이 선반척 즉 공 작물이 회전할 때 위험영역내에 들어가게 되면 딥 러닝 영상처리 시스템인 YOLO에서 손과 공작물 회전을 인식하고, 대신 공작물이 정지중일 때는 손이 척주변에 닿이거나 가까이 있어도 문제가 없 기 때문에 세가지 객체 즉 손, 척회전, 척정지 상 황을 탐지하는 것을 목적으로 한다.

    훈련데이터는 226개의 이미지데이터 즉 척정지 이미지 51개, 척정지 및 작업자 손 이미지 65개, 척회전 및 작업자손 이미지 60개, 기타 손모양 50 개를 학습이미지로 하였다. 검증이미지는 226개의 10%인 23개 이미지를 선택하였으며, YOLO시스템 에서 배치사이즈 16과 에포크 100으로 학습시킨 후 최적화된 가중치를 이용하여 작업자가 공작물 을 가공하는 실제 상황을 동영상으로 촬영한 영상 을 가지고 세가지 객체를 얼마나 신뢰성 있게 감 지할 수 있는지를 실험하였다. 그 결과 mAP@0.5 값은 거의 정밀도와 재현율이 99%에 달하고 mAP @0.5:0.95 평균 87%(손 77%, 척회전 92%, 척정지 93%)의 유의미한 결과를 얻었으며, 이 기법이 제조 시스템에서 작업자 안전을 탐지하는 시스템에 적용 될 수 있을 것으로 생각되었다.

    Fig. 5는 딥러닝 YOLO 시스템 추론과정에서 얻 어진 객체를 제대로 탐지하는지 여부를 나타낸 것 으로 손(class 0), 척회전(class 1), 척정지(class 2)을 거의 정확하게 탐지하고 있음을 알 수 있다.

    Fig. 6은 본 연구에서 확신점수(confidence score) 0.5에 대하여 얻은 객체탐지 결과를 나타낸 것으 로 대체적으로 80%이상에서 객체와 클래스 분류 를 잘 분류해내고 있는 것을 알 수 있다. 따라서 딥러닝을 이용한 영상처리 인공지능 기법이 향후 제조시스템에서 작업자의 상태감시와 안전시스템 에 충분히 할용될 수 있을 것으로 생각된다.

    4. 결 론

    딥러닝 영상처리 기법인 YOLO를 이용하여 선삭 작업 중 작업자 위험 감소기법 연구로 척이 회전할 때 작업자의 손이 척 주위에 가까이 가면 위험하고 척이 정지상태에 있을 때 작업자의 손이 척 주위에 접근 하더라도 안전하므로 이러한 상황을 딥러닝 기법을 통하여 식별하여 안전작업을 위한 위험요소 를 감지에 활용성을 연구하였으며, 본 연구를 통하 여 얻은 결론은 다음과 같은 결론을 얻었다.

    • 1. 재현율(recall)과 mAP는 작업위험요소를 감지하 는데 적합한 것으로 판정되었으며, 향후 실시간 안전시스템 구축에 충분히 이용될 수 있을 것으 로 생각한다.

    • 2. 다양한 손모양을 감지하는데는 훈련데이터셋 (training dataset)의 한계로 수많은 상황을 다 검 출할 수는 없었으며 이 부분은 앞으로 다양한 상황에서 다양한 손 모양과 장갑을 착용한 경우 등을 학습시켜야 인식율이 높아질 것으로 생각 된다.

    • 3. YOLO 딥러닝 영상처리시스템을 이용하여서도 향후 선반 뿐만 아니라 다른 기계가공의 상태 감시시스템과 안전사고방지 시스템에 활용될 수 있을 것으로 기대된다.

    후 기

    “이 논문은 2020년도 안동대학교 학술조성연구비 지원에 의하여 연구되었음.”

    Figure

    KSMPE-20-12-1_F1.gif
    YOLO object detection process
    KSMPE-20-12-1_F2.gif
    Experiment apparatus(Hwacheon HL-380)
    KSMPE-20-12-1_F3.gif
    YOLO train data image examples
    KSMPE-20-12-1_F4.gif
    YOLO train results
    KSMPE-20-12-1_F5.gif
    YOLO class object detection process
    KSMPE-20-12-1_F6.gif
    Object detection and classification results

    Table

    Reference

    1. Mousavian, A., Anguelov D., Flynn, J., Kosecka, J., “3D bounding box estimation using deep learning and geometry," 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 5632–5640, 2017.
    2. Lee, O. S., Mun, T. U., Lee, D.,“Safety equipment wearing detection using YOLO based on deep learning,” 2019 IEIE Fall Conference, pp. 829-830, 2019.
    3. Son, H., Kim, C., “Integrated worker detection and tracking for the safe operation of construction machinery,” Automation in Construction,
    4. Kim, D., Meiyin, L., Lee, S. H., Vineet, R. K., Remote proximity monitoring between mobile construction resources using camera-mounted UAVs, Automation in Construction, Vol.99, pp. 168-182, March 2019.
    5. Xuerui, D., “HybridNet: A fast vehicle detection system for autonomous driving,” Signal Processing: Image Communication Vol. 70 pp. 79-88, 2019.
    6. Changxi, Y., Jianbo, L., Dimitar, F., Panagiotis, T., “Advanced planning for autonomous vehicles using reinforcement learning and deep inverse reinforcement learning,” Robotics and Autonomous Systems, Vol. 114, pp. 1-18. 2019.
    7. Victor, P., Leon, N., Phil, S., Yiannis, A., “Automated vision-based system for monitoring Asian citrus psyllid inorchards utilizing artificial intelligence,” Computers and Electronics in Agriculture Vol. 162, pp. 328-336, 2019.
    8. Tao, G., Bin, L., Qi, C., Nenghai, Y., “Using multi-label classification to improve object detection,” Neurocomputing, Vol. 370, pp. 174– 185, 2019.
    9. Shubham, S., Ashwin, K., Vikram, G., “YOLO based Human Action Recognition and Localization,” Procedia Computer Science, Vol. 133, pp. 831–838, 2018.
    10. Jia, T., Zhang. et al., “Benign and malignant lung nodule classification based on deep learning feature,” Journal of Medical Imaging and Health Informatics, Vol. 5, No. 8, pp. 1936-1940, 2015.
    11. Yan, Zhennan et al., “Body part Recognition Using Multi-stage Deep Learning,” Information processing in medical imaging”, Vol. 24, pp.449-461, 2015.
    12. Xin, F., Youni, J., Xuejiao, Y., Ming, D., Xin, L., “Computer vision algorithms and hardware implementations: A survey,” Integration, the VLSI Journal, Vol. 69, pp. 309–320, 2019.