여상호
Sangho Yeo
soboru963 at ajou.ac.kr
Research interests
GPGPU, Cloud
Introduction
안녕하세요 저는 아주대학교를 졸업하고 아주대학원에 왔습니다. 분산프로그래밍, 병렬프로그래밍에 대해서 처음 접하게된 계기는 대학교에서 배운 하둡입니다. 그 이후로 클라우드 서비스인 AWS를 활용하여 학교에서 게임플랫폼 프로젝트를 해보고 같이 프로젝트를 한 형의 조언으로 이 연구실에 오게되었습니다. 이 전공이 다양한 분야에서 활용될 수 있는 것처럼 저도 대학원 생활을 하면서 다양한 경험을 하면 좋겠습니다.
Publications
2022
여상호,; 배민호,; 정민중,; 권오경,; 오상윤,
Crossover-SGD: A gossip-based communication in distributed deep learning for alleviating large mini-batch problem and enhancing scalability🌏 InternationalJournal Article
In: Concurrency and Computation: Practice and Experience, 2022.
@article{여상호2022Crossover-SGD,
title = {Crossover-SGD: A gossip-based communication in distributed deep learning for alleviating large mini-batch problem and enhancing scalability},
author = {여상호 and 배민호 and 정민중 and 권오경 and 오상윤},
url = {https://arxiv.org/abs/2012.15198},
doi = {10.48550/arXiv.2012.15198},
year = {2022},
date = {2022-11-01},
urldate = {2022-11-01},
journal = {Concurrency and Computation: Practice and Experience},
abstract = { Distributed deep learning is an effective way to reduce the training time of deep learning for large datasets as well as complex models. However, the limited scalability caused by network overheads makes it difficult to synchronize the parameters of all workers. To resolve this problem, gossip-based methods that demonstrates stable scalability regardless of the number of workers have been proposed. However, to use gossip-based methods in general cases, the validation accuracy for a large mini-batch needs to be verified. To verify this, we first empirically study the characteristics of gossip methods in a large mini-batch problem and observe that the gossip methods preserve higher validation accuracy than AllReduce-SGD(Stochastic Gradient Descent) when the number of batch sizes is increased and the number of workers is fixed. However, the delayed parameter propagation of the gossip-based models decreases validation accuracy in large node scales. To cope with this problem, we propose Crossover-SGD that alleviates the delay propagation of weight parameters via segment-wise communication and load balancing random network topology. We also adapt hierarchical communication to limit the number of workers in gossip-based communication methods. To validate the effectiveness of our proposed method, we conduct empirical experiments and observe that our Crossover-SGD shows higher node scalability than SGP(Stochastic Gradient Push). },
keywords = {},
pubstate = {published},
tppubtype = {article}
}
Park, Juwon; Yoon, Daegun; Yeo, Sangho; Oh, Sangyoon
AMBLE: Adjusting Mini-Batch and Local Epoch for Federated Learning with Heterogeneous Devices🌏 InternationalJournal Article
In: Journal of Parallel and Distributed Computing, 2022, ISSN: 0743-7315.
@article{Juwon2022AMBLE,
title = {AMBLE: Adjusting Mini-Batch and Local Epoch for Federated Learning with Heterogeneous Devices},
author = {Juwon Park and Daegun Yoon and Sangho Yeo and Sangyoon Oh},
url = {https://www.sciencedirect.com/science/article/pii/S0743731522001757},
doi = {https://doi.org/10.1016/j.jpdc.2022.07.009},
issn = {0743-7315},
year = {2022},
date = {2022-07-21},
urldate = {2022-07-21},
journal = {Journal of Parallel and Distributed Computing},
abstract = {As data privacy becomes increasingly important, federated learning applied to the training of deep learning models while ensuring the data privacy of devices is entering the spotlight. Federated learning makes it possible to process all data at once while processing data independently from various devices without collecting distributed local data in a central server. However, there are still challenges to overcome for the system of devices in federated learning such as communication overheads and the heterogeneity of the system. In this paper, we propose the Adjusting Mini-Batch and Local Epoch (AMBLE) approach, which adaptively adjusts the local mini-batch and local epoch size for heterogeneous devices in federated learning and updates the parameters synchronously. With AMBLE, we enhance the computational efficiency by removing stragglers and scaling the local learning rate to improve the model convergence rate and accuracy. We verify that federated learning with AMBLE is a stably trained model with a faster convergence speed and higher accuracy than FedAvg and adaptive batch size scheme for both identically and independently distributed (IID) and non-IID cases.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
2021
Lee, Seungjun; Yoon, Daegun; Yeo, Sangho; Oh, Sangyoon
Mitigating Cold Start Problem in Serverless Computing with Function Fusion🌏 InternationalJournal Article
In: Sensors, vol. 21, no. 24, 2021, ISSN: 1424-8220.
@article{s21248416,
title = {Mitigating Cold Start Problem in Serverless Computing with Function Fusion},
author = {Seungjun Lee and Daegun Yoon and Sangho Yeo and Sangyoon Oh},
url = {https://www.mdpi.com/1424-8220/21/24/8416},
doi = {10.3390/s21248416},
issn = {1424-8220},
year = {2021},
date = {2021-12-23},
urldate = {2021-12-16},
journal = {Sensors},
volume = {21},
number = {24},
abstract = {As Artificial Intelligence (AI) is becoming ubiquitous in many applications, serverless computing is also emerging as a building block for developing cloud-based AI services. Serverless computing has received much interest because of its simplicity, scalability, and resource efficiency. However, due to the trade-off with resource efficiency, serverless computing suffers from the cold start problem, that is, a latency between a request arrival and function execution. The cold start problem significantly influences the overall response time of workflow that consists of functions because the cold start may occur in every function within the workflow. Function fusion can be one of the solutions to mitigate the cold start latency of a workflow. If two functions are fused into a single function, the cold start of the second function is removed; however, if parallel functions are fused, the workflow response time can be increased because the parallel functions run sequentially even if the cold start latency is reduced. This study presents an approach to mitigate the cold start latency of a workflow using function fusion while considering a parallel run. First, we identify three latencies that affect response time, present a workflow response time model considering the latency, and efficiently find a fusion solution that can optimize the response time on the cold start. Our method shows a response time of 28%–86% of the response time of the original workflow in five workflows.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
여상호,; 오상윤,
도시 화재 시뮬레이션에서의 효과적인 화재 대응을 위한 강화학습 적용 솔루션의 설계 및 구현🇰🇷 DomesticConference
ACK 2021, vol. 28, no. 2, 2021.
@conference{여상호2021도시2,
title = {도시 화재 시뮬레이션에서의 효과적인 화재 대응을 위한 강화학습 적용 솔루션의 설계 및 구현},
author = {여상호 and 오상윤},
url = {https://kiss.kstudy.com/thesis/thesis-view.asp?key=3921079},
year = {2021},
date = {2021-11-04},
urldate = {2021-11-04},
booktitle = {ACK 2021},
volume = {28},
number = {2},
pages = {104--106},
abstract = {도시의 인구 밀집도가 증가함에 따라 도시의 단위 면적당 건물 밀집도 역시 증가하고 있으며, 이에 도시 화재는 대규모 화재로 발전할 가능성이 높다. 도시 내 대규모 화재로 인한 인명 및 경제적인 피해를 최소화하기 위해 시뮬레이션 기반의 화재 대응 방안들이 널리 연구되고 있으며, 최근에는 시뮬레이션에서 효과적인 화재 대응 방안을 탐색하기 위해 강화학습 기술을 활용하는 연구들이 소개되고 있다. 그러나, 시뮬레이션의 규모가 커지는 경우, 상태 정보 및 화재 대응을 위한 행위 공간의 크기가 증가함으로 인해 강화학습의 복잡도가 증가하며, 이에 따라 학습 확장성이 저하되는 문제가 발생한다. 본 논문에서는 시뮬레이션 규모 증가 시 강화학습의 학습 확장성을 유지하기 위해, 화재 상황 정보와 재난 대응을 위한 행위 공간을 변환하는 기법을 제안한다. 실험 결과를 통해 기존에 강화학습 모델의 학습이 어려웠던 대규모 도시 재난 시뮬레이션에서 본 기법을 적용한 강화학습 모델은 학습 수행이 가능하였으며, 화재 피해가 없는 상황의 적합도를 100%로 하고, 이것 대비 99.2%의 화재 대응 적합도를 달성했다.},
keywords = {},
pubstate = {published},
tppubtype = {conference}
}
이승준,; 여상호,; 오상윤,
Edge AI의 추론 과정을 위한 계층적 작업 분할 배치 기법🇰🇷 DomesticConference
2021 한국차세대컴퓨팅학회 춘계학술대회, 한국차세대컴퓨팅학회, 2021.
@conference{이승준2021edge,
title = {Edge AI의 추론 과정을 위한 계층적 작업 분할 배치 기법},
author = {이승준 and 여상호 and 오상윤},
url = {https://www.earticle.net/Article/A409319},
year = {2021},
date = {2021-05-13},
urldate = {2021-05-13},
booktitle = {2021 한국차세대컴퓨팅학회 춘계학술대회},
pages = {26-29},
publisher = {한국차세대컴퓨팅학회},
abstract = {머신러닝 모델을 엣지 디바이스에 안정적으로 배포하기 위해서 기존 클라우드 기반의 머신 러닝 모델 배포는 높은 지연 시간으로 인해 머신 러닝 서비스의 질을 떨어트리는 문제를 야기한다. 또한, 추론을 위한 입력 데이터의 전송 과정은 개인 정보의 유출을 야기한다. 이러한 문제를 해결하기 위해서 개인 정보 유출 및 통신 부하 문제를 해결할 수 있는 엣지 서버 및 엣지 디바이스를 활용한 추론 과정의 정의가 요구된다. 본 연구팀은 효과적인 추론 과정의 정의를 위해 기존 분산 딥러닝의 모델 및 데이터 병렬화 파이프라인 기법에 기반하는 단일 추론 모델에 대한 엣지 서버-디바이스 간 모델 분할 기법 및 엣지에서 요청되는 독립된 다중 작업들에 대한 효과적인 스케쥴링 기법을 제안한다.},
keywords = {},
pubstate = {published},
tppubtype = {conference}
}
여상호,; 이승준,; 오상윤,
도시 재난 대응을 위한 Multi Objective 강화학습 모델 설계🇰🇷 DomesticConference
2021 한국차세대컴퓨팅학회 춘계학술대회, 한국차세대컴퓨팅학회, 2021.
@conference{여상호2021도시,
title = {도시 재난 대응을 위한 Multi Objective 강화학습 모델 설계},
author = {여상호 and 이승준 and 오상윤},
url = {https://www.earticle.net/Article/A409315},
year = {2021},
date = {2021-05-13},
urldate = {2021-05-13},
booktitle = {2021 한국차세대컴퓨팅학회 춘계학술대회},
pages = {11-15},
publisher = {한국차세대컴퓨팅학회},
keywords = {},
pubstate = {published},
tppubtype = {conference}
}
Yeo, Sangho; Naing, Ye; Kim, Taeha; Oh, Sangyoon
Achieving Balanced Load Distribution with Reinforcement Learning-Based Switch Migration in Distributed SDN Controllers🌏 InternationalJournal Article
In: Electronics, vol. 10, no. 2, pp. 162, 2021.
@article{yeo2021achieving,
title = {Achieving Balanced Load Distribution with Reinforcement Learning-Based Switch Migration in Distributed SDN Controllers},
author = {Sangho Yeo and Ye Naing and Taeha Kim and Sangyoon Oh},
url = {https://www.mdpi.com/2079-9292/10/2/162},
year = {2021},
date = {2021-01-01},
journal = {Electronics},
volume = {10},
number = {2},
pages = {162},
publisher = {Multidisciplinary Digital Publishing Institute},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
여상호,; 이승준,; 오상윤,
학습 성능 향상을 위한 차원 축소 기법 기반 재난 시뮬레이션강화학습 환경 구성 및 활용🇰🇷 DomesticJournal Article
In: 정보처리학회논문지. 소프트웨어 및 데이터 공학, vol. 10, no. 7, pp. 263–270, 2021.
@article{여상호2021학습,
title = {학습 성능 향상을 위한 차원 축소 기법 기반 재난 시뮬레이션강화학습 환경 구성 및 활용},
author = {여상호 and 이승준 and 오상윤},
url = {https://kiss.kstudy.com/thesis/thesis-view.asp?key=3898295},
year = {2021},
date = {2021-01-01},
journal = {정보처리학회논문지. 소프트웨어 및 데이터 공학},
volume = {10},
number = {7},
pages = {263--270},
abstract = {
강화학습은 학습을 통해 최적의 행동정책을 탐색하는 기법으로써, 재난 상황에서 효과적인 인명 구조 및 재난 대응 문제 해결을 위해 많이 활용되고 있다. 그러나, 기존 재난 대응을 위한 강화학습 기법은 상대적으로 단순한 그리드, 그래프와 같은 환경 혹은 자체 개발한 강화학습 환경을 통해 평가를 수행함에 따라 그 실용성이 충분히 검증되지 않았다. 본 논문에서는 강화학습 기법을 실세계 환경에서 사용하기 위해 기존 개발된 재난 시뮬레이션 환경의 복잡한 프로퍼티를 활용하는 강화학습 환경 구성과 활용 결과를 제시하고자 한다. 본 제안 강화학습 환경의 구성을 위하여 재난 시뮬레이션과 강화학습 에이전트 간 강화학습 커뮤니케이션 채널 및 인터페이스를 구축하였으며, 시뮬레이션 환경이 제공하는 고차원의 프로퍼티 정보의 활용을 위해 비-이미지 피쳐 벡터(non-image feature vector)에 이미지 변환방식을 적용하였다. 실험을 통해 본 제안 방식이 건물 화재 피해도를 기준으로 한 평가에서 기존 방식 대비 가장 낮은 건물 화재 피해를 기록한 것을 확인하였다.
},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
강화학습은 학습을 통해 최적의 행동정책을 탐색하는 기법으로써, 재난 상황에서 효과적인 인명 구조 및 재난 대응 문제 해결을 위해 많이 활용되고 있다. 그러나, 기존 재난 대응을 위한 강화학습 기법은 상대적으로 단순한 그리드, 그래프와 같은 환경 혹은 자체 개발한 강화학습 환경을 통해 평가를 수행함에 따라 그 실용성이 충분히 검증되지 않았다. 본 논문에서는 강화학습 기법을 실세계 환경에서 사용하기 위해 기존 개발된 재난 시뮬레이션 환경의 복잡한 프로퍼티를 활용하는 강화학습 환경 구성과 활용 결과를 제시하고자 한다. 본 제안 강화학습 환경의 구성을 위하여 재난 시뮬레이션과 강화학습 에이전트 간 강화학습 커뮤니케이션 채널 및 인터페이스를 구축하였으며, 시뮬레이션 환경이 제공하는 고차원의 프로퍼티 정보의 활용을 위해 비-이미지 피쳐 벡터(non-image feature vector)에 이미지 변환방식을 적용하였다. 실험을 통해 본 제안 방식이 건물 화재 피해도를 기준으로 한 평가에서 기존 방식 대비 가장 낮은 건물 화재 피해를 기록한 것을 확인하였다.
김대현,; 여상호,; 오상윤,
분산 딥러닝에서 통신 오버헤드를 줄이기 위해 레이어를 오버래핑하는 하이브리드 올-리듀스 기법🇰🇷 DomesticJournal Article
In: 정보처리학회논문지. 컴퓨터 및 통신시스템, vol. 10, no. 7, pp. 191–198, 2021.
@article{김대현2021분산,
title = {분산 딥러닝에서 통신 오버헤드를 줄이기 위해 레이어를 오버래핑하는 하이브리드 올-리듀스 기법},
author = {김대현 and 여상호 and 오상윤},
url = {https://kiss.kstudy.com/thesis/thesis-view.asp?key=3898298},
year = {2021},
date = {2021-01-01},
urldate = {2021-01-01},
journal = {정보처리학회논문지. 컴퓨터 및 통신시스템},
volume = {10},
number = {7},
pages = {191--198},
abstract = {분산 딥러닝은 각 노드에서 지역적으로 업데이트한 지역 파라미터를 동기화는 과정이 요구된다. 본 연구에서는 분산 딥러닝의 효과적인 파라미터 동기화 과정을 위해, 레이어 별 특성을 고려한 allreduce 통신과 연산 오버래핑(overlapping) 기법을 제안한다. 상위 레이어의 파라미터 동기화는 하위 레이어의 다음 전파과정 이전까지 통신/계산(학습) 시간을 오버랩하여 진행할 수 있다. 또한 이미지 분류를 위한 일반적인 딥러닝 모델의 상위 레이어는 convolution 레이어, 하위 레이어는 fully-connected 레이어로 구성되어 있다. Convolution 레이어는 fully-connected 레이어 대비 적은 수의 파라미터를 가지고 있고 상위에 레이어가 위치하므로 네트워크 오버랩 허용시간이 짧고, 이를 고려하여 네트워크 지연시간을 단축할 수 있는 butterfly all-reduce를 사용하는 것이 효과적이다. 반면 오버랩 허용시간이 보다 긴 경우, 네트워크 대역폭을 고려한 ring all-reduce를 사용한다. 본 논문의 제안 방법의 효과를 검증하기 위해 제안 방법을 PyTorch 플랫폼에 적용하여 이를 기반으로 실험 환경을 구성하여 배치크기에 대한 성능 평가를 진행하였다. 실험을 통해 제안 기법의 학습시간은 기존 PyTorch 방식 대비 최고 33% 단축된 모습을 확인하였다.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
2020
Yeo, Sangho; Lee, Seungjun; Choi, Boreum; Oh, Sangyoon
Integrate multi-agent simulation environment and multi-agent reinforcement learning (MARL) for real-world scenario🌏 InternationalConference
2020 International Conference on Information and Communication Technology Convergence (ICTC), IEEE 2020.
@conference{yeo2020integrate,
title = {Integrate multi-agent simulation environment and multi-agent reinforcement learning (MARL) for real-world scenario},
author = {Sangho Yeo and Seungjun Lee and Boreum Choi and Sangyoon Oh},
url = {https://ieeexplore.ieee.org/abstract/document/9289369},
doi = {10.1109/ICTC49870.2020.9289369},
year = {2020},
date = {2020-01-01},
booktitle = {2020 International Conference on Information and Communication Technology Convergence (ICTC)},
pages = {523--525},
organization = {IEEE},
keywords = {},
pubstate = {published},
tppubtype = {conference}
}
Bae, Minho; Yeo, Sangho; Park, Gyudong; Oh, Sangyoon
Novel data-placement scheme for improving the data locality of Hadoop in heterogeneous environments🌏 InternationalJournal Article
In: Concurrency and Computation: Practice and Experience, pp. e5752, 2020.
@article{bae2020novel,
title = {Novel data-placement scheme for improving the data locality of Hadoop in heterogeneous environments},
author = {Minho Bae and Sangho Yeo and Gyudong Park and Sangyoon Oh},
url = {https://doi.org/10.1002/cpe.5752},
year = {2020},
date = {2020-01-01},
urldate = {2020-01-01},
journal = {Concurrency and Computation: Practice and Experience},
pages = {e5752},
publisher = {Wiley Online Library},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
Yeo, Sangho; Oh, Sangyoon; Lee, Minsu
Accelerated deep reinforcement learning with efficient demonstration utilization techniques🌏 InternationalJournal Article
In: World Wide Web, pp. 1–23, 2020.
@article{yeo2020accelerated,
title = {Accelerated deep reinforcement learning with efficient demonstration utilization techniques},
author = {Sangho Yeo and Sangyoon Oh and Minsu Lee},
url = {https://link.springer.com/article/10.1007/s11280-019-00763-0},
year = {2020},
date = {2020-01-01},
urldate = {2020-01-01},
journal = {World Wide Web},
pages = {1--23},
publisher = {Springer},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
2019
Bae, Minho; Jeong, Minjoong; Yeo, Sangho; Oh, Sangyoon; Kwon, Oh-Kyoung
I/O Performance Evaluation of Large-Scale Deep Learning on an HPC System🌏 InternationalConference
2019 International Conference on High Performance Computing & Simulation (HPCS), IEEE 2019.
@conference{bae2019performance,
title = {I/O Performance Evaluation of Large-Scale Deep Learning on an HPC System},
author = {Minho Bae and Minjoong Jeong and Sangho Yeo and Sangyoon Oh and Oh-Kyoung Kwon},
year = {2019},
date = {2019-01-01},
urldate = {2019-01-01},
booktitle = {2019 International Conference on High Performance Computing & Simulation (HPCS)},
pages = {436--439},
organization = {IEEE},
keywords = {},
pubstate = {published},
tppubtype = {conference}
}
Yeo, Sangho; Oh, Sangyoon; Lee, Minsu
Accelerating Deep Reinforcement Learning Using Human Demonstration Data Based on Dual Replay Buffer Management and Online Frame Skipping🌏 InternationalConference
2019 IEEE International Conference on Big Data and Smart Computing (BigComp), IEEE 2019.
@conference{yeo2019accelerating,
title = {Accelerating Deep Reinforcement Learning Using Human Demonstration Data Based on Dual Replay Buffer Management and Online Frame Skipping},
author = {Sangho Yeo and Sangyoon Oh and Minsu Lee},
year = {2019},
date = {2019-01-01},
urldate = {2019-01-01},
booktitle = {2019 IEEE International Conference on Big Data and Smart Computing (BigComp)},
pages = {1--8},
organization = {IEEE},
keywords = {},
pubstate = {published},
tppubtype = {conference}
}
2018
Seo, Kyeonghee; Yeo, Sangho; Oh, Sangyoon
Active-Active Message Replica Scheme for Enhancing Performance of Distributed Message Broker🌏 InternationalJournal Article
In: KIPS Transactions on Computer and Communication Systems, vol. 7, no. 6, pp. 145–154, 2018.
@article{seo2018active,
title = {Active-Active Message Replica Scheme for Enhancing Performance of Distributed Message Broker},
author = {Kyeonghee Seo and Sangho Yeo and Sangyoon Oh},
year = {2018},
date = {2018-01-01},
urldate = {2018-01-01},
journal = {KIPS Transactions on Computer and Communication Systems},
volume = {7},
number = {6},
pages = {145--154},
publisher = {Korea Information Processing Society},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
Kim, Minsub; Bae, Minho; Yeo, Sangho; Park, Gyudong; Oh, Sangyoon
Decentralized Message Broker Federation Architecture with Multiple DHT Rings for High Survivability🌏 InternationalConference
International Conference on Computational Science and Its Applications, Springer 2018.
@conference{kim2018decentralized,
title = {Decentralized Message Broker Federation Architecture with Multiple DHT Rings for High Survivability},
author = {Minsub Kim and Minho Bae and Sangho Yeo and Gyudong Park and Sangyoon Oh},
year = {2018},
date = {2018-01-01},
urldate = {2018-01-01},
booktitle = {International Conference on Computational Science and Its Applications},
pages = {218--226},
organization = {Springer},
keywords = {},
pubstate = {published},
tppubtype = {conference}
}
2017
김민섭,; 여상호,; 오상윤,; 정민중,
Embedded GPU 환경에서의 병렬 컴퓨터 비전 라이브러리의 비교: OpenCV 와 VisionWorks🇰🇷 DomesticConference
2017년 한국컴퓨터종합학술대회, 2017.
@conference{김민섭2017embedded,
title = {Embedded GPU 환경에서의 병렬 컴퓨터 비전 라이브러리의 비교: OpenCV 와 VisionWorks},
author = {김민섭 and 여상호 and 오상윤 and 정민중},
url = {https://www.dbpia.co.kr/pdf/pdfView.do?nodeId=NODE07207146&mark=0&useDate=&ipRange=N&accessgl=Y&language=ko_KR},
year = {2017},
date = {2017-01-01},
urldate = {2017-01-01},
booktitle = {2017년 한국컴퓨터종합학술대회},
journal = {한국정보과학회 학술발표논문집},
pages = {97--99},
abstract = {컴퓨터 비전 및 인공지능 어플리케이션은 기존의 서버 및 데스크탑 환경에서 최근 임베디드 시스템으로 확산되고 있다. 일반적으로 컴퓨터 비전 관련 데이터 처리들은 많은 계산이 필요하기 때문에 병렬 계산 패러다임의 적용이 효과적이다. 본 논문에서는 대표적인 병렬 컴퓨터 비전 라이브러리인 OpenCV GPU 모듈과 VisionWorks의 처리 성능 및전력 소모량을 임베디드 환경에서 비교하고 특성과 제한점을 분석하도록 한다. 본 연구의 실험을 통해서 Defaultstream만을 사용한 OpenCV GPU 어플리케이션보다 VisionWorks 어플리케이션이 더 좋은 성능을 나타냄을 보였으나,OpenCV의 경우 개발자에 의한 커널 배치 방식에 따라 성능을 달리하므로 추가적인 성능 개선의 여지가 있을 것으로판단된다. 전력 소모량은 두 라이브러리 모두 GPU가 부착된 임베디드 시스템에서의 사용에 적절한 수준으로 판단된다.},
keywords = {},
pubstate = {published},
tppubtype = {conference}
}