논문 인용하기
각 논문마다 생성되어 있는 BibTeX를 사용하시면 자신이 원하는 스타일의 인용 문구를 생성할 수 있습니다.
생성된 BibTeX 코드를 복사하여 BibTeX Parser를 사용해 일반 문자열로 바꾸십시오. 아래의 사이트와 같이 웹에서 변환할 수도 있습니다.
bibtex.online2021
여상호,; 오상윤,
도시 화재 시뮬레이션에서의 효과적인 화재 대응을 위한 강화학습 적용 솔루션의 설계 및 구현🇰🇷 DomesticConference
ACK 2021, vol. 28, no. 2, 2021.
Abstract | Links | BibTeX | 태그: disaster response, reinforcement learning
@conference{여상호2021도시2,
title = {도시 화재 시뮬레이션에서의 효과적인 화재 대응을 위한 강화학습 적용 솔루션의 설계 및 구현},
author = {여상호 and 오상윤},
url = {https://kiss.kstudy.com/thesis/thesis-view.asp?key=3921079},
year = {2021},
date = {2021-11-04},
urldate = {2021-11-04},
booktitle = {ACK 2021},
volume = {28},
number = {2},
pages = {104--106},
abstract = {도시의 인구 밀집도가 증가함에 따라 도시의 단위 면적당 건물 밀집도 역시 증가하고 있으며, 이에 도시 화재는 대규모 화재로 발전할 가능성이 높다. 도시 내 대규모 화재로 인한 인명 및 경제적인 피해를 최소화하기 위해 시뮬레이션 기반의 화재 대응 방안들이 널리 연구되고 있으며, 최근에는 시뮬레이션에서 효과적인 화재 대응 방안을 탐색하기 위해 강화학습 기술을 활용하는 연구들이 소개되고 있다. 그러나, 시뮬레이션의 규모가 커지는 경우, 상태 정보 및 화재 대응을 위한 행위 공간의 크기가 증가함으로 인해 강화학습의 복잡도가 증가하며, 이에 따라 학습 확장성이 저하되는 문제가 발생한다. 본 논문에서는 시뮬레이션 규모 증가 시 강화학습의 학습 확장성을 유지하기 위해, 화재 상황 정보와 재난 대응을 위한 행위 공간을 변환하는 기법을 제안한다. 실험 결과를 통해 기존에 강화학습 모델의 학습이 어려웠던 대규모 도시 재난 시뮬레이션에서 본 기법을 적용한 강화학습 모델은 학습 수행이 가능하였으며, 화재 피해가 없는 상황의 적합도를 100%로 하고, 이것 대비 99.2%의 화재 대응 적합도를 달성했다.},
keywords = {disaster response, reinforcement learning},
pubstate = {published},
tppubtype = {conference}
}
Lee, Seungjun; Yoon, Daegun; Oh, Sangyoon
Imitation learning for VM placement problem using demonstration data generated by heuristics🌏 InternationalConference 📃 In press
17th Int. Conference on Data Science (ICDATA’21), 2021.
Abstract | Links | BibTeX | 태그: consolidation, imitation learning, reinforcement learning
@conference{lee2021imitation,
title = {Imitation learning for VM placement problem using demonstration data generated by heuristics},
author = {Seungjun Lee and Daegun Yoon and Sangyoon Oh},
url = {https://youtu.be/CmG3E1rWroQ},
year = {2021},
date = {2021-07-26},
urldate = {2021-07-26},
booktitle = {17th Int. Conference on Data Science (ICDATA’21)},
abstract = {Data centers are key components of cloud computing to run virtual machines. For saving the cost to operate data centers, it is important to decide how to allocate each virtual machine to a certain physical machine. Because the virtual machine placement problem is NP-Hard, there are many heuristics to obtain near-optimal solutions as quickly as possible. The reinforcement learning technique can be applied for virtual machine placement problem. However, if the problem size gets bigger, the convergence speed of reinforcement learning gets slower. The possible solution is that the agent imitates the behavior of given demonstration, called imitation learning. In this paper, we propose a method combining reinforcement learning with imitation learning. In our proposed approach, demonstration data is generated by simple heuristics not human experts.},
keywords = {consolidation, imitation learning, reinforcement learning},
pubstate = {published},
tppubtype = {conference}
}
여상호,; 이승준,; 오상윤,
도시 재난 대응을 위한 Multi Objective 강화학습 모델 설계🇰🇷 DomesticConference
2021 한국차세대컴퓨팅학회 춘계학술대회, 한국차세대컴퓨팅학회, 2021.
Links | BibTeX | 태그: deep reinforcement learning, disaster response, reinforcement learning
@conference{여상호2021도시,
title = {도시 재난 대응을 위한 Multi Objective 강화학습 모델 설계},
author = {여상호 and 이승준 and 오상윤},
url = {https://www.earticle.net/Article/A409315},
year = {2021},
date = {2021-05-13},
urldate = {2021-05-13},
booktitle = {2021 한국차세대컴퓨팅학회 춘계학술대회},
pages = {11-15},
publisher = {한국차세대컴퓨팅학회},
keywords = {deep reinforcement learning, disaster response, reinforcement learning},
pubstate = {published},
tppubtype = {conference}
}
Yeo, Sangho; Naing, Ye; Kim, Taeha; Oh, Sangyoon
Achieving Balanced Load Distribution with Reinforcement Learning-Based Switch Migration in Distributed SDN Controllers🌏 InternationalJournal Article
In: Electronics, vol. 10, no. 2, pp. 162, 2021.
Links | BibTeX | 태그: distributed controllers, load balancing, reinforcement learning, SDN, software-defined networking, switch migration
@article{yeo2021achieving,
title = {Achieving Balanced Load Distribution with Reinforcement Learning-Based Switch Migration in Distributed SDN Controllers},
author = {Sangho Yeo and Ye Naing and Taeha Kim and Sangyoon Oh},
url = {https://www.mdpi.com/2079-9292/10/2/162},
year = {2021},
date = {2021-01-01},
journal = {Electronics},
volume = {10},
number = {2},
pages = {162},
publisher = {Multidisciplinary Digital Publishing Institute},
keywords = {distributed controllers, load balancing, reinforcement learning, SDN, software-defined networking, switch migration},
pubstate = {published},
tppubtype = {article}
}
여상호,; 이승준,; 오상윤,
학습 성능 향상을 위한 차원 축소 기법 기반 재난 시뮬레이션강화학습 환경 구성 및 활용🇰🇷 DomesticJournal Article
In: 정보처리학회논문지. 소프트웨어 및 데이터 공학, vol. 10, no. 7, pp. 263–270, 2021.
Abstract | Links | BibTeX | 태그: dimension reduction, disaster response, reinforcement learning
@article{여상호2021학습,
title = {학습 성능 향상을 위한 차원 축소 기법 기반 재난 시뮬레이션강화학습 환경 구성 및 활용},
author = {여상호 and 이승준 and 오상윤},
url = {https://kiss.kstudy.com/thesis/thesis-view.asp?key=3898295},
year = {2021},
date = {2021-01-01},
journal = {정보처리학회논문지. 소프트웨어 및 데이터 공학},
volume = {10},
number = {7},
pages = {263--270},
abstract = {
강화학습은 학습을 통해 최적의 행동정책을 탐색하는 기법으로써, 재난 상황에서 효과적인 인명 구조 및 재난 대응 문제 해결을 위해 많이 활용되고 있다. 그러나, 기존 재난 대응을 위한 강화학습 기법은 상대적으로 단순한 그리드, 그래프와 같은 환경 혹은 자체 개발한 강화학습 환경을 통해 평가를 수행함에 따라 그 실용성이 충분히 검증되지 않았다. 본 논문에서는 강화학습 기법을 실세계 환경에서 사용하기 위해 기존 개발된 재난 시뮬레이션 환경의 복잡한 프로퍼티를 활용하는 강화학습 환경 구성과 활용 결과를 제시하고자 한다. 본 제안 강화학습 환경의 구성을 위하여 재난 시뮬레이션과 강화학습 에이전트 간 강화학습 커뮤니케이션 채널 및 인터페이스를 구축하였으며, 시뮬레이션 환경이 제공하는 고차원의 프로퍼티 정보의 활용을 위해 비-이미지 피쳐 벡터(non-image feature vector)에 이미지 변환방식을 적용하였다. 실험을 통해 본 제안 방식이 건물 화재 피해도를 기준으로 한 평가에서 기존 방식 대비 가장 낮은 건물 화재 피해를 기록한 것을 확인하였다.
},
keywords = {dimension reduction, disaster response, reinforcement learning},
pubstate = {published},
tppubtype = {article}
}
강화학습은 학습을 통해 최적의 행동정책을 탐색하는 기법으로써, 재난 상황에서 효과적인 인명 구조 및 재난 대응 문제 해결을 위해 많이 활용되고 있다. 그러나, 기존 재난 대응을 위한 강화학습 기법은 상대적으로 단순한 그리드, 그래프와 같은 환경 혹은 자체 개발한 강화학습 환경을 통해 평가를 수행함에 따라 그 실용성이 충분히 검증되지 않았다. 본 논문에서는 강화학습 기법을 실세계 환경에서 사용하기 위해 기존 개발된 재난 시뮬레이션 환경의 복잡한 프로퍼티를 활용하는 강화학습 환경 구성과 활용 결과를 제시하고자 한다. 본 제안 강화학습 환경의 구성을 위하여 재난 시뮬레이션과 강화학습 에이전트 간 강화학습 커뮤니케이션 채널 및 인터페이스를 구축하였으며, 시뮬레이션 환경이 제공하는 고차원의 프로퍼티 정보의 활용을 위해 비-이미지 피쳐 벡터(non-image feature vector)에 이미지 변환방식을 적용하였다. 실험을 통해 본 제안 방식이 건물 화재 피해도를 기준으로 한 평가에서 기존 방식 대비 가장 낮은 건물 화재 피해를 기록한 것을 확인하였다.
2020
Yeo, Sangho; Oh, Sangyoon; Lee, Minsu
Accelerated deep reinforcement learning with efficient demonstration utilization techniques🌏 InternationalJournal Article
In: World Wide Web, pp. 1–23, 2020.
Links | BibTeX | 태그: deep reinforcement learning, imitation learning, reinforcement learning
@article{yeo2020accelerated,
title = {Accelerated deep reinforcement learning with efficient demonstration utilization techniques},
author = {Sangho Yeo and Sangyoon Oh and Minsu Lee},
url = {https://link.springer.com/article/10.1007/s11280-019-00763-0},
year = {2020},
date = {2020-01-01},
urldate = {2020-01-01},
journal = {World Wide Web},
pages = {1--23},
publisher = {Springer},
keywords = {deep reinforcement learning, imitation learning, reinforcement learning},
pubstate = {published},
tppubtype = {article}
}