Notice

05/20 세미나

이번주 화요일에는 허정윤 연구원이 신경망을 압축하여 크기는 줄이면서도 최대한 성능을 보존할 수 있는 방법을 소개하는 논문을 발표했습니다. 이 논문에서는 신경망에 존재하는 여러 layer들을 묶어서 압축하거나 제거하고 압축 및 제거를 통해 …

05/13 세미나

저번 화요일에는 이현종 연구원이 SNN의 attack robustness를 강화시키기 위한 방법을 제안하는 논문을 소개하였습니다. 이 논문에서 소개하는 robust stable SNN은 요즘 많이 사용되고 있는 적대적 신경망 공격 기법인 FGSM, PGD 등에 …

4월 연구동향

이현종 연구원이 ICML 2025에 제출한 논문의 rebuttal 실험을 진행했고 추가적으로 SNN 구조를 FPGA에서 동작 시키기 위한 VDH generator framework를 공부하여 VHD 코드들을 만들어낸 뒤 vivado를 이용한 FPGA 시뮬레이션을 진행하였습니다. 김동균 …

3월 연구동향

이현종 연구원이 ICML 2025에 제출한 논문의 리뷰 결과를 보고 리뷰어들의 질문에 대답하기 위한 추가 실험들을 진행하고 있습니다. 김동균 연구원이 Spiking yolo 개발 작업을 거의 마무리 하고 실험 결과들을 뽑으며 학위 …

04/01 세미나

오늘은 허정윤 연구원이 딥러닝 모델 훈련에 많이 쓰이는 Adam optimizer가 기존의 Stochastic Gradient Descent (SGD)로부터 어떻게 발전되었는지에 대해 다루는 세미나를 진행하였습니다. 기존의 SGD는 훈련 도중 지역 해에 빠지게 된 후 …

03/25 세미나

저번주 화요일에는 정민석 학생이 레이더에서 matched filter를 이용해 다중 신호를 처리하는 방법을 다루는 논문을 소개하였습니다. 이 논문은 2004년에 저널에 출판된 오래된 논문이었지만 여러 안테나 장비를 이용해 타겟의 위치와 속도 등 …

03/18 세미나

이번주 화요일에는 한용옥 학생이 MoE를 이용한 연합 학습 방식을 다룬 논문을 소개했습니다. MoE는 Mixture of Experts의 약자로 전체 신경망 모델에 대한 입력 데이터에 대해 특화된 작은 전문가 모델을 여러 개 …

03/04 세미나

이번 주 화요일에는 김동균 연구원이 SNN을 이용해서 Yolo-v8을 구현한 ECCV 논문을 소개하였습니다. 해당 논문에서는 훈련 과정에서는 일반적인 LIF 뉴런에서 스파이크 변환으로 인한 데이터 손실을 방지하기 위해 기존 DNN의 ReLU activation …

2/24 세미나

오늘은 이훈희 연구원이 federated learning에서 하이퍼 파라미터 세팅의 복잡성 문제를 해결하는 알고리즘을 소개한 논문을 발표했습니다. 기존의 federated learning에서는 하이퍼 파라미터의 설정이 학습 성능에 중요한 영향을 끼쳤었습니다. 하지만 이런 하이퍼 파라미터들을 …