07/07 세미나

이번주 월요일에는 탁동혁 연구원이 인공신경망에서 네트워크 단위의 학습이 아닌 실제 뉴런 단위의 학습은 어떻게 이뤄지고 뉴런 각 객체가 헤비안 룰과 비슷한 방식 및 lateral inhibition을 이용해 학습을 진행할 때 기존의 …

07/01 세미나

이번 화요일에는 허정윤 연구원이 SNN의 입력 데이터에 패치를 넣어서 SNN 모델을 foolish 하는 방법인 SNN 특화 backdoor attack에 대해 설명하는 세미나 시간을 가졌습니다. 기존의 패치는 대부분 일반적인 2차원 이미지에서 동작하기 …

06/23 세미나

저번 월요일에는 이현종 연구원이 Autoencoder based on S4, diffusion model을 활용하여 스파이크 데이터로부터 양질의 latent를 뽑아내고 이를 통해 실제 뇌의 뉴런에서 발생하는 스파이크와 비슷한 스파이킹 패턴을 만들어낼 수 있는 인코더를 …

05/20 세미나

이번주 화요일에는 허정윤 연구원이 신경망을 압축하여 크기는 줄이면서도 최대한 성능을 보존할 수 있는 방법을 소개하는 논문을 발표했습니다. 이 논문에서는 신경망에 존재하는 여러 layer들을 묶어서 압축하거나 제거하고 압축 및 제거를 통해 …

05/13 세미나

저번 화요일에는 이현종 연구원이 SNN의 attack robustness를 강화시키기 위한 방법을 제안하는 논문을 소개하였습니다. 이 논문에서 소개하는 robust stable SNN은 요즘 많이 사용되고 있는 적대적 신경망 공격 기법인 FGSM, PGD 등에 …

04/01 세미나

오늘은 허정윤 연구원이 딥러닝 모델 훈련에 많이 쓰이는 Adam optimizer가 기존의 Stochastic Gradient Descent (SGD)로부터 어떻게 발전되었는지에 대해 다루는 세미나를 진행하였습니다. 기존의 SGD는 훈련 도중 지역 해에 빠지게 된 후 …

03/25 세미나

저번주 화요일에는 정민석 학생이 레이더에서 matched filter를 이용해 다중 신호를 처리하는 방법을 다루는 논문을 소개하였습니다. 이 논문은 2004년에 저널에 출판된 오래된 논문이었지만 여러 안테나 장비를 이용해 타겟의 위치와 속도 등 …

03/18 세미나

이번주 화요일에는 한용옥 학생이 MoE를 이용한 연합 학습 방식을 다룬 논문을 소개했습니다. MoE는 Mixture of Experts의 약자로 전체 신경망 모델에 대한 입력 데이터에 대해 특화된 작은 전문가 모델을 여러 개 …

03/04 세미나

이번 주 화요일에는 김동균 연구원이 SNN을 이용해서 Yolo-v8을 구현한 ECCV 논문을 소개하였습니다. 해당 논문에서는 훈련 과정에서는 일반적인 LIF 뉴런에서 스파이크 변환으로 인한 데이터 손실을 방지하기 위해 기존 DNN의 ReLU activation …

2/24 세미나

오늘은 이훈희 연구원이 federated learning에서 하이퍼 파라미터 세팅의 복잡성 문제를 해결하는 알고리즘을 소개한 논문을 발표했습니다. 기존의 federated learning에서는 하이퍼 파라미터의 설정이 학습 성능에 중요한 영향을 끼쳤었습니다. 하지만 이런 하이퍼 파라미터들을 …