-
- [교수동정] 2025년 인공지능(AI) 챔피언 대회 이선재 교수 'AutoPhone팀' 최종 우승 NEW
- 과학기술정보통신부(부총리 겸 과기정통부 장관 배경훈. 이하, 과기정통부)는 ‘2025년 인공지능(AI) 챔피언 대회(이하 AI 챔피언 대회)’의 결선 대회심사를 5일, 서울 용산 드래곤시티 호텔에서 진행하고 최종 5개 연구팀을 수상자로 선정하고 시상식을 개최했다. 2025년도 AI 챔피언 대회에서 이선재 교수가 포함된 ‘오토폰(AutoPhone)' 팀이 최종 우승하여, 최대 30억 원 규모의 국가 R&D 과제로 선정되었다. 기술 소개 : "우승의 주인공인 ‘FluidGPT’는 이선재 조교수가 박사과정 시절 연구한 MobileGPT 기술을 기반으로한 모바일 AI 에이전트 기술로, 사용자의 음성 명령을 인식해 스마트폰이 스스로 앱을 실행하고 클릭·입력·결제까지 완성하는 자율형 AI 에이전트다. 예를 들어 사용자가 “서울역에서 부산 가는 SRT 예매해줘” 또는 “택시 불러줘”라고 말하면, AI가 실제 앱을 열고 단계별로 필요한 조작을 수행한다. 이는 단순 음성비서 수준을 넘어 ‘행동형 인공지능(Agentic AI)’의 개념을 실현한 것으로, AI가 화면을 직접 인식하고 스스로 판단해 행동하는 완전 자율형 시스템이다. FluidGPT의 핵심은 ‘비침습형(API-Free)’ 구조다. 기존 AI 서비스는 앱 내부의 API(응용프로그램 인터페이스)에 접근해야 기능을 실행할 수 있었으나, 이 기술은 앱 코드를 수정하거나 연결하지 않고도 화면(UI)을 직접 인식·조작해 마치 사람이 스마트폰을 다루는 것처럼 행동한다. 이 방식은 AI가 ‘손을 대신 움직이는 지능’을 갖춘 것과 같아, 기존 스마트폰 사용방식의 패러다임을 바꿀 기술로 평가된다." 참고 자료 : https://www.aitimes.kr/news/articleView.html?idxno=37080
-
- 작성일 2025-11-10
- 조회수 252
-
- [학생실적] 2025 Samsung AI Challenge 대회 3개 부문 中 2개 부문 소프트웨어학과 소속 최우수상 수상 NEW
- SAMSUNG DS AI Center 주관의 2025 Samsung AI Challenge 대회 3개 부문 중 2개 부문(AI Co-Scientist / 거대모델 경량화) 에서성균관대학교 소프트웨어학과 소속 학생 2명이 각 부문 최우수상(1등)을 수상하였습니다. 박제현(소프트웨어학과/20) 학생은 거대 모델의 성능 저하 없이 크기를 줄이는 방법 부문에 개인으로 참가하여 최우수상을 수상하였고, 변지환(소프트웨어학과/21) 학생은 AI Co-Scientist 부문에 이선재 교수 랩실의 지원과 지도를 받아 최우수상을 수상하였습니다. 거대 모델의 성능 저하 없이 크기를 줄이는 방법 부문에서는 SMoE 모델의 메모리 및 자원 문제를 해결하고 성능을 유지하며 전문가 수를 효율적으로 축소하는 방법론을 개발하였고, AI Co-Scientist 부문은 다중 AI 에이전트를 설계하고 협력시켜 3D Metrology 문제 해결을 위한 모델 개발 전 과정(코드 생성, 실험 등)을 최소한의 인간 개입으로 자동화하는 알고리즘을 개발하였습니다. 수상자 인터뷰(박제현) :https://dacon.io/forum/415288?page=1&dtype=tag&fType=&category=forum 수상자 인터뷰(변지환) : https://dacon.io/forum/415286?page=1&dtype=tag&fType=&category=forum
-
- 작성일 2025-11-06
- 조회수 842
-
- [학생실적] 2025 Samsung AI Challenge 대회 AI Co-Scientist 부문 최우수상 수상 NEW
- 이선재 교수님 랩실의 지원과 지도를 받아 SAMSUNG DS AI Center 주관의 2025 Samsung AI Challenge 대회 AI Co-Scientist 부문에서 변지환 학생(소프트웨어학과)이 최우수상을 수상하였습니다. 수상자 인터뷰(변지환) : https://dacon.io/forum/415286?page=1&dtype=tag&fType=&category=forum
-
- 작성일 2025-11-06
- 조회수 284
-
- [연구] 보안공학연구실(지도교수: 김형식), ACM Conference on Computer and Communications Security (CCS’25), Best Poster Award 수상
- 보안공학 연구실 (지도교수: 김형식, https://seclab.skku.edu)의 조예나(학부과정) 학생과 김형식 교수가 진행한 "Poster: Scalable Privacy-Preserving Linear Regression Training via Homomorphic Encryption" 논문이 보안 분야 최우수 컨퍼런스 중 하나인 ACM Conference on Computer and Communications Security (CCS’25)에서 Best Poster Awards를 수상했습니다. (41편 중 2편 (~4.9%)에 수여함.) 해당 연구는 암호화된 데이터 환경에서도 효율적으로 선형회귀 모델을 학습할 수 있는 새로운 프로토콜을 제안합니다. CKKS 기반의 PP-LR(Privacy-Preserving Linear Regression) 프로토콜을 개발하여, 기존 동형암호를 활용한 학습 방식의 높은 계산 비용 문제를 해결했습니다. PP-LR은 특징 단위 병렬화와 조건부 부트스트래핑 기법을 사용해 암호화된 상태에서의 경사하강법을 효율적으로 수행할 수 있습니다. 그 결과, 기존 동형암호 구현 대비 최대 15.7배 빠른 학습 속도를 달성하면서도, 평문 학습 모델 대비 정확도 오차 0.2% 이내를 유지했습니다.
-
- 작성일 2025-11-03
- 조회수 486
-
- [연구] 자연어처리연구실(NLP lab, 지도교수: 고영중), EMNLP 2025의 Main Track(long paper)에 논문 2편 게재
- 자연어처리연구실(NLP lab, 지도교수: 고영중)의 논문 2편이 인공지능 및 자연어처리 분야의 Top-tier 국제학술대회인 EMNLP 2025(The 2025 Conference on Empirical Methods in Natural Language Processing)의 Main Track(long paper)에 게재되었습니다. 논문: ECO Decoding: Entropy-Based Control for Controllability and Fluency in Controllable Dialogue Generation, Main Track (long paper) (인공지능학과 석사과정 신승민, 인공지능학과 박사과정 김두영) 논문 요약: 본 연구에서는 기존의 속성 제어 연구 방법론 중 하나인 가중치 기반 생성(Weighted Decoding)에서 엔트로피 기반의 동적인 가중치를 활용하는 방법을 제안합니다. 가중치 기반 생성 방법은 생성 AI의 확률 분포에 각 토큰이 생성될 경우 제어하고자 하는 속성으로 분류될 확률 분포를 결합하여 최종 확률 분포를 계산합니다. 따라서 생성 AI의 추가적인 학습 없이 속성 분류기만을 학습하여 최소한의 학습으로 속성을 제어할 수 있으며, plug-and-play 방식으로 효율적인 활용이 가능합니다. 기존의 가중치 기반 생성 방법은 두 확률 분포의 가중치를 실험적으로 선택하지만, 이러한 방식은 경우에 따라 생성 품질을 저하하거나 속성 제어가 잘 이뤄지지 않을 수 있습니다. 이러한 문제를 해결하기 위해서는 응답에 생성되는 과정에 따라 동적으로 가중치를 할당할 수 있어야 합니다. 본 연구에서는 이러한 동적인 가중치를 할당하기 위해 각 확률 분포의 엔트로피를 활용하였습니다. 엔트로피는 확률 분포의 불확실성을 정량화하는 값입니다. 엔트로피가 높은 경우 선택 가능한 합리적인 토큰 후보가 많고, 엔트로피가 낮은 경우 선택 가능한 토큰이 제한적이라는 점에서 착안하여 엔트로피에 반비례하는 동적인 가중치를 설계하였습니다. 2가지 대화 데이터셋에서 다양한 베이스라인 가중치 기반 생성 기법에 동적인 가중치를 적용한 결과, 추가적인 학습 과정 없이도 높은 생성 품질을 유지하면서 속성 제어가 가능함을 실험적으로 증명하였습니다. 또한 다양한 모델 사이즈에서도 모두 성공적인 제어 결과를 확인할 수 있었습니다. 또한 기존의 가중치 기반 생성 기법에서 다루기 어려웠던 다중 속성 제어 환경에서도 성공적인 성능 향상을 달성할 수 있었습니다. Abstract: Controllable Dialogue Generation (CDG) enables chatbots to generate responses with desired attributes, and weighted decoding methods have achieved significant success in the CDG task. However, using a fixed constant value to manage the bias of attribute probabilities makes it challenging to find an ideal control strength that satisfies both controllability and fluency. To address this issue, we propose ECO decoding (Entropy-based COntrol), which dynamically adjusts the control strength at each generation step according to the model’s entropy in both the language model and attribute classifier probability distributions. Experiments on the DailyDialog and MultiWOZ datasets demonstrate that ECO decoding consistently improves controllability while maintaining fluency and grammaticality, outperforming prior decoding methods across various models and settings. Furthermore, ECO decoding alleviates probability interpolation issues in multiattribute generation and consequently demonstrates strong performance in both single- and multi-attribute scenarios. 논문: Decoding Dense Embeddings: Sparse Autoencoders for Interpreting and Discretizing Dense Retrieval, Main Track (long paper) (인공지능학과 석사과정 박성완, 인공지능학과 석사과정 김택림) 논문 요약: 밀집 문서 검색(Dense Passage Retrieval, DPR)은 우수한 성능을 보이지만, dense embedding의 불투명성으로 인해 검색 결과에 대한 설명 가능성과 신뢰성에 한계가 있습니다. 본 연구는 희소 오토인코더(Sparse Autoencoder, SAE)를 활용하여 DPR의 dense embedding을 해석 가능한 latent concept로 분해하고, 각 concept에 대해 대규모 언어 모델(LLM)을 이용해 자연어 설명을 생성하는 새로운 해석 프레임워크를 제안하고, 다양한 정성적·정량적 실험을 통해 DPR 모델에 대한 SAE 기반 해석의 타당성과 효과성을 검증하였습니다. 더불어, 기존 단어 기반 sparse retrieval 대신, latent concept를 정보 검색 단위로 활용하는 Concept-Level Sparse Retrieval (CL-SR) 구조를 제안하였습니다. 이는 sparse retrieval의 효율성과 해석 가능성을 유지하면서도 dense retrieval 수준의 표현력과 의미적 강건성을 동시에 활용할 수 있는 구조로, 기존 sparse 모델에 비해 높은 검색 효율성과 정확도를 보였으며, 의미 불일치 상황에서도 우수한 성능을 유지하였습니다. Abstract: Despite their strong performance, Dense Passage Retrieval (DPR) models suffer from a lack of interpretability. In this work, we propose a novel interpretability framework that leverages Sparse Autoencoders (SAEs) to decompose previously uninterpretable dense embeddings from DPR models into distinct, interpretable latent concepts. We generate natural language descriptions for each latent concept, enabling human interpretations of both the dense embeddings and the query-document similarity scores of DPR models. We further introduce Concept-Level Sparse Retrieval (CL-SR), a retrieval framework that directly utilizes the extracted latent concepts as indexing units. CL-SR effectively combines the semantic expressiveness of dense embeddings with the transparency and efficiency of sparse representations. We show that CL-SR achieves high computational and storage efficiency while maintaining robust performance across vocabulary and semantic mismatches. 고영중 교수: yjko@skku.edu, nlp.skku.edu, 자연어처리연구실: nlplab.skku.edu
-
- 작성일 2025-10-30
- 조회수 603
-
- [연구] [차수영 교수] 소프트웨어분석 연구실(SAL), ICSE 2026 논문 게재 승인
- 소프트웨어 분석 연구실 (지도교수: 차수영)의 김민종 학생 (박사과정)의 논문이 소프트웨어공학 분야 최우수 학회인 ICSE 2026 (IEEE/ACM International Conference on Software Engineering)에 게재 승인(Accept) 되었습니다. 해당 논문은 2026년 4월에 브라질 Rio에서 발표될 예정입니다. 본 논문 "Enhancing Symbolic Execution with Self-Configuring Parameters"은 강력한 소프트웨어 테스팅 방법론인 “기호 실행(Symbolic Execution)”의 성능을 높이기 위해, 완전히 자동화된 외부 파라미터 값 조정(external parameter tuning) 기술을 제안한다. 학계나 산업계에서 널리 사용되는 실용적인 기호 실행 도구들은 일반적으로 그 성능에 영향을 끼치는 다양한 외부 파라미터들을 적게는 수십 개에서 많게는 수백 개까지 포함하고 있다. 그러나, 기호 실행을 기존의 파라미터 조정 기술들은 테스트 대상 소프트웨어마다 수작업으로 값을 조정하거나 사용자의 개입을 요구하는 반자동화(Semi-Automatic) 방식만 존재했다. 본 논문에서는 학계에 잘 알려진 두 가지 기호 실행 도구들(KLEE, CREST)에 사용자의 개입이 없이도 적절한 외부 파라미터 값을 자동으로 선정할 수 있는 방법인 ParaSuit를 제안한다. 실험적으로, ParaSuit는 다수의 오픈소스-C 프로그램을 대상으로 기존의 최신 파라미터 조정 기술과 비교해서 분기 커버리지(Branch Coverage)와 오류 검출 능력을 크게 향상시키는데 성공하였다. [논문 정보] - 제목: Enhancing Symbolic Execution with Self-Configuring Parameters - 저자: 김민종, 차수영 - 학회: IEEE/ACM International Conference on Software Engineering (ICSE 2026) Abstract: We present ParaSuit, a self-configuring technique that enhances symbolic execution by autonomously adjusting its parameters tailored to each program under test. Modern symbolic execution tools are typically equipped with various external parameters to effectively test real-world programs. However, the need for users to fine-tune a multitude of parameters for optimal testing outcomes makes these tools harder to use and limits their potential benefits. Despite recent efforts to improve this tuning process, existing techniques are not self-configuring; they cannot dynamically identify which parameters to tune for each target program, and for each manually selected parameter, they sample a value from a fixed, user-defined set of candidate values that is specific to that parameter and remains unchanged across programs. The goal of this paper is to automatically configure symbolic execution parameters from scratch for each program. To this end, ParaSuit begins by automatically identifying all available parameters in the symbolic execution tool and evaluating each parameter’s impact through interactions with the tool. It then applies a specialized algorithm to iteratively select promising parameters, construct sampling spaces for each, and update their sampling probabilities based on data accumulated from symbolic execution runs using sampled parameter values. We implemented ParaSuit on KLEE and assessed it across 12 open-source C programs. The results demonstrate that ParaSuit significantly outperforms the state-of-the-art method without selfconfiguring parameters, achieving an average of 26% higher branch coverage. Remarkably, ParaSuit identified 11 unique bugs, four of which were exclusively discovered by ParaSuit.
-
- 작성일 2025-10-27
- 조회수 541
-
- [학생실적] ‘3인 3색, SW와 AI로 미래를 설계하다’ 박준우, 김동완, 김상호 학우
- ‘3인 3색, SW와 AI로 미래를 설계하다’ 박준우, 김동완, 김상호 학우
-
- 작성일 2025-10-24
- 조회수 53
-
- [연구] [구형준 교수] SecAI 연구실, ACM Conference on Computer and Communications Security (CCS’25), Distinguished Paper Award 수상
- SecAI 연구실 (지도교수 구형준, https://secai.skku.edu/)에서 Shakhzod 학생 (석사과정)과 전미진 학생 (석사과정)이 연구한 "A Decade-long Landscape of Advanced Persistent Threats: Longitudinal Analysis and Global Trends" 논문이 보안 분야 최우수학회인 ACM Conference on Computer and Communications Security (CCS’25) 학회에서 Distinguished Paper Award를 수상했다. (316편 중 30편 (~9.4%)에 수여함). 해당 논문은 지난 10년 간 (2014–2023) 수집된 총 1,509건의 개별 APT 기술 보고서 (24,215페이지)를 분석하여 603개의 고유한 APT 그룹을 식별하고, 이를 통해 APT 공격의 전반적 양상과 글로벌 트렌드를 거시적 관점에서 분석한다. 이를 위해 기술 보고서를 중심으로 한 세 가지 소스와 위협 행위자 중심의 또 다른 세 가지 소스를 포함한 신뢰할 수 있는 6개 출처와 177개의 관련 뉴스 기사를 활용하였으며, 대용량 문서 처리를 위해 규칙 기반 정보 검색 기법과 대형 언어 모델(LLM) 기반 검색 기법을 결합한 하이브리드 기법을 적용했다. 그 결과, APT 캠페인의 10년간 진화 과정, 사이버 위협 인텔리전스 기록 현황, APT의 공통적 특성, 그리고 정치적 사건, 국제 분쟁, 글로벌 팬데믹 등 외부 요인이 APT 활동에 미치는 영향 등을 종합적으로 분석할 수 있었다. 특히 10년 동안 총 154개국이 APT의 영향을 받았으며, 초기 침입 벡터로는 주로 악성 문서와 스피어 피싱이 사용되었고 2016년 이후 제로데이(zero-day) 취약점 활용이 감소하는 추세를 보였다. 또한, APT의 글로벌 동향을 직관적으로 이해할 수 있도록 APT 지도와 위협 행위자들과 표적 국가들 간의 관계를 보여주는 흐름도를 통해 시각화 자료도 제공한다.
-
- 작성일 2025-10-23
- 조회수 628
-
- [연구] [구형준 교수] SecAI 연구실, Annual Computer Security Applications Conference 2025 (ACSAC ’25) 논문 게재 승인
- SecAI 연구실 (지도교수 구형준, https://secai.skku.edu) 김민석 학생 (석사과정)의 "Rescuing the Unpoisoned: Efficient Defense against Knowledge Corruption Attacks on RAG Systems" 논문이 보안분야 우수학회인 Annual Computer Security Applications Conference (ACSAC) (ACSAC ’25)에 게재 승인되어 2025년 12월에 발표할 예정입니다. 검색증강생성 (Retrieval-Augmented Generation, RAG) 기술은 대규모 언어 모델의 한계인 환각 현상과 최신 정보 부족 문제를 해결하기 위해 외부 지식베이스를 활용하는 기술로 주목받고 있습니다. 하지만 최근 연구들은 악의적인 공격자가 위키피디아와 같은 공개 지식 소스에 오염된 정보를 주입하여 RAG 시스템이 잘못된 답변을 생성하도록 유도할 수 있음을 보여주었습니다. 기존 방어 기법들은 효과적이지만 각 문서를 개별 검증하거나 별도 모델 학습이 필요해 상당한 계산 비용이 발생하는 한계가 있었습니다. 본 연구에서는 추가적인 언어 모델 추론이나 모델 재학습 없이도 악성 콘텐츠를 효과적으로 탐지하는 RAGDefender를 제안합니다. 핵심 기술은 검색된 문서들 간의 의미적 유사도와 TF-IDF 기반 어휘 패턴을 활용한 2단계 필터링 메커니즘으로, 첫 번째 단계에서는 계층적 클러스터링(single-hop QA) 또는 집중도 분석(multi-hop QA)을 통해 잠재적 악성 문서 수를 추정하고, 두 번째 단계에서는 코사인 유사도 기반 쌍별 순위화와 빈도 점수를 계산하여 악성 문서를 정밀 식별합니다. NQ, HotpotQA, MS MARCO 데이터셋에서 3가지 공격 기법과 6가지 언어 모델(LLaMA, Vicuna, GPT-4o, Gemini)을 대상으로 실험한 결과, 악성 문서가 정상 문서보다 4배 많은 상황에서도 공격 성공률을 0.89에서 0.02로 감소시키며 답변 정확도는 0.21에서 0.73으로 향상시켰습니다. 특히 기존 기법 대비 12.36배 빠른 처리 속도를 달성하면서도 GPU 메모리를 전혀 사용하지 않아, 다양한 RAG 프레임워크와 여러 검색 모델에 즉시 통합 가능한 실용적 방어 솔루션임을 입증했습니다. Abstract: Large language models (LLMs) are reshaping numerous facets of our daily lives, leading to widespread adoption as web-based services. Despite their versatility, LLMs face notable challenges, such as generating hallucinated content and lacking access to up-to-date information. Lately, to address such limitations, Retrieval-Augmented Generation (RAG) has emerged as a promising direction by generating responses grounded in external knowledge sources. A typical RAG system consists of i) a retriever that probes a group of relevant passages from a knowledge base and ii) a generator that formulates a response based on the retrieved content. However, as with other AI systems, recent studies demonstrate the vulnerability of RAG, such as knowledge corruption attacks by injecting misleading information. In response, several defense strategies have been proposed, including having LLMs inspect the retrieved passages individually or fine-tuning robust retrievers. While effective, such approaches often come with substantial computational costs. In this work, we introduce RAGDEFENDER, a resource-efficient defense mechanism against knowledge corruption (i.e., by data poisoning) attacks in practical RAG deployments. RAGDEFENDER operates during the post-retrieval phase, leveraging lightweight machine learning techniques to detect and filter out adversarial content without requiring additional model training or inference. Our empirical evaluations show that RAGDEFENDER consistently outperforms existing state-of-the-art defenses across multiple models and adversarial scenarios: e.g., RAGDEFENDER reduces the attack success rate (ASR) against the Gemini model from 0.89 to as low as 0.02, compared to 0.69 for RobustRAG and 0.24 for Discern-and-Answer when adversarial passages outnumber legitimate ones by a factor of four (4x).
-
- 작성일 2025-10-14
- 조회수 531
-
- [연구] 우사이먼성일 교수 연구실 (DASH연구실), NeurIPS 2025 논문 2편 게재 승인
- DASH연구실 (지도교수: 우사이먼성일)의 논문이 인공지능 분야 우수학회인 NeurIPS2025 (The Thirty-Ninth Annual Conference on Neural Information Processing Systems)에 2편 논문이 게재 승인(Accept) 되었습니다. 논문은 25년 12월 샌디에고 컨벤션 센터에서 발표될 예정입니다. 1. 논문 “Through the Lens: Benchmarking Deepfake Detectors Against Moiré-Induced Distortions”은 소프트웨어학과 Razaib Tariq(소프트웨어학과 박사과정, 공동 제1저자), 인공지능학과 허민지(인공지능학과 석사졸업생, 공동 제1저자), Shahroz Tariq(CSIRO, Data61) 연구원이 저자로 참여했습니다. (교신저자: 우사이먼성일 교수) (Datasets and Benchmarks Track) 본 연구에서는 스마트폰으로 디지털 화면을 촬영할때 발생하는 모아레(Moiré) 아티팩트가 딥페이크 탐지 성능을 저하한다는 문제를 다룹니다. 이를 위해 모아레패턴이 포함된 동영상에 대해 최신 딥페이크 탐지 모델들을 체계적으로 평가하였습니다. Celeb-DF, DFD, DFDC, UADFV, FF++에서 총 12,832개(35.64시간 분량)의 영상을 수집하고, 다양한 디스플레이 스크린, 스마트폰 기종, 조명유무, 카메라 각도 등 실제 사용 조건을 폭넓게 반영하였습니다. 또한 모아레 패턴의 영향을 정밀하게 분석하기 위해, 자체 구축한 DeepMoiréFake(DMF) 데이터셋과 두 가지 합성 모아레 생성 기법을 활용해 추가 실험을 수행했습니다. 실험 결과, 15개의 탐지 모델 전반에서 모아레 아티팩트로 인해 성능이 최대 25.4%까지 저하되었고, 합성 모아레 역시 정확도를 21.4% 감소시켰습니다. 더욱이 완화 방안으로 사용되는 디모아레(모아레 제거) 기법은 오히려 문제를 악화시켜 정확도를 최대 16%까지 낮추는 것으로 나타났습니다. 이러한 결과는 압축, 샤프닝, 블러링 등 다른 현실적 변동 요인과 함께 모아레 왜곡에 견고한 탐지 모델의 필요성을 강조합니다. 본 연구는 DMF 데이터셋을 제시함으로써, 통제된 실험 환경과 실제 딥페이크 탐지 환경 사이의 격차 해소를 위한 벤치마크를 제공합니다. Deepfake detection remains a pressing challenge, particularly in real-world settings where smartphone-captured media from digital screens often introduces Moiré artifacts that can distort detection outcomes. This study systematically evaluates state-of-the-art (SOTA) deepfake detectors on Moiré-affected videos—an issue that has received little attention. We collected a dataset of 12,832 videos, spanning 35.64 hours, from Celeb-DF, DFD, DFDC, UADFV, and FF++ datasets, capturing footage under diverse real-world conditions, including varying screens, smartphones, lighting setups, and camera angles. To further examine the influence of Moiré patterns on deepfake detection, we conducted additional experiments using our DeepMoiréFake, referred to as (DMF) dataset, and two synthetic Moiré generation techniques. Across 15 top-performing detectors, our results show that Moiré artifacts degrade performance by as much as 25.4%, while synthetically generated Moiré patterns lead to a 21.4% drop in accuracy. Surprisingly, demoiréing methods, intended as a mitigation approach, instead worsened the problem, reducing accuracy by up to 16%. These findings underscore the urgent need for detection models that can robustly handle Moiré distortions alongside other real-world challenges, such as compression, sharpening, and blurring. By introducing the DMF dataset, we aim to drive future research toward closing the gap between controlled experiments and practical deepfake detection. 2. 논문 “RUAGO: Effective and Practical Retain-Free Unlearning via Adversarial Attack and OOD Generator”은 소프트웨어학과 이상용(소프트웨어학과 박사과정, 제1저자), 인공지능학과 정상준(인공지능학과 석사과정, 제2저자)연구원이 저자로 참여했습니다. (교신저자: 우사이먼성일 교수) (Main Track) 본 연구에서는 머신 언러닝 분야에서 보존 데이터(retain data)에 접근할 수 없는 환경에서 모델이 특정 데이터를 효과적으로 잊도록 하는 문제를 다루었습니다. 일반적으로 언러닝 과정에서는 잊어야 할 데이터(forget data)를 제거하면서 나머지 데이터의 성능을 유지해야 하지만, 보존 데이터에 접근하지 못할 경우 모델의 성능 저하가 심각하게 발생합니다. 이를 해결하기 위해서 RUAGO(Retain-free Unlearning via Adversarial attack and Generative model using OOD traning)라는 새로운 프레임워크를 제안합니다. RUAGO는 세 가지 핵심 요소를 통해 안정적이고 효과적인 언러닝을 달성합니다. 첫째, Adversarial Probability Module (APM)을 통해 forget data에 대해 단일 클래스(one-hot) 레이블 대신 soft label 기반 adversarial 확률을 사용하여 과도한 언러닝을 방지합니다. 둘째, Out-of-Distribution (OOD) 데이터로 학습된 생성 모델을 활용하여 보존 데이터 없이도 원본 모델의 지식을 보존합니다. 이때 생성된 합성 데이터는 모델의 내부 표현에 근접하도록 모델 인버전(model inversion) 과정을 거쳐 정제됩니다. 셋째, Sample Difficulty Scheduler를 도입하여 쉬운 샘플에서 어려운 샘플로 점진적으로 학습하는 Curriculum Learning 기반 지식 증류 전략을 적용했습니다. 이를 통해 학습 초기의 안정성과 후반의 일반화 성능을 동시에 확보하였습니다. CIFAR-10, CIFAR-100, TinyImageNet, VGGFace2 등의 다양한 데이터셋을 대상으로 실험한 결과, RUAGO는 기존 retain-free 방법들을 크게 능가하며, 보존 데이터를 사용하는 최신 방법들과도 동등하거나 더 우수한 성능을 달성했습니다. 특히 Membership Inference Attack (MIA) 평가에서도 재학습 모델과 유사한 수준의 개인정보 보호 효과를 보여, 정확도와 프라이버시를 동시에 만족하는 효과적인 언러닝 방법임을 입증했습니다. This paper addresses the problem of enabling a model to effectively forget specific data in scenarios where access to the retain data is unavailable in the field of machine unlearning. In general, the unlearning process aims to remove the forget set while maintaining the performance of the retain set. However, when the retain data is inaccessible, the model often suffers from severe performance degradation. To address this challenge, we propose a novel framework called RUAGO (Retain-free Unlearning via Adversarial attack and Generative model using OOD training). RUAGO achieves stable and effective unlearning through three key components. First, the Adversarial Probability Module (APM) mitigates over-unlearning by replacing one-hot labels with soft-label-based adversarial probabilities for the forget data. Second, a generator trained on Out-of-Distribution (OOD) data is employed to preserve the original model’s knowledge without requiring access to the retain data. The synthetic samples generated from the OOD data are further refined through a model inversion process to better align with the internal representations of the model. Third, the Sample Difficulty Scheduler introduces a Curriculum Learning-based knowledge distillation strategy that gradually transitions from easy to hard samples, ensuring both early-stage stability and improved generalization in later training stages. Extensive experiments on diverse datasets on CIFAR-10, CIFAR-100, TinyImageNet, and VGGFace demonstrate that RUAGO significantly outperforms existing retain-free approaches and achieves performance comparable to or better than state-of-the-art retain-based methods. Moreover, evaluation under the Membership Inference Attack (MIA) shows that RUAGO provides a privacy protection level similar to that of retrained model, demonstrating its effectiveness in achieving both high accuracy and strong privacy preservation simultaneously. Feel free to contact us at: https://dash-lab.github.io/ swoo@g.skku.edu
-
- 작성일 2025-10-13
- 조회수 445
발전기금



