[논문리뷰] PRvL: Quantifying the Capabilities and Risks of Large Language Models for PII Redaction

수정: 2025년 8월 8일

링크: 논문 PDF로 바로 열기

저자: Leon Garza, Anantaa Kotal, Aritran Piplai, Lavanya Elluri, Prajit Kumar Das, Aman Chadha

핵심 연구 목표

본 연구는 비정형 텍스트에서 개인 식별 정보(PII) 를 자동 제거하는 문제에 초점을 맞춥니다. 기존의 규칙 기반 시스템이나 도메인별 NER 모델이 가진 일반화 능력 부족과 컨텍스트 이해의 한계를 극복하기 위해, 대규모 언어 모델(LLMs) 의 PII 리다이액션 역량과 위험성을 정량적으로 평가하고, 아키텍처 및 훈련 선택이 성능에 미치는 영향을 규명하여 정확하고 확장 가능한 PII 리다이액션 시스템 구축을 위한 실증적 기반을 마련하는 것을 목표로 합니다.

핵심 방법론

다양한 LLM 아키텍처 (예: Dense LLM , SLM , MoE , LRM , SSM )와 훈련 전략 (예: Fine-Tuning , Instruction-Tuning ) 및 추론 전략 (예: Standard Generation , Retrieval-Augmented Generation (RAG) )을 종합적으로 평가했습니다. LoRA 를 활용한 파라미터 효율적인 미세 조정 을 통해 모델을 PII 리다이액션에 맞게 조정했으며, 리다이액션 정확도(Span-Correct, Label-Exact), 의미 보존(ROUGE, BLEU), PII 유출(SPriV) 등 다각적인 지표를 사용하여 성능을 측정했습니다.

주요 결과

Instruction-Tuning 된 모델, 특히 DeepSeek-Q1Llama3.1-8B 가 가장 우수한 PII 리다이액션 성능을 보였습니다. DeepSeek-Q1(Instruction-Tuned) 은 Span-Correct 평가에서 최고 정확도 0.994 와 재현율 0.981 을 달성했으며, BLEU 점수 0.908 로 가장 높은 구조적 일관성과 가장 낮은 SPriV 점수 0.002 로 뛰어난 개인 정보 보호 능력을 입증했습니다. 또한, LLMs는 스페인어 및 이탈리아어 데이터셋에서 강력한 교차 도메인 일반화 능력 을 보여주었습니다.

AI 실무자를 위한 시사점

Instruction-Tuning 이 PII 리다이액션에서 LLM의 성능을 극대화하는 데 핵심적인 역할을 한다는 점을 시사합니다. DeepSeek-Q1LLaMA 와 같은 오픈 소스 LLM 들이 대규모 상용 모델과 RAG 방식에 필적하는 성능을 보이면서도 낮은 계산 비용과 지연 시간 을 제공하여, 보안 및 자가 관리 환경에서 PII 리다이액션 시스템을 구축하려는 AI 실무자들에게 현실적인 대안이 될 수 있습니다. PRvL 공개를 통해 재현성 있는 연구와 실제 배포를 지원합니다.

⚠️ 알림: 이 리뷰는 AI로 작성되었습니다.

태그

#Review#PII Redaction#Large Language Models#Instruction Tuning#Retrieval-Augmented Generation#Privacy Preservation#Model Evaluation#Cross-Domain Generalization#Open-Source LLMs

Review 의 다른글