전체 글
-
Data MiningSeminar/IJCAI 2024 2024. 8. 13. 14:46
LLM-based Multi-Level Knowledge Generation for Few-shot Knowledge Graph Completion 초록 (GPT-4o 번역) 지식 그래프(KG)는 다양한 자연어 처리(NLP) 응용 분야에서 중요한 역할을 하지만, 특히 긴 꼬리 문제로 인해 불완전성에 자주 직면합니다. 긴 꼬리 문제는 드문 관계나 인기가 없는 관계 때문에 지식 그래프 완성 성능이 크게 저하되는 현상을 말합니다. 본 논문에서는 이러한 긴 꼬리 시나리오에서의 간극을 해결하는 과제인 Few-shot Knowledge Graph Completion (FKGC)에 중점을 둡니다. 대형 언어 모델(LLM)의 급속한 발전 속에서, 우리는 LLM 디스틸레이션을 통해 생성 기반의 FKGC 패러다임을 제안합..
-
On the Effects of Fairness to Adversarial VulnerabilitySeminar/IJCAI 2024 2024. 8. 13. 14:00
초록 (GPT-4o 번역)공정성과 강건성은 학습 모델에서 중요한 두 가지 개념입니다. 공정성은 모델이 특정 그룹에 불균형적으로 해를 끼치거나 이익을 주지 않도록 보장하는 것이며, 강건성은 입력에 작은 변화가 생겨도 모델이 이를 견디는 능력을 측정합니다. 이 두 속성은 모두 중요한데, 이 논문에서는 공정성과 강건성 사이의 대립적인 관계를 설명하고, 공정성을 추구할 때 모델의 적대적 샘플에 대한 강건성이 감소할 수 있는 상황을 분석합니다. 논문에서 제시된 분석은 이러한 대립적인 행동을 유발하는 요인들을 밝혀내고, 그룹 간 결정 경계까지의 거리가 중요한 요인임을 시사합니다. 비선형 모델과 다양한 아키텍처에서의 실험을 통해 이론적 결과를 검증합니다. 이론적 분석 외에도, 이 논문에서는 공정성과 강건성 사이에서 ..
-
SwiftThief: Enhancing Query Efficiency of Model Stealing by Contrastive LearningSeminar/IJCAI 2024 2024. 8. 13. 13:58
초록 AI 기반 서비스에 대한 위협은 공격자가 정규 쿼리 기반 접근을 통해 서비스 내부의 블랙박스 AI 모델의 기능을 복제할 수 있기 때문입니다. 탐지나 쿼리 비용을 피하기 위해, 모델 탈취 공격자는 정확한 클론 모델을 얻기 위해 쿼리의 수를 최소화해야 합니다. 이를 달성하기 위해 우리는 쿼리된 데이터와 쿼리되지 않은 데이터를 모두 활용하여 쿼리 복잡성을 줄이는 새로운 모델 탈취 프레임워크인 SwiftThief를 제안합니다. 특히, SwiftThief는 표현 학습을 위한 최신 기술인 대조 학습(Contrastive Learning)을 사용합니다. 우리는 모델 탈취를 위한 새로운 목적 함수를 공식화하였으며, 이는 공공 데이터셋에서의 풍부한 쿼리되지 않은 입력에 대한 자가 지도 학습(self-supervis..
-
Siren’s Song in the AI Ocean:A Survey on Hallucination in Large Language Models논문 리뷰 2024. 7. 2. 17:47
2024.07.02 - [논문 리뷰] - llm-hallucination-surveyAbstract대형 언어 모델(LLMs)은 다양한 다운스트림 작업에서 놀라운 능력을 입증했지만, 이 모델들이 환각을 나타내는 경향이 있다는 중요한 문제가 제기되고 있다. LLMs는 때때로 사용자 입력과 일치하지 않거나, 이전에 생성된 컨텍스트와 모순되거나, 확립된 세계 지식과 일치하지 않는 내용을 생성한다. 이러한 현상은 실제 시나리오에서 LLMs의 신뢰성에 상당한 도전을 제기한다. 이 논문에서는 LLM의 환각을 탐지, 설명 및 완화하는 최근의 노력을 조사하고, LLM이 직면하는 독특한 문제에 중점을 둔다. 우리는 LLM 환각 현상의 분류와 평가 벤치마크를 제시하고, LLM 환각을 완화하기 위한 기존 접근법을 분석하며, ..
-
-
Do Language Models Know When They’re Hallucinating References?논문 리뷰 2024. 5. 27. 16:46
https://aclanthology.org/2024.findings-eacl.62.pdf ChatGPT 논문 요약:배경 및 문제 제기:최신 언어 모델(LM)은 종종 사실에 기반하지 않은 정보를 생성하는 '환각' 현상을 보입니다. 이는 특히 중요한 도메인(예: 의료, 금융, 법률)에서 모델의 신뢰성을 저하시켜 오용 및 허위 정보의 위험을 증가시킵니다. 본 연구는 언어 모델이 생성하는 참고 문헌의 환각 문제를 집중적으로 조사합니다.연구 목표:언어 모델이 참조를 생성할 때 저자 및 내용과 같은 충분한 정보를 가지고 있어야 한다는 가정 하에 환각된 참조를 식별하는 방법을 제안합니다.언어 모델이 생성한 참조에 대해 직접적 또는 간접적인 질문을 통해 일관성 검사를 수행하여 환각된 참조를 식별합니다.주요 기여:환..
-
Rethinking STS and NLI in Large Language Models논문 리뷰 2024. 5. 27. 16:28
연구 배경 및 목적:최근 몇 년 동안, 대규모 언어 모델(LLM)의 등장으로 다양한 작업에서 효과적인 성능을 보였습니다. 그러나, 의미적 텍스트 유사성(STS) 및 자연어 추론(NLI)에 적용했을 때, 저자들은 LLM의 효율성이 저자원 도메인 정확도, 모델의 과신, 그리고 인간 판단 사이의 불일치를 포착하는 데 한계가 있음을 발견했습니다. 본 연구는 LLM 시대에서 STS 및 NLI 과제를 재고하고자 하며, 임상 및 생의학 도메인에서의 성능을 평가하고, LLM의 예측 신뢰도 및 집합적인 인간 의견을 포착하는 능력을 평가합니다.주요 발견:BERT 기반 모델 대비 성능:BERT-base로 미세 조정된 모델이 10개의 STS 및 NLI 데이터셋 중 9개에서 zero-shot ChatGPT보다 우수한 성능을 보..