분류 전체보기
-
From Matching to Generation: A Survey on Generative Information Retrieval (1)논문 리뷰 2024. 5. 22. 17:01
Timeline of the Generative Retrieval methodsGenerative document retrievaldirectly generate document identifiers (DocIDs) related to the documentsGENRE: Autoregressive entity retrievalDSI: Transformer memory as a differentiable search indexNCI: A neural corpus indexer for document retrievalUltron: An ultimate retriever on corpus with a model-based indexerGLEN... https://arxiv.org/pdf/2404.14851 ..
-
Biases in Large Language Models: Origins, Inventory, andDiscussion논문 리뷰 2024. 5. 22. 16:52
이러한 문제를 극복하기 위한 흥미로운 방향 중 하나는 사전 학습된 언어 모델의 지식을 편집하여 잘못된 행동을 수정하거나 새로운 사건에 대한 정보를 포함시키는 것입니다. Editing factual knowledge in language modelshttps://arxiv.org/pdf/2104.08164 https://dl.acm.org/doi/pdf/10.1145/3597307.
-
Should We Respect LLMs? A Cross-Lingual Study on the Influence of Prompt Politeness on LLM Performance논문 리뷰 2024. 5. 22. 16:25
논문 요약: "Should We Respect LLMs? A Cross-Lingual Study on the Influence of Prompt Politeness on LLM Performance"저자:Ziqi Yin, Hao Wang, Kaito Horio, Daisuke Kawahara, Satoshi Sekine연구 배경 및 목표:이 논문은 프롬프트의 예의 수준이 대형 언어 모델(LLM)의 성능에 미치는 영향을 조사합니다. 인간 간의 소통에서 예의 바른 언어는 더 많은 순응과 효과를 가져오는 반면, 무례한 언어는 반감을 일으켜 응답의 질에 영향을 미칠 수 있습니다. LLM이 인간의 커뮤니케이션 특성을 반영할 수 있다고 가정하고, 영어, 중국어, 일본어 작업에서 프롬프트의 예의가 LLM의 성능에 미..
-
“According to . . . ”: Prompting Language ModelsImproves Quoting from Pre-Training Data논문 리뷰/Prompt engineering 2024. 5. 22. 16:07
초록더보기대형 언어 모델(LLM)은 사실적인 데이터로 사전 학습을 했음에도 불구하고 환각을 일으키고 가짜 정보를 생성할 수 있습니다. 저널리즘 장치인 “출처에 따르면”을 참고하여, 우리는 LLM이 이전에 관찰된 텍스트를 기반으로 응답을 유도하는 "출처에 따른 프롬프트"를 제안합니다. 이 기반을 정량화하기 위해, 우리는 모델이 생성한 답변이 기본 텍스트 자료에 얼마나 직접적으로 나타나는지를 측정하는 새로운 평가 지표 (QUIP-Score)를 제안합니다. 우리는 세 가지 자료 (위키백과, PubMed, 미국 법률 세법)에 대한 실험을 통해 이러한 프롬프트가 우리의 지표 하에서 기반을 개선함을 보여주며, 추가적인 이점으로 종종 최종 과제 성능이 향상됨을 보여줍니다. 더욱이, 모델에게 기반을 줄이거나(또는 다른..
-
CoTAR: Chain-of-Thought Attribution Reasoning with Multi-levelGranularity논문 리뷰 2024. 5. 22. 13:36
논문 요약: "CoTAR: Chain-of-Thought Attribution Reasoning with Multi-level Granularity"저자:Moshe Berchansky, Daniel Fleischer, Moshe Wasserblat, Peter Izsak (Intel Labs)연구 배경 및 목표:최신 질문 응답(QA) 시스템은 대형 언어 모델(LLM)을 사용하여 최고의 성능을 달성하지만, 이러한 모델은 응답에서 정보를 허구화하는 경향이 있습니다.본 연구는 입력에서 출력으로의 귀속을 포함하여 생성 프로세스를 향상시키는 접근 방식에 초점을 맞춥니다.CoTAR(Chain-of-Thought Attribution Reasoning) 방법을 도입하여 귀속의 정확성을 높이는 것을 목표로 합니다.Co..
-
Learning to Plan and Generate Text with Citations논문 리뷰 2024. 5. 22. 10:44
논문 요약: "Learning to Plan and Generate Text with Citations"저자:Constanza Fierro, Reinald Kim Amplayo, Fantine Huot, Nicola De Cao, Joshua Maynez, Shashi Narayan, Mirella Lapata연구 배경 및 목표:LLM(대형 언어 모델)은 정보 검색 시나리오에서의 활용도가 증가하고 있습니다. 하지만 생성된 응답이 허구적이거나 정확하지 않은 경우가 많아 검증 가능한 시스템에 대한 요구가 커지고 있습니다.이 논문은 텍스트 생성 시 계획 기반 모델이 신뢰성과 검증 가능성을 어떻게 향상시키는지 탐구합니다.계획을 일련의 질문으로 개념화하여 생성할 콘텐츠와 그 조직을 계획합니다.두 가지 귀속 모델을..
-
ALCE (Automatic LLMs' Citation Evaluation)논문 리뷰/Evaluation 2024. 5. 22. 10:39
ALCE is a benchmark for Automatic LLMs' Citation Evaluation. ALCE collects a diverse set of questions and retrieval corpora and requires building end-to-end systems to retrieve supporting evidence and generate answers with citations. 평가 항목fluency, correctness, and citation quality- Use MAUVE (Pillutla et al., 2021) to measure fluency, adopt a natural language inference (NLI) model (Honovich et ..
-
RAG 관련 기술 - cognitaAI/NLP 2024. 5. 17. 17:07
https://discuss.pytorch.kr/t/cognita-rag-framework/4298 Cognita, RAG 애플리케이션 구축을 위한 모듈 기반 오픈소스 FrameworkCognita, RAG 애플리케이션 구축을 위한 모듈 기반 오픈소스 Framework 소개 Cognita는 프로덕션 환경에서 RAG(Retrieval Augmented Generation) 애플리케이션을 구축하기 위한 모듈러 오픈 소스 프레임워크입니다discuss.pytorch.kr