분류 전체보기
-
Challenges and Applications of Large Language Models논문 리뷰 2024. 5. 22. 17:13
논문 요약: "Challenges and Applications of Large Language Models"저자:Jean Kaddour, Joshua Harris, Maximilian Mozes, Herbie Bradley, Roberta Raileanu, Robert McHardy연구 배경 및 목적:대형 언어 모델(LLMs)은 몇 년 만에 비존재에서 전방위로 확산되었습니다. 이 논문은 LLMs가 직면한 남아 있는 도전과 이미 성과를 거둔 응용 분야를 체계적으로 정리하여, ML 연구자들이 현재의 상태를 신속하게 이해하고 생산성을 높일 수 있도록 돕고자 합니다.주요 내용:도전 과제방대한 데이터셋: 사전 학습 데이터의 규모가 너무 커서 데이터 품질을 수동으로 확인하는 것이 불가능합니다.토크나이저 의존성: ..
-
A Prompt Pattern Catalog to Enhance Prompt Engineering with ChatGPT논문 리뷰 2024. 5. 22. 17:08
논문 요약: "A Prompt Pattern Catalog to Enhance Prompt Engineering with ChatGPT"저자:Jules White, Quchen Fu, Sam Hays, Michael Sandborn, Carlos Olea, Henry Gilbert, Ashraf Elnashar, Jesse Spencer-Smith, Douglas C. Schmidt배경 및 목적:이 논문은 대형 언어 모델(LLM)과의 대화를 효과적으로 이끌어내기 위해 필요한 프롬프트 엔지니어링 기술을 향상시키기 위한 프롬프트 패턴 카탈로그를 소개합니다. 프롬프트는 LLM에 주어진 지침으로, 출력의 품질과 상호작용을 개선하기 위해 사용됩니다. 프롬프트 패턴은 소프트웨어 패턴과 유사하게, 특정 문맥에서 직면..
-
Large Language Models for Qualitative Research in Software Engineering: Exploring Opportunities and Challenges논문 리뷰 2024. 5. 22. 17:06
논문 요약: "Large Language Models for Qualitative Research in Software Engineering: Exploring Opportunities and Challenges"저자:Muneera Bano, Rashina Hoda, Didar Zowghi, Christoph Treude배경 및 목적:이 논문은 소프트웨어 엔지니어링 분야에서 대형 언어 모델(LLMs)인 ChatGPT와 같은 모델이 질적 연구에 통합되는 것의 기회와 도전 과제를 탐구합니다. LLM의 도입은 학계와 다양한 전문 분야에 큰 변화를 가져왔으며, 특히 소프트웨어 엔지니어링 연구에서 LLM이 어떻게 활용될 수 있는지를 조사합니다.주요 내용:LLM의 통합과 연구자 역할의 변화:LLM의 통합으로 인해 ..
-
From Matching to Generation: A Survey on Generative Information Retrieval (1)논문 리뷰 2024. 5. 22. 17:01
Timeline of the Generative Retrieval methodsGenerative document retrievaldirectly generate document identifiers (DocIDs) related to the documentsGENRE: Autoregressive entity retrievalDSI: Transformer memory as a differentiable search indexNCI: A neural corpus indexer for document retrievalUltron: An ultimate retriever on corpus with a model-based indexerGLEN... https://arxiv.org/pdf/2404.14851 ..
-
Biases in Large Language Models: Origins, Inventory, andDiscussion논문 리뷰 2024. 5. 22. 16:52
이러한 문제를 극복하기 위한 흥미로운 방향 중 하나는 사전 학습된 언어 모델의 지식을 편집하여 잘못된 행동을 수정하거나 새로운 사건에 대한 정보를 포함시키는 것입니다. Editing factual knowledge in language modelshttps://arxiv.org/pdf/2104.08164 https://dl.acm.org/doi/pdf/10.1145/3597307.
-
Should We Respect LLMs? A Cross-Lingual Study on the Influence of Prompt Politeness on LLM Performance논문 리뷰 2024. 5. 22. 16:25
논문 요약: "Should We Respect LLMs? A Cross-Lingual Study on the Influence of Prompt Politeness on LLM Performance"저자:Ziqi Yin, Hao Wang, Kaito Horio, Daisuke Kawahara, Satoshi Sekine연구 배경 및 목표:이 논문은 프롬프트의 예의 수준이 대형 언어 모델(LLM)의 성능에 미치는 영향을 조사합니다. 인간 간의 소통에서 예의 바른 언어는 더 많은 순응과 효과를 가져오는 반면, 무례한 언어는 반감을 일으켜 응답의 질에 영향을 미칠 수 있습니다. LLM이 인간의 커뮤니케이션 특성을 반영할 수 있다고 가정하고, 영어, 중국어, 일본어 작업에서 프롬프트의 예의가 LLM의 성능에 미..
-
“According to . . . ”: Prompting Language ModelsImproves Quoting from Pre-Training Data논문 리뷰/Prompt engineering 2024. 5. 22. 16:07
초록더보기대형 언어 모델(LLM)은 사실적인 데이터로 사전 학습을 했음에도 불구하고 환각을 일으키고 가짜 정보를 생성할 수 있습니다. 저널리즘 장치인 “출처에 따르면”을 참고하여, 우리는 LLM이 이전에 관찰된 텍스트를 기반으로 응답을 유도하는 "출처에 따른 프롬프트"를 제안합니다. 이 기반을 정량화하기 위해, 우리는 모델이 생성한 답변이 기본 텍스트 자료에 얼마나 직접적으로 나타나는지를 측정하는 새로운 평가 지표 (QUIP-Score)를 제안합니다. 우리는 세 가지 자료 (위키백과, PubMed, 미국 법률 세법)에 대한 실험을 통해 이러한 프롬프트가 우리의 지표 하에서 기반을 개선함을 보여주며, 추가적인 이점으로 종종 최종 과제 성능이 향상됨을 보여줍니다. 더욱이, 모델에게 기반을 줄이거나(또는 다른..
-
CoTAR: Chain-of-Thought Attribution Reasoning with Multi-levelGranularity논문 리뷰 2024. 5. 22. 13:36
논문 요약: "CoTAR: Chain-of-Thought Attribution Reasoning with Multi-level Granularity"저자:Moshe Berchansky, Daniel Fleischer, Moshe Wasserblat, Peter Izsak (Intel Labs)연구 배경 및 목표:최신 질문 응답(QA) 시스템은 대형 언어 모델(LLM)을 사용하여 최고의 성능을 달성하지만, 이러한 모델은 응답에서 정보를 허구화하는 경향이 있습니다.본 연구는 입력에서 출력으로의 귀속을 포함하여 생성 프로세스를 향상시키는 접근 방식에 초점을 맞춥니다.CoTAR(Chain-of-Thought Attribution Reasoning) 방법을 도입하여 귀속의 정확성을 높이는 것을 목표로 합니다.Co..