본문 바로가기

논문리뷰

[논문리뷰] Style-Specific Neurons for Steering LLMs in Text Style Transfer LLM(Large Language Model)을 이용한 TST(Text Style Transfer)에서 스타일 특정 뉴런을 활용하는 방법 sNeuron-TST 제안출력 문장의 스타일 다양성과 유창성(fluency)을 높이기 위해 source 및 target 스타일과 관련된 뉴런을 식별source 스타일 전용 뉴런을 비활성화 → target 스타일 단어의 확률을 높이는 전략 사용이로 인한 fluency 저하 문제를 해결하기 위해 개선된 contrative decoding 방법 제안IntroductionTST의 목표는 문장의 의미는 유지하면서 원본 스타일에서 목표 스타일로 변환하여 문장을 생성하는 것LLM이 TST를 포함하여 다양한 NLP 태스크에서 예외적으로 높은 성능을 보임그러나 LLM은 스타일을 변환하.. 더보기
[논문리뷰] Delete, Retrieve, Generate: A Simple Approach to Sentiment and Style Tran 논문: https://arxiv.org/pdf/1804.06437소스코드: https://github.com/lijuncen/Sentiment-and-Style-Transfer2018년도에 나온 RNN을 사용한 꽤나 오래된 논문요즘 관심을 가지는 검색과 결합한 스타일 변환 논문이라서 읽어봄 Abstract텍스트 스타일 변환은 문장의 특정 속성(e.g., 감정)을 바꾸는 동시에 속성과 무관한 내용은 유지하는 작업저자는 이전 연구에서 사용된 적대적 학습이 고품질 결과 생성에 어려움이 있음을 지적텍스트 속성이 종종 독특한 구절로 표시된다는 관찰에 기반하여 더 간단한 방법 제안효과적인 방법으로 원래 문장의 속성과 관련된 구절 삭제 → 목표 속성 관련 구절 검색 → RNN으로 결합 → 생성실험 결과, 이 방법은 .. 더보기
[논문리뷰] Politeness Transfer: A Tag and Generate Approach 논문: https://arxiv.org/pdf/2004.14257소스코드: https://github.com/tag-and-generate/이 논문은 문장의 의미를 유지하면서 공손하지 않은 문장을 공손한 문장으로 변환하는 태스크 수행이를 위해 공손한 정도를 자동으로 라벨링한 139만 개 이상의 문장으로 된 데이터셋 공개공손 변환을 포함하여 여섯 가지 스타일 변환 태스크에 대해 "Tag and Generate" 파이프라인 설계이 파이프라인은 tagger와 generator라는 두 가지 모듈로 구성tagger: 원본 스타일의 단어나 구를 식별하여 [TAG] 토큰으로 대체generator: tagger의 출력을 입력으로 받아 대상 스타일의 문장 생성기존에 입력 문장에 대하여 수정이 필요한 부분을 guide하기.. 더보기
[논문리뷰] LLM2Vec: Large Language Models Are Secretly Powerful Text Encoders - 논문 제목: LLM2Vec: Large Language Models Are Secretly  Powerful Text Encoders- 저자: Parishad BehnamGhader, Vaibhav Adlakha, Marius Mosbach, Dzmitry Bahdanau, Nicolas Chapados, Siva Reddy- 연도: 2024- 학회/저널: COLM- TL;DR: decoder-only LLM을 강력한 text embedding model로 변환하는 간단한 method LLM2Vec 제안Abstract- openreview에서 "secretly"하다고 말할 수 없지 않냐고 지적한 게 인상적이었던 논문..    - "It can hardly be considered a secret th.. 더보기