NLP/LLM
LLM의 hallucination에 대응하기 위해 사실정보를 담고있는 지식 베이스를 활용하려는 논의가 다양하다. LLM의 truthness를 향상시키기 위해 자연어 질의에서 entity를 추출해 지식 베이스로부터 적합한 데이터를 추출해오는 방법에 대해 알아보자.
2024. 06. 26.
생성형 AI의 춘추전국시대가 도래했다. 생성형 AI마다 특화된 기능은 다른데, 이 기능에 맞게 효율적으로 생성형 AI를 활용할 수 있는 방법을 소개한다.
2024. 05. 16.
파이썬을 사용해 JaroWrinkler로 유사성을 계산하는 과정을 설명하고, 실제 결과의 검증방법에 대해 알아보자.
2024. 03. 22.
코헨의 카파 계수는 두 평가자 사이의 신뢰도를 측정하는 방법으로, 질적 연구방법부터 LLM 모델의 성능 평가까지 광범위하게 활용되고 있다. 코헨의 카파 계수의 개념을 알아보고, 파이썬으로 카파 계수를 구해보자.
2024. 02. 08.
문자열의 유사성을 측정하는 String distance 알고리즘에 대해 알아보자. 가장 광범위하게 사용되는 Levenshtein distance를 포함한 5가지의 알고리즘을 정리한다.
2024. 02. 02.
Few-Shot Learning의 포문을 열었던 GPT-3의 논문 Langauge Models are Few-Shot Learners를 읽고 리뷰해보자.
2024. 01. 31.
HuggingFace의 PEFT 중 하나로 지원하는 Prompt Tuning에 대해 알아보자. Prompt Tuning을 제안한 논문인 The Power of Scale for Parameter-Efficient Prompt Tuning을 읽고 리뷰한다.
2024. 01. 26.
Alpaca는 스탠포드 대학에서 개발한 오픈소스 경량 모델로, 학술 예산 내에서 어떻게 언어모델을 개발했는지 알아보자.
2024. 01. 22.
LangChain으로 ChatGPT를 사용해서 논문의 초록을 생성해보자. 추가적으로 ChatGPT의 결과를 Streamlit으로 이쁘게 나타내보자.
2024. 01. 11.