기술 블로그

  • 홈
  • 태그
  • 방명록

LLM #LLaMA2 #NLP 1

LLaMA 2 살펴보기(작성 중)/08.27 업데이트

우선은 메모 형식으로 적어두고 나중에 정리할 것 같다. 일단 LLaMA2라고 하는게 맞다고 느껴질 정도로 기존 LLaMA에 비해서 PLM의 모델링 측면에서는 그렇게 많이 달라진 건 없는 것 같다. 반면에 말은 많지만 아직 체계가 덜 잡힌 RLHF에 대한 meta의 실험에 대한 내용, LLM 모델 학습을 위해 어떤 데이터가 필요하고 어떻게 데이터를 구성하는게 효율적인지에 대한 내용들은 참고할 점이 많은 것 같다. 체크 리스트 1. Grouped-query attention GQA: Training Generalized Multi-Query Transformer Models from Multi-Head Checkpoints(2023) -> Multi-head attention -> Multi-query at..

LLM 2023.07.19
이전
1
다음
더보기
프로필사진

기술 블로그

Github: https://github.com/Taeksu-Kim Linkedin: https://www.linkedin.com/in/taeksu-kim-691254209/ 제안 있으신 분은 caesian@gmail.com으로 편하게 연락주시기 바랍니다.

  • 분류 전체보기
    • 개념 정리
    • Paper Review
    • Pre-Training
    • LLM
    • ChatGPT와 웹 개발 도전하기
    • 팁

Tag

windows, nlp, Transformer, 사이드 프로젝트, T5, LLM #LLaMA2 #NLP, 어텐션, Self-attention, ChatGPT, 트랜스포머, 윈도우, 셀프 어텐션, LLM NLP Transformer, Attention, Flash Attention, UL2, vllm,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/09   »
일 월 화 수 목 금 토
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바