본 논문에 대한 리뷰는 논문의 내용 그 자체를 충실하게 정리해서 쓰기보다는 필자의 표현과 인사이트로 재가공되어 쓰여진 것입니다. 요약 Text-To-Text Transfer Transformer T가 5개라 T5다. NLU, NLG의 구분 없이 자연어처리의 모든 Task들을 생성 모델로 전부 통합하는 프레임워크를 제안하였다. 통합하는 프레임워크 제안을 위해 당시의 여러가지 PLM 학습 기법들에 대해 다양한 실험을 한 후 저자들이 찾은 최선의 조합을 제안하였다. 때문에 논문에는 여러가지 실험 내용들이 포함되어 있다. 이후 UL2의 논문이 T5와 꽤 유사하다. 저자들이 실험하고 찾은 최선의 조합은 아래와 같다. 볼드체가 T5 모델이 선택한 방법이다. Model Architecture Encoder-Decod..