LLM을 활용한 실전 AI 애플리케이션 개발

허정준 지음 | 책만 펴냄

LLM을 활용한 실전 AI 애플리케이션 개발 (LLM의 기본부터 모델 학습, 임베딩, 벡터 데이터베이스로 만드는 RAG까지)

나의 별점

읽고싶어요
32,000원 10% 28,800원

책장에 담기

게시물 작성

문장 남기기

분량

두꺼운 책

출간일

2024.7.25

페이지

556쪽

상세 정보

트랜스포머 아키텍처부터 RAG 개발, 모델 학습, 배포, 최적화, 운영까지 라마인덱스와 LLM을 활용한 AI 애플리케이션 개발의 모든 것. 이 책에서는 LLM의 기본 아키텍처에서 출발해 애플리케이션의 요구사항에 맞춰 LLM을 길들이고 제한된 컴퓨팅 환경에서 동작하게 경량화해서 원활하게 서빙하게끔 기초를 다진 다음에 RAG라는 LLM의 대표적인 애플리케이션을 만드는 방법을 차근차근 설명한다. 여기서 끝나지 않고 실제 운영과정에서 부딪히는 어려움을 해소하는 방법과 멀티 모달과 더불어 에이전트와 같은 고급 주제까지 다룬다.

LLM 시대를 맞이하여 필수적으로 갖춰야 하는 개발 지식을 이론과 실무 양쪽 관점에서 설명하고 있으므로, 새로운 패러다임에 적응하고자 하는 개발자들에게 가뭄의 단비처럼 다가올 것이다.

상세 정보 더보기

이 책을 언급한 게시물1

2025건물주님의 프로필 이미지

2025건물주

@gunmulju

LLM을 만들기 위해 좋은 구성

LLM을 활용한 실전 AI 애플리케이션 개발

허정준 지음
책만 펴냄

읽고싶어요
4주 전
0
집으로 대여
구매하기
지금 첫 대여라면 배송비가 무료!

상세정보

트랜스포머 아키텍처부터 RAG 개발, 모델 학습, 배포, 최적화, 운영까지 라마인덱스와 LLM을 활용한 AI 애플리케이션 개발의 모든 것. 이 책에서는 LLM의 기본 아키텍처에서 출발해 애플리케이션의 요구사항에 맞춰 LLM을 길들이고 제한된 컴퓨팅 환경에서 동작하게 경량화해서 원활하게 서빙하게끔 기초를 다진 다음에 RAG라는 LLM의 대표적인 애플리케이션을 만드는 방법을 차근차근 설명한다. 여기서 끝나지 않고 실제 운영과정에서 부딪히는 어려움을 해소하는 방법과 멀티 모달과 더불어 에이전트와 같은 고급 주제까지 다룬다.

LLM 시대를 맞이하여 필수적으로 갖춰야 하는 개발 지식을 이론과 실무 양쪽 관점에서 설명하고 있으므로, 새로운 패러다임에 적응하고자 하는 개발자들에게 가뭄의 단비처럼 다가올 것이다.

출판사 책 소개

트랜스포머 아키텍처부터 RAG 개발, 모델 학습, 배포, 최적화, 운영까지
라마인덱스와 LLM을 활용한 AI 애플리케이션 개발의 모든 것


이 책에서는 LLM의 기본 아키텍처에서 출발해 애플리케이션의 요구사항에 맞춰 LLM을 길들이고 제한된 컴퓨팅 환경에서 동작하게 경량화해서 원활하게 서빙하게끔 기초를 다진 다음에 RAG라는 LLM의 대표적인 애플리케이션을 만드는 방법을 차근차근 설명한다. 여기서 끝나지 않고 실제 운영과정에서 부딪히는 어려움을 해소하는 방법과 멀티 모달과 더불어 에이전트와 같은 고급 주제까지 다룬다.
LLM 시대를 맞이하여 필수적으로 갖춰야 하는 개발 지식을 이론과 실무 양쪽 관점에서 설명하고 있으므로, 새로운 패러다임에 적응하고자 하는 개발자들에게 가뭄의 단비처럼 다가올 것이다.

| 이 책에서 다루는 내용 |
- LLM의 핵심인 트랜스포머 아키텍처
- 챗GPT를 만드는 방법: 지도 미세 조정과 RLHF
- 오픈소스 LLM을 나만의 데이터로 추가 학습하기
- LLM 애플리케이션 운영을 위한 모델 경량화
- 라마인덱스를 활용한 RAG 구현과 개선
- 이미지와 음성도 처리하는 멀티 모달 LLM
- LLM에 장기 기억과 도구를 결합한 에이전트 아키텍처

| 이 책의 대상 독자 |
- LLM을 활용해 AI 애플리케이션을 개발하려는 개발자
- LLM API의 단순한 활용보다는 모델의 원리와 기반 기술도 궁금한 개발자
- AI 엔지니어가 되고자 하는 학생 및 취업준비생
- 짧은 시간에 LLM과 관련된 논문과 기술을 정리하고 싶은 대학원생

| 깃허브 실습 코드 다운로드 |
실습 코드는 책의 깃허브 저장소(https://github.com/onlybooks/llm)에서 확인할 수 있습
니다. 깃허브의 코드는 구글 코랩에서 두 가지 방법으로 활용할 수 있습니다.

1. 로컬에서 업로드하기: 깃허브의 코드를 로컬 환경에 클론하거나 압축 파일 형태로 내
려받은 후 진행하려는 실습 폴더의 노트북 파일(ipynb)을 구글 코랩에서 열어 실
습을 진행할 수 있습니다.
2. 깃허브 URL로 열기: 구글 코랩에서 노트 열기(Ctrl+O)를 선택하면 다양한 노트 열기
방식 중 깃허브GitHub 탭에서 코드의 URL을 통해 실습 노트북을 열 수 있습니다.

| 이 책의 코드 실행 환경 |
이 책의 실습은 구글 코랩에서 실행한다. 구글 코랩은 구글에서 제공하는 노트북 실
행 환경으로, 파이썬의 주피터 노트북과 유사한 UI로 브라우저에서 실행할 수 있다.
또 구글 코랩에서는 무료로 T4 GPU(16GB)를 사용할 수 있도록 제공한다. 구글 코랩
의 무료 버전은 12시간의 런타임 제한이 있으며, 장시간 사용하지 않으면 연결이 끊길
수 있다.

| 이 책의 구성 |
[1부 LLM의 기초 뼈대 세우기]
1장 ‘LLM 지도’에서는 대규모 언어 모델이라는 빠르게 발전하고 있는 분야에서 독자들이 길을 잃지 않도록 큰 흐름을 먼저 살펴본다. 1장을 통해 LLM 지도를 얻고 나면 이 책과 LLM에 대해 큰 줄기를 잡을 수 있다.
2장 ‘LLM의 중추, 트랜스포머 아키텍처 살펴보기’에서는 현대 LLM의 기반이 되는 트랜스포머 아키텍처를 알아본다. 트랜스포머 아키텍처는 처음 접했을 때 직관적으로 이해하기가 쉽지는 않지만, 친절한 설명과 함께 코드 레벨에서도 살펴봄으로써 트랜스포머 아키텍처라는 큰 산을 넘어가도록 돕는다.
3장 ‘트랜스포머 모델을 다루기 위한 허깅페이스 트랜스포머 라이브러리’에서는 트랜스포머 아키텍처 기반 모델을 쉽게 활용할 수 있도록 도와주는 허깅페이스의 트랜스포머 라이브러리 사용법을 알아본다. 허깅페이스 트랜스포머 라이브러리는 오픈소스 LLM을 활용할 때 자주 사용되며 이제는 거의 표준에 가까운 라이브러리가 됐다. 3장에서 라이브러리 사용법을 잘 익히고 나면, 다양한 모델을 거의 동일한 방법으로 활용할 수 있다.
4장 ‘말 잘 듣는 모델 만들기’에서는 말을 ‘잘 만들기만 하던’ 언어 모델이 어떻게 사용자의 말을 ‘잘 듣고 지시에 따르는’ 모델로 바뀌었는지 살펴본다. 2022년 11월 공개된 OpenAI의 챗GPT는 사용자의 말을 찰떡같이 알아듣고 사용자의 지시에 따라 응답함으로써 가장 성공적인 AI 제품이 됐다. 4장에서는 OpenAI가 어떻게 챗GPT같이 말 잘 듣는 모델을 만들었는지 살펴본다.

[2부 LLM 길들이기]
5장 ‘GPU 효율적인 학습’에서는 LLM처럼 파라미터가 많고 용량이 큰 모델을 작은 GPU에서도 학습시킬 수 있는 방법을 알아본다. 이 책에서 개발 환경으로 사용하는 구글 코랩(Colab)은 무료 버전에서는 메모리가 16GB인 GPU를 지원한다. 모델 자체의 용량만 10GB가 넘는 언어 모델을 어떻게 메모리가 16GB인 작은 GPU에서 학습시킬 수 있는지 5장에서 확인할 수 있다.
6장 ‘sLLM 학습하기’에서는 직접 작은 언어 모델(sLLM)을 실습데이터로 학습시켜 자연어에서 SQL을 생성하는 Text2SQL 모델을 만들어 본다. Text2SQL 모델은 기업에서 자주 발생하는 데이터 추출 요청을 언어 모델이 수행함으로써 데이터 조직의 생산성을 높이고 SQL에 익숙하지 않은 팀원의 데이터 접근성을 높이는 데 기여할 수 있다. 6장에서는 LLM을 통한 학습 데이터의 생성과 LLM미세 조정을 통해 준수한 성능의 sLLM을 만드는 방법을 알아본다.
7장 ‘모델 가볍게 만들기’에서는 언어 모델을 작게 만드는 방법과 효율적으로 추론하도록 만드는 방법을 알아본다. sLLM을 활용하는 경우 대부분의 GPU 비용은 학습이 아닌 서빙에서 발생한다. 따라서 학습시킨 모델을 작게 만들고 효율적으로 추론하도록 만들어서 GPU 비용을 크게 낮출 수 있다. 7장에서는 비용 효율적으로 LLM을 서빙하기 위한 다양한 방법을 살펴본다.
8장 ‘sLLM 서빙하기’에서는 LLM을 효율적으로 서빙할 수 있도록 도와주는 vLLM 라이브러리를 활용해 LLM을 서빙하는 방법을 알아본다. 6장에서 학습시킨 모델을 허깅페이스 트랜스포머 라이브러리로 실행할 때와 vLLM으로 실행할 때의 속도 차이를 확인함으로써 vLLM의 강력함을 확인할 수 있다.

[3부 LLM을 활용한 실전 애플리케이션 개발]
9장 ‘LLM 애플리케이션 개발하기’에서는 LLM 애플리케이션을 개발하기 위해 모델 이외에도 다양한 구성요소가 필요하다는 사실을 살펴본다. LLM 애플리케이션은 중심이 되는 모델과 모델에 최신 정보나 조직의 내부 정보를 추가하는 검색 증강 생성, LLM 추론 비용을 줄이는 LLM 캐시, 생성된 결과를 검토하는 데이터 검증 등이 필요한다.
10장 ‘임베딩 모델로 데이터 의미 압축하기’에서는 검색 증강 생성에서 정보를 저장하고 검색할 때 사용하는 임베딩 모델에 대해 알아본다. 임베딩이란 데이터의 의미를 유지하면서 숫자의 배열인 벡터 형태로 변환하는 방법을 말한다. 임베딩 모델을 활용해 텍스트 데이터를 벡터로 변환하면 의미적으로 유사하거나 관련 있는 데이터를 검색해 활용할 수 있다.
11장 ‘자신의 데이터에 맞춘 임베딩 모델 만들기: RAG 개선하기’에서는 10장에서 살펴본 임베딩 모델을 자신의 데이터에 맞춰 미세 조정할 수 있는 방법을 알아본다. 검색 증강 생성을 활용하려는 데이터가 임베딩 모델을 학습할 때 사용되지 않은 기업의 내부 데이터이거나 최신의 데이터라면, 기존에 학습된 임베딩 모델을 활용할 경우 검색 성능이 만족스럽지 않을 수 있다. 그런 경우 임베딩 모델을 자신의 데이터에 맞춰 추가 학습함으로써 검색 성능을 높일 수 있다. 또 검색 쿼리와 검색 문서를 직접 비교해서 관련도(relevancy)에 따라 검색 순위를 재조정하는 리랭커(Reranker)를 활용해 검색 성능을 높이는 방법도 살펴본다.
12장 ‘벡터 데이터베이스로 확장하기: RAG 구현하기’에서는 벡터로 변환된 텍스트 임베딩을 저장하고 검색할 때 사용하는 특수한 데이터베이스인 벡터 데이터베이스에 대해 알아본다. 벡터 데이터베이스에서 많이 활용되는 저장 및 검색 알고리즘인 HNSW(Hierarchical Navigable Small World)의 원리와 최적화 방법을 살펴보고 대표적인 벡터 데이터베이스인 파인콘(Pinecone)을 활용해 멀티 모달 검색을 구현하는 실습을 진행한다.
13장 ‘LLM 운영하기’에서는 머신러닝 모델을 효과적으로 운영하기 위해 사용하던 MLOps를 LLM에 맞춰 확장한 LLMOps에 대해 알아본다.
기존의 머신러닝 모델과 LLM의 차이점을 통해 LLMOps에서 더 집중해야 하는 부분을 소개한다. 대표적으로 LLM은 기존 머신러닝 모델에 비해 평가하기 어렵다. 아직까지도 LLM의 평가는 정답이 없고 모두가 고민하고 있는 주제다. 13장을 통해 LLM의 평가가 왜 어려운지, LM을 평가하기 위한 여러 접근 방식을 살펴본다.

[4부 멀티 모달, 에이전트 그리고 LLM의 미래]
14장 ‘멀티 모달 LLM’에서는 텍스트 이외에 이미지를 처리하는 LLM에 대해 알아본다. 이미지와 텍스트 데이터를 함께 처리해서 동일한 임베딩 공간에서 매핑할 수 있는 OpenAI의 CLIP 모델과 텍스트 입력을 바탕으로 이미지를 생성하는 DALL-E 모델을 알아보고 이미지와 텍스트를 함께 입력으로 받아 처리하는 오픈소스 모델인 LLaVa를 통해 멀티 모달 LLM의 기본 원리를 살펴본다.
15장 ‘LLM 에이전트’에서는 LLM을 확장하는 에이전트 아키텍처에 대해 알아본다. 에이전트 아키텍처란 LLM에 장기 기억, 인터넷 검색과 같은 도구, 작업을 분해하고 순차적으로 해결하는 계획 기능 등을 추가해 LLM의 성능을 몇 단계 높이는 더 발전된 LLM 시스템이다. 15장에서는 대표적인 에이전트 라이브러리인 마이크로소프트의 AutoGen을 활용해 LLM 에이전트를 구현하는 실습을 진행한다.
16장 ‘새로운 아키텍처’에서는 입력이 길어질수록 추론에 많은 시간과 연산 비용이 드는 트랜스포머 아키텍처의 단점을 보완하기 위해 새롭게 제안된 맘바(Mamba) 아키텍처에 대해 알아본다. 맘바 아키텍처는 기존에 자연어 처리에서 사용하던 순환신경망(Recurrent Neural Network, RNN)을 변형해 추론의 효율성을 유지하면서도 트랜스포머 아키텍처와 비슷한 성능을 보여 많은 주목을 받았다. 16장에서는 맘바 아키텍처에 대해 알아보며 새로운 아키텍처의 가능성을 살펴본다.

부록 '실습을 위한 준비 사항'에서는 이 책의 실습을 진행할 때 필요한 사항을 소개한다. 먼저 실습 환경인 구글 코랩 사용법을 살펴본 다음, 실습에 사용한 LLM과 데이터셋을 업로드하고 다운로드할 때 필요한 허깅페이스 토큰을 확인하는 방법을 설명한다. 마지막으로 대표적인 상용 LLM API인 OpenAI의 API 토큰을 생성하고 확인하는 방법을 소개한다.

무제한 대여 혜택 받기

현재 25만명이 게시글을
작성하고 있어요

나와 비슷한 취향의 회원들이 작성한
FLYBOOK의 더 많은 게시물을 확인해보세요.

지금 바로 시작하기

플라이북 앱에서
10% 할인받고 구매해 보세요!

지금 구매하러 가기

FLYBOOK 게시물이 더 궁금하다면?

게시물 더보기
웹으로 보기